Hacker News
DeepSeek v4
DeepSeek API 概述
DeepSeek API 采用与 OpenAI/Anthropic 兼容的 API 格式,允许用户通过修改配置,使用 OpenAI/Anthropic SDK 或与之兼容的软件来访问 DeepSeek 模型。
关键信息:
- 基础 URL:
- API Key: 需要在 https://platform.deepseek.com/api_keys 申请。
- 模型:
- 可用模型包括:
deepseek-v4-flash, deepseek-v4-pro, deepseek-chat, deepseek-reasoner。
deepseek-chat 和 deepseek-reasoner 将于 2026 年 7 月 24 日弃用。 为了兼容性,deepseek-chat 对应 deepseek-v4-flash 的非思考模式,deepseek-reasoner 对应 deepseek-v4-flash 的思考模式。
调用 Chat API 示例 (OpenAI 格式):
以下是一个使用 curl 命令调用 Chat API 的非流式响应示例:
curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer ${DEEPSEEK_API_KEY}" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"thinking": {"type": "enabled"},
"reasoning_effort": "high",
"stream": false
}'
- 可以通过设置
stream 参数为 true 来获取流式响应。
- Anthropic API 格式的示例请参考 Anthropic API。
|
GPT-5.5
GPT-5.5 发布:更智能、更直观的 AI 模型
OpenAI 发布了 GPT-5.5,这是目前为止最智能、最直观易用的模型,标志着计算机工作方式的新一步。GPT-5.5 能够更快地理解用户的意图,并能自主完成更多工作,尤其擅长编写和调试代码、在线研究、数据分析、创建文档和电子表格、操作软件以及在不同工具之间切换以完成任务。用户可以提供复杂的、多步骤的任务,并信任 GPT-5.5 来规划、使用工具、检查工作、处理歧义并持续推进。
主要改进与特点:
- 更强的能力: GPT-5.5 在代理编码、计算机使用、知识工作和早期科学研究等领域表现突出,能够跨上下文进行推理并采取行动。
- 速度与效率: 在提升智能水平的同时,GPT-5.5 保持与 GPT-5.4 相当的 token 延迟,并且更高效,完成 Codex 任务所需的 tokens 更少。
- 更强的安全性: GPT-5.5 采用了 OpenAI 最强大的安全措施,旨在减少滥用,同时保持对有益工作的访问。
- 广泛的测试: 在发布前,GPT-5.5 经过了全面的安全和准备框架评估、内部和外部红队测试、针对高级网络安全和生物学能力的测试,以及近 200 名早期访问合作伙伴的反馈。
发布情况:
- GPT-5.5 和 GPT-5.5 Pro 已推出到 Plus、Pro、Business 和 Enterprise 用户在 ChatGPT 和 Codex 中。
- GPT-5.5 Pro 已推出到 Pro、Business 和 Enterprise 用户在 ChatGPT 中。
- API 部署需要不同的安全措施,OpenAI 正在与合作伙伴和客户密切合作,以满足大规模服务的安全要求。API 接口的 GPT-5.5 和 GPT-5.5 Pro 将很快推出。
性能对比:
下表列出了 GPT-5.5 与其他模型在多个基准测试中的表现:
| 模型 |
Terminal-Bench 2.0 |
Expert-SWE |
GDPval (wins or ties) |
OSWorld-Verified |
Toolathlon |
BrowseComp |
FrontierMath Tier 4 |
| GPT-5.5 |
82.7% |
73.1% |
84.9% |
78.7% |
55.6% |
84.4% |
35.4% |
| GPT-5.4 |
75.1% |
68.5% |
83.0% |
75.0% |
54.6% |
82.7% |
27.1% |
| GPT-5.5 Pro |
- |
- |
82.3% |
- |
- |
90.1% |
39.6% |
| Claude Opus 4.7 |
- |
- |
82.0% |
- |
- |
79.3% |
22.9% |
| Gemini 3.1 Pro |
68.5% |
- |
80.3% |
78.0% |
48.8% |
85.9% |
16.7% |
其他亮点:
- GPT-5.5 在 Codex 中表现出色,可执行各种工程工作,包括实施、重构、调试、测试和验证。
- GPT-5.5 能够更好地理解系统结构,识别故障原因,并预测代码库中的影响。
- OpenAI 正在构建代理 AI 的全球基础设施,使世界各地的人们和企业能够使用 AI 来完成工作。
- GPT-5.5 在科学研究领域也表现出优势,能够帮助研究人员探索想法、收集证据、测试假设和解释结果。
总而言之,GPT-5.5 是 OpenAI 在 AI 领域的重要一步,
|
Palantir employees are starting to wonder if they're the bad guys
帕兰蒂尔公司内部反思:数据分析巨头与伦理困境 (Palantir's Internal Reflections: A Data Analytics Giant and Ethical Dilemmas)
本文讲述了数据分析公司帕兰蒂尔(Palantir)内部员工对公司业务伦理的日益担忧,以及公司在特朗普政府时期与移民执法部门合作所引发的争议。
公司背景与发展:
帕兰蒂尔成立于2001年,最初获得中央情报局的投资,旨在利用数据分析技术支持美国反恐行动。其核心业务是提供强大的数据聚合和分析工具,服务于政府、军方和私营企业。
争议与担忧:
- 与特朗普政府的合作: 在特朗普政府的第二任期内,帕兰蒂尔深度参与了美国移民执法部门的工作,为其提供软件,用于识别、追踪和协助驱逐移民。这引发了员工对公司价值观与公民自由之间冲突的担忧。
- 员工内部质疑: 许多员工开始质疑公司的行为,认为帕兰蒂尔似乎在助长而非阻止滥用行为。
- 员工沟通受限: 公司内部对员工发声的限制日益加强,员工受到禁止向媒体发表言论的约束,并需要签署非贬损协议。
- 对事件的回应迟缓: 公司管理层对员工提出的担忧往往采取回避的态度,并倾向于进行哲学上的解释。
- 亚历克斯·普雷蒂事件: 2026年1月,一名抗议移民和海关执法(ICE)的护士在明尼阿波利斯被联邦特工枪杀。帕兰蒂尔员工在内部Slack频道中要求公司公开其与ICE的关系,但公司随后删除了相关讨论记录,并以信息泄露为由进行解释。
- 伊朗导弹袭击事件: 2026年2月,一枚导弹袭击了伊朗一所小学,造成重大人员伤亡。有报告称,帕兰蒂尔的Maven系统可能参与了这次袭击,进一步加剧了员工的道德担忧。
- CEO的言论: 帕兰蒂尔CEO亚历克斯·卡普 (Alex Karp) 曾发表言论,暗示AI技术可能对民主选民不利,并呼吁恢复征兵制,引发了员工和外界的批评。
- 公司价值观的质疑: 帕兰蒂尔发布了一份内部宣言,阐述了卡普的观点,进一步激化了员工的不满,许多人认为这损害了公司的声誉。
公司回应:
帕兰蒂尔发言人表示,公司为支持美国及其盟友感到自豪,并强调公司内部存在激烈的讨论文化。
总结:
帕兰蒂尔公司正面临着日益增长的内部压力,员工对公司与政府合作的伦理影响表示担忧。公司管理层对员工的质疑反应迟缓,并采取限制员工发声的措施,这使得公司内部的反思更加复杂。
|
An update on recent Claude Code quality reports
Claude Code 回归问题调查与改进总结 (Claude Code Regression Issues Investigation and Improvements Summary)
Anthropic 近期收到用户反馈,Claude Code 的表现有所下降。经过调查,发现问题源于三个独立的变更,分别影响了 Claude Code、Claude Agent SDK 和 Claude Cowork。API 层面未受影响。这些问题已于 4 月 20 日 (v2.1.116) 修复。
问题回顾:
推理力度调整 (Reasoning Effort Adjustment): 3 月 4 日,为了解决 Claude Code 在 high 推理力度下出现的长时间延迟问题 (UI 冻结),将默认推理力度从 high 调整为 medium。用户反馈表明,更高的推理力度更符合需求。因此,4 月 7 日已将默认力度恢复为 xhigh (Opus 4.7) 和 high (其他模型)。受影响模型:Sonnet 4.6 和 Opus 4.6。
会话缓存优化 (Session Caching Optimization): 3 月 26 日,为了优化长时间闲置会话的 API 调用成本,引入了会话缓存清除机制。然而,实现中存在 bug,导致缓存清除在每次请求时发生,而非仅发生一次。这导致 Claude 出现健忘、重复等问题。该 bug 已于 4 月 10 日修复。受影响模型:Sonnet 4.6 和 Opus 4.6。
系统提示词变更 (System Prompt Change): 4 月 16 日,为了减少 Claude 的冗余输出,添加了系统提示词指令。该指令与其它提示词变更结合使用,导致代码质量下降。因此,已于 4 月 20 日回滚该变更。受影响模型:Sonnet 4.6、Opus 4.6 和 Opus 4.7。
问题原因分析:
由于每个变更影响的流量不同,且时间安排不同,导致整体表现出现广泛且不一致的下降。最初的反馈难以区分于正常的波动,且内部测试未能复现问题。
改进措施:
- 重置使用限制: 为所有订阅用户重置使用限制。
- 加强内部测试: 更多内部员工将使用公共版本的 Claude Code 进行测试。
- 改进 Code Review 工具: 改进内部 Code Review 工具并将其发布给用户。
- 严格控制系统提示词变更: 对系统提示词变更进行更广泛的评估,包括逐行评估 (ablation) 以及逐步发布。
- 加强模型特定变更管理: 对模型特定的变更进行更严格的管理,确保其只针对目标模型。
Anthropic 感谢用户的反馈,并承诺会持续改进 Claude Code 的质量。用户可以通过 /feedback 命令提供反馈。同时,Anthropic 也在 X (@ClaudeDevs) 和 GitHub 上分享产品决策和背后的原因。
|
If America's so rich, how'd it get so sad?
美国幸福感骤降:2020年代的“悲剧时代”
根据芝加哥大学经济学家萨姆·佩尔茨曼(Sam Peltzman)2026年的一篇论文,美国曾经是一个相对幸福的国家,但现在不再如此。通过分析《通用社会调查》(General Social Survey)的数据,佩尔茨曼记录了新冠疫情之后美国人口自我报告的幸福感“突然、急剧且前所未有”的下降,并且这种下降“主要持续”到2024年。他称之为“国家情绪的变革”。在持续了50年的幸福感基本稳定的时期后,美国人的幸福感骤降,且尚未完全恢复。
多项指标显示美国人越来越不快乐
这并非孤立的观点。联邦储备银行的工人满意度调查显示,该指标已降至2014年开始调查以来的最低水平。一周前,密歇根大学经济调查的消费者信心指数也跌至70年历史中最低水平。美国人对经济的悲观情绪甚至超过了上世纪70年代的滞胀时期和上世纪90年代的经济衰退。世界幸福报告也显示,美国排名跌至历史最低水平,尤其是在年轻人中的幸福感下降幅度惊人。
经济繁荣与主观幸福感之间的差距
尽管如此,美国经济数据却表现出积极的趋势。失业率几乎在整个十年中都低于5%,美国经济增长速度超过了欧元区、日本和英国等发达国家。越来越多的人进入中产阶级,低收入人群的工资增长速度甚至超过了高收入人群。
然而,这些经济数据与美国人自我报告的幸福感之间存在着巨大的差距。经济学家可能认为,强劲的经济是客观事实,而自我报告的悲观情绪仅仅是“非理性的感觉”。但这种感觉至关重要,因为它影响着消费者行为、政治态度、投票选择和经济政策。
幸福感骤降的普遍性
值得注意的是,幸福感的下降并非集中在年轻人、贫困人口或单身人士等群体中,而是几乎所有人口群体都经历了10%到15%的幸福感下降。
导致幸福感下降的因素
佩尔茨曼的研究显示,导致美国幸福感下降的关键因素可能与以下几点有关:
- **持续的危机感:**新冠疫情带来的不仅仅是病毒本身,还引发了经济危机、通货膨胀、供应链中断等一系列问题,这些问题至今未完全解决。
- **新闻负面化:**新闻媒体的负面情绪不断加剧了人们对危机的担忧。
- **社会信任度下降:**人们对政府、军方、大型企业、教育机构和宗教组织的信任度大幅下降。
- **个人孤立:**现代人越来越多地选择独处,并通过社交媒体接触他人,这削弱了社会信任,加剧了负面情绪。
- **通货膨胀:**持续的通货膨胀使得生活成本不断上升,加剧了人们的焦虑和不满。
英语国家共同的困境
世界幸福报告显示,除了美国,加拿大、英国、爱尔兰和澳大利亚等英语国家也出现了幸福感下降的趋势。这可能与这些国家的共同特点有关:高度个人主义文化、诊断心理障碍的范围扩大、以及新闻生态系统和社交媒体的负面情绪。
总而言之,2020年代对美国来说是一个“悲剧时代”, 经济危机、新闻负面化、社会信任缺失和个人孤立共同作用,导致了美国人普遍的幸福感下降。
|
|
Meta tells staff it will cut 10% of jobs
https://www.bloomberg.com/news/articles/2026-04-23/meta-tells-staff-it-will-cut-10-of-jobs-in-push-for-efficiency
|
US special forces soldier arrested after allegedly winning $400k on Maduro raid
美国特种部队士兵因在委内瑞拉马杜罗被捕事件中投注获利被捕 (Měiguó tèzhǒng bùduì shǒurén yīn zài wèinèiruìlā mǎdúlú bèi bǔ shìjiàn zhōng tòu zhù huòlì bèi bǔ)
事件概要 (Shìjiàn gàiyáo):
一名美国特种部队士兵 Gannon Ken Van Dyke (甘农·肯·范·戴克) 因涉嫌利用内部信息在预测市场 Polymarket 上投注委内瑞拉总统尼古拉斯·马杜罗 (Nicolás Maduro) 的被捕事件,获利高达 40 万美元而被捕并面临指控。
主要细节 (Zhǔyào xìjié):
- 指控内容 (Zhǐkòng nèiróng): Van Dyke 被指控盗用和滥用机密政府信息,以及欺诈和盗窃。他面临五项刑事指控。
- 投注行为 (Tòu zhù xíngwéi): 范·戴克在 2026 年 12 月底开始在 Polymarket 上进行投注,押注马杜罗将在 1 月份被“移除”。他进行了 13 次投注,总计投入超过 3.2 万美元,最终获利超过 40 万美元。
- 行动参与 (Xíngdòng cānyù): 检察官指控范·戴克参与了代号为“绝对决心行动 (Operation Absolute Resolve)”的行动策划和执行,并在此之前就获得了机密信息。
- 资金转移 (Zījīn zhuǎnyí): 范·戴克将他的巨额利润转移到一个外国加密货币钱包,然后再存入在线经纪账户,试图掩盖资金来源。
- 法律程序 (Fǎlǜ chéngxù): 范·戴克已缴纳 2.5 万美元保释金,将于下周二在纽约市接受传讯,并已被要求交出护照。
- 马杜罗被捕及指控 (Mǎdúlú bèi bǔ jí zhǐkòng): 马杜罗在一次秘密行动中被从卡拉卡斯总统府捕获,并被押送到纽约,面临美国联邦的毒品走私指控,目前已表示不认罪。
相关背景 (Xiāngguān bèijǐng):
- Polymarket (Polymarket): Polymarket 是一个知名的预测市场平台。该平台已于 2025 年获得特朗普政府批准,但其面向美国用户的网站尚未完全启用。
- 预测市场监管 (Yùcè shìchǎng jiānguǎn): 随着预测市场的兴起,美国国会已提出多项旨在加强监管的法案,包括对参与内幕交易的政府官员处以更严厉的惩罚。
- 特朗普政府的评论 (Tǔ'ěngpǔ zhèngfǔ de pínglùn): 特朗普总统表示对人们押注地缘政治事件的趋势表示担忧,并将其比作棒球明星 Pete Rose (彼得·罗斯) 的赌博行为。
Polymarket 的反应 (Polymarket de fǎnyìng):
Polymarket 发布声明表示,一旦识别到用户利用机密政府信息进行交易,他们会立即将其报告给司法部并配合调查,并强调内幕交易在 Polymarket 上不可容忍。该平台已于 3 月份推出新的规则,禁止基于机密信息和内部消息的交易。
|
Ubuntu 26.04
Ubuntu 26.04 ("Resolute Raccoon") LTS 发布总结
Ubuntu 26.04 ("Resolute Raccoon") LTS 版本已如期发布。该版本在桌面、服务器和云环境方面显著提升了安全性、性能和易用性。
主要特点:
- 安全性提升: 引入了基于TPM的全盘加密功能,加强了系统安全性。
- 内存安全: 扩展了内存安全组件的使用,有助于减少潜在的安全漏洞。
- 应用权限控制: 改进了应用程序的权限控制机制。
- Livepatch支持: 为Arm系统提供了Livepatch支持,减少停机时间并增强系统弹性。
官方衍生版本 (Flavors):
同时发布了以下官方衍生版本:
- Edubuntu
- Kubuntu
- Lubuntu
- Ubuntu Budgie
- Ubuntu Cinnamon
- Ubuntu Kylin
- Ubuntu Studio
- Ubuntu Unity
- Xubuntu
详细信息请参见官方文档:https://documentation.ubuntu.com/release-notes/26.04/#official-flavors
维护支持周期:
- Ubuntu Desktop, Ubuntu Server, Ubuntu Cloud, Ubuntu WSL, 和 Ubuntu Core 将获得5年的维护更新。
- 其他衍生版本将获得3年的维护支持。
更多信息:
详细的变更列表、系统要求等信息请参考官方发布说明:https://documentation.ubuntu.com/release-notes/26.04/
|
U.S. soldier charged with using classified info to profit from prediction market
美国士兵因利用机密信息进行赌博被指控
要点概述:
美国司法部今日宣布对美国陆军士兵Gannon Ken Van Dyke(甘农·肯·范·戴克)提起诉讼,指控其非法利用机密政府信息牟利,涉嫌盗窃非公开政府信息、商品欺诈、电汇欺诈以及进行非法货币交易。
事件经过:
- 涉案操作: Van Dyke参与了代号为“绝对决心行动”(Operation Absolute Resolve)的美国军事行动,旨在捕获委内瑞拉总统尼古拉斯·马杜罗(Nicolás Maduro)。他利用在行动中获取的机密信息在预测市场Polymarket上进行赌博。
- 赌博行为: Van Dyke于2025年12月创建了Polymarket账户,并进行了约13次赌博,押注与委内瑞拉和马杜罗相关的事件,如“美国军队在委内瑞拉”、“马杜罗下台”等。他总共投注了约33,034美元。
- 行动结果与获利: 2026年1月3日,美国特种部队成功逮捕了马杜罗及其妻子,美国总统随后宣布行动成功。Polymarket上与马杜罗和委内瑞拉相关的预测合约因此被结算为“是”,Van Dyke由此赢得了约409,881美元的赌资。
- 掩盖行为: Van Dyke随后将大部分收益转移到海外加密货币账户,并试图掩盖其在Polymarket上的交易痕迹,例如要求删除账户并更改加密货币交易所的注册邮箱。
指控与惩罚:
Van Dyke被指控犯有以下罪名:
- 违反商品交易法案 (3 项,每项最高判处 10 年监禁)
- 电汇欺诈 (最高判处 20 年监禁)
- 非法货币交易 (最高判处 10 年监禁)
相关机构声明:
- 纽约南区美国检察官Jay Clayton表示,利用机密信息进行赌博是违法的,将严惩此类行为。
- 代理司法部长Todd Blanche强调,联邦法律对保护国家安全信息有明确规定。
- 联邦调查局局长Kash Patel表示,任何持有安全许可的人利用信息牟利都将受到追究。
- 联邦调查局纽约办事处助理主管James C. Barnacle, Jr.表示,Van Dyke通过交易获取了超过40万美元的非法收益。
合作与调查:
美国司法部感谢联邦调查局的努力,并感谢美国战争部、商品期货交易委员会以及Polymarket的配合。 此案由纽约南区美国检察官办公室的安全与商品欺诈工作组和国家安全与国际毒品单位负责处理。
重要声明:
文中关于Van Dyke的行为描述仅为指控,所有事实应被视为指控。
|
|
'Hairdryer used to trick weather sensor' to win Polymarket bet
https://www.telegraph.co.uk/business/2026/04/23/hairdryer-used-trick-weather-sensor-34000-polymarket-bet/
|
Incident with multple GitHub services
事件摘要 (Incident Summary)
事件状态:已解决 (Resolved)
事件时间: 2026年4月23日 (Apr 23, 2026)
主要内容:
本次事件涉及多个服务,最初报告显示Copilot和Webhooks出现可用性下降。随后,Actions也出现了性能下降。
事件进展:
- 16:12 UTC: 开始调查Copilot和Webhooks可用性下降的报告。
- 16:19 UTC: 正在调查多个不可用的服务。
- 16:34 UTC: Actions 出现性能下降,正在继续调查。
- 16:52 UTC: 已经识别出问题的根源,正在进行缓解措施。
- 17:03 UTC: Actions 和 Copilot 的性能下降已得到缓解,正在监控以确保稳定性。
- 17:04 UTC: 许多服务已得到缓解,正在验证剩余服务。
- 17:10 UTC: Webhooks 运行正常。
- 17:30 UTC: 事件已解决。感谢用户的耐心和理解,详细的根本原因分析将在完成后发布。
受影响的服务:
|
Habitual coffee intake shapes the microbiome, modifies physiology and cognition
咖啡摄入影响肠道微生物群并调节宿主生理和认知
摘要
咖啡是一种由加工过的咖啡豆制成的植物性饮料。其风味和成分因咖啡豆种类、成熟度、加工方式、烘焙方式和冲泡方法而异。咖啡中的主要植物化学成分包括生物碱(如咖啡因)、(多)酚类(如酚酸)、类萜和烘焙过程中形成的焦色物质。适量饮用咖啡与多种健康益处相关,包括降低患 2 型糖尿病、肝病、心血管疾病和癌症的风险。一项大型横断面研究表明,适量饮用咖啡与全因死亡率、心血管死亡率和中风发病率降低相关。咖啡摄入与帕金森病的风险呈剂量依赖性降低。荟萃分析表明,咖啡消费者面临抑郁症风险降低。一项对认知衰退的研究显示,咖啡摄入与阿尔茨海默病发病率降低了 27%。
这些系统性益处与咖啡对大脑的直接影响相符,塑造了神经活动和认知结果。功能性磁共振成像研究表明,习惯性咖啡饮用者在与感觉、运动和情感处理相关的脑区表现出不同的功能连接。这些变化似乎取决于摄入频率,这表明规律的咖啡摄入可能影响大脑功能和情绪调节。最近的数据表明,老年人的认知功能(尤其是记忆和处理速度)与咖啡摄入呈正相关。咖啡摄入会导致皮质醇水平暂时升高,但习惯性使用后会恢复正常,表明生理适应。然而,咖啡对压力的影响尚不确定,研究结果好坏参半。
咖啡还会影响胃肠道。它会增加胃酸分泌并刺激辅助消化的激素释放。咖啡因和脱咖啡因咖啡都可促进结肠和回肠平滑肌的收缩,有助于预防便秘。越来越多的证据表明咖啡会影响人类健康和生理,其作用既有直接的,也有间接的,特别是通过肠道微生物群。
越来越多的证据表明,肠道微生物群对咖啡具有反应性,咖啡具有益生元作用。这主要归功于其纤维状化合物和酚酸,如绿原酸。例如,咖啡中的焦色物质可能会通过促进产短链脂肪酸细菌的生长来增加血清短链脂肪酸(SCFA)水平。一些研究表明,咖啡摄入会促进 Bacteroides 及其它属于革兰氏阳性菌属 双歧杆菌 和 乳酸菌 的益生菌的生长。此外,咖啡酚的生物利用度和代谢因人而异,这种现象受到肠道微生物群的影响。咖啡酚还可能通过激活大脑中的抗氧化反应因子来减少神经炎症。
一项涉及超过 1000 名参与者的宏基因组学研究发现,咖啡摄入与饮食成分之间的相关性最为密切,并且在第二个队列中得到验证。这表明咖啡可能通过其与肠道微生物群的相互作用来介导认知。例如,咖啡摄入与 Lawsonibacter asaccharolyticus 等产丁酸菌的水平升高有关。事实上,肠道-脑轴是一种双向信号通路,其在维持健康方面发挥着作用。
本研究旨在探索咖啡摄入、戒断和再摄入对认知、情绪和行为的影响,同时评估肠道微生物群。研究采用自报问卷调查,并对健康成年人的肠道微生物群和代谢组进行了分析。此外,还研究了压力、炎症和微生物衍生的代谢物等肠道-脑轴的途径。
研究结果
该前瞻性研究包括三个阶段,每个阶段都评估了认知、压力、身体健康、情绪和肠道微生物群。研究人员将不喝咖啡者(NCD)与喝咖啡者(CD)进行了比较,然后 CD 停止饮用咖啡 14 天。随后,CD 分别接受了含咖啡因或脱咖啡因咖啡的再摄入治疗 21 天。
在基线时,CD 的自报问卷调查结果显示,与 NCD 相比,CD 的冲动行为量表(UPPS-P)和其“寻求感官刺激”子分量更高。CD 还表现出更高的情绪反应量表(ERS)分数。戒断咖啡后,CD 的 UPPS-P 总分和负冲动分数,以及 ERS 分数显著降低。随后,再摄入含咖啡因或脱咖啡因咖啡时,CD 的压力自报症状和抑郁自报症状均有所改善。
受试者在经过 ModRey 测验后,脱咖啡
|
Why I Write (1946)
乔治·奥威尔自述写作动机:总结
本文为乔治·奥威尔于1946年发表在《Gangrel》杂志上的自述,阐述了他写作的动机、早期经历以及对写作的理解。主要内容如下:
一、早期写作经历与动机:
- 奥威尔从小就渴望成为一名作家,并在少年时期尝试写作诗歌、短篇小说和戏剧。
- 早期的写作与孤独感、自卑感有关,他通过写作来寻求一种补偿,建立一个私人的世界。
- 除了正式的写作,他还经常在脑海中构建一个持续的“故事”,对自身经历和所见事物进行细致的描述。
- 青少年时期,他发现了文字的魅力,受到《失乐园》等作品的影响,梦想创作自然主义风格的大部头小说,充满细致的描写和华丽的辞藻。
二、写作动机:四大支柱
奥威尔总结了四种主要的写作动机,并指出这些动机在不同作家和不同时期会以不同的比例存在:
- 自我中心主义 (Egoism): 渴望被关注、被记住,获得认可,是对童年经历的回应。
- 美学热情 (Aesthetic Enthusiasm): 对外部世界或文字本身的美感产生愉悦,并希望与他人分享这种体验。
- 历史冲动 (Historical Impulse): 渴望了解真相,记录事实,为后人留下历史的真实面貌。
- 政治目的 (Political Purpose): 渴望改变社会,影响人们的观念,推动社会向特定方向发展。
三、个人经历与政治觉醒:
- 早年的职业经历(缅甸殖民地警察)和贫困生活,使他逐渐意识到自身对权威的反感以及对工人阶级的关注。
- 希特勒、西班牙内战等事件促使他明确了自己的政治立场,并决定投身于反对极权主义、支持民主社会主义的写作事业。
- 他认为在动荡的时代,避免政治主题的写作是困难的,关键在于选择立场并保持艺术和知识的完整性。
四、写作艺术与政治结合:
- 奥威尔致力于将政治写作提升为艺术,他认为写作的起点是强烈的党派感和对不公正现象的愤怒。
- 他努力在写作中融合政治目的和艺术追求,力求在表达政治观点的同时,保持作品的审美价值。
- 他试图以更精确、更简洁的语言进行写作,避免华丽辞藻和空洞的表达。
- 《动物庄园》是他尝试将政治目的与艺术目的融为一体的代表作。
五、写作的内在驱动力:
- 奥威尔承认作家具有自私、懒惰的本性,写作本身是一项艰辛的斗争,源于一种难以抗拒、难以理解的内在驱动力。
- 他认为优秀的散文应该像窗户玻璃一样透明,不应带有作家的个人色彩。
- 他最终认识到,缺乏政治目的的写作往往会变得空洞乏味,而政治目的的明确能够激发作家的创作灵感。
总而言之,奥威尔的自述强调了写作的复杂性和多面性,以及政治与艺术之间微妙的平衡。他认为,真正的作家应该在追求艺术价值的同时,勇于承担社会责任,用文字揭露真相,推动社会进步。
|
Girl, 10, finds rare Mexican axolotl under Welsh bridge
十岁女孩在威尔士桥下发现罕见的墨西哥娃娃鱼
主要内容:
近日,威尔士布里登河畔的“洗脚桥”(Dipping Bridge)附近,一位名叫埃维 (Evie) 的10岁女孩意外发现了一只墨西哥娃娃鱼 (Axolotl)。这只娃娃鱼被命名为“Dippy”,目前由埃维一家带回家中饲养。
关键细节:
- 发现过程: 埃维在河边玩耍时,在桥下河岸的石头缝隙中发现了一只约23厘米长的娃娃鱼,它尾部和腹部有伤。
- 罕见程度: 墨西哥娃娃鱼是濒危物种,全球仅存50到1000只。这是英国首次记录到野生墨西哥娃娃鱼的发现。
- 娃娃鱼的流行: 近年来,由于在Minecraft和Roblox等游戏中出现,墨西哥娃娃鱼作为宠物越来越受欢迎。
- 家庭反应: 埃维的母亲梅拉尼 (Melanie) 对此感到震惊,并表示他们决定缩短假期,将Dippy带回家。
- 专家观点: 国家爬行动物福利中心 (NCRW) 的克里斯·纽曼 (Chris Newman) 认为,埃维很可能救了Dippy的命。他推测娃娃鱼可能是因为主人情况变化而被放生,这既违法又对动物不利。
- 饲养挑战: 专家提醒,娃娃鱼饲养难度较高,需要满足其特定的环境、饮食和行为需求,不应盲目购买。
- 发现的意义: 这种发现应该向相关机构报告。纽曼表示,埃维的发现非常独特,并称赞她具有敏锐的观察力。
关于墨西哥娃娃鱼:
- 墨西哥娃娃鱼是一种没有经历变态的蝾螈,始终保持在水中生活。
- 它们具有惊人的再生能力,可以再生肢体、眼睛甚至大脑的一部分。
- 由于栖息地丧失,野生墨西哥娃娃鱼数量急剧减少,目前已濒临灭绝。
总结:
埃维的意外发现不仅为科学研究提供了珍贵的机会,也提醒人们关注濒危物种的保护,以及规范宠物饲养的重要性。 这起事件也突显了孩子们对大自然的兴趣和好奇心,以及他们为保护环境所能发挥的作用。
|
MeshCore development team splits over trademark dispute and AI-generated code
MeshCore 项目现状与未来方向 (MeshCore Project Status and Future Direction)
MeshCore 项目经历了一段动荡时期,核心团队现发布声明,解释当前情况并宣布新的官方信息发布渠道。
核心事件回顾 (Key Events Recap):
- AI 代码使用争议 (AI Code Usage Controversy): 团队成员 Andy Kirby 在未经团队知情的情况下,大量使用了 Claude Code (AI 代码生成工具) 开发 MeshCore 生态系统组件,包括独立设备、移动应用、以及 Web 闪存和配置工具。团队对 AI 生成代码持谨慎态度,但并未阻止个人实验。
- 商标申请与沟通破裂 (Trademark Application and Communication Breakdown): Andy Kirby 在 3 月 29 日申请了 MeshCore 商标,并且未告知团队。随后沟通破裂,团队与 Andy Kirby 已失去联系。
- 社区投票结果 (Community Poll Results): 在 MeshCore Discord 社区进行的投票显示,大多数用户希望了解固件是否由 AI 生成,并希望获得知情权。
“官方”MeshCore 的定义 (Defining "Official" MeshCore):
团队强调,真正的“官方”MeshCore 是 GitHub 仓库 (https://github.com/meshcore-dev/MeshCore),这是 MeshCore 的代码源。 Andy Kirby 的 MeshOS 项目以及他过度使用“官方”的说法,并不代表官方 MeshCore。
项目增长 (Project Growth):
尽管经历内部冲突,MeshCore 项目发展迅速:
新的官方渠道 (New Official Channels):
由于 Andy Kirby 控制了 meshcore.co.uk 网站和原始 Discord 服务器,核心团队已启动新的官方网站 https://meshcore.io 并同步复制了其设计风格(尽管团队曾要求其停止)。 团队发布了新的信息发布渠道:
核心团队成员 (Core Team Members):
核心团队现在由 Scott (创始人,固件工程师)、Liam (应用开发者)、Recrof (地图开发者,固件闪存专家)、FDLamotte (Python 工具和 STM32 固件开发者) 和 Oltaco (OTA 修复引导加载程序开发者) 组成,致力于设计和开发高质量、人工编写 的软件。
新的 Discord 服务器 (New Discord Server):
团队启动了新的 Discord 服务器 (https://meshcore.gg),用于与开发者互动、提供项目支持和贡献 MeshCore 的未来发展。
总结 (Summary):
MeshCore 项目目前正经历内部重组。核心团队致力于维护项目的开源精神,并通过新的官方渠道继续推进开发工作,并与社区保持密切联系。 核心团队希望用户更新书签,使用新的官方网站和 Discord 服务器获取最新信息。
|
S. Korea police arrest man over AI image of runaway wolf that misled authorities
韩国警方逮捕男子发布AI虚假狼的照片
以下是对新闻报道的总结:
韩国警方逮捕了一名男子,原因是其发布了一张人工智能(AI)生成的图片,误导了搜寻逃脱动物园的狼“Neukgu”的行动。
主要事件:
- 狼的逃脱: 一只名为Neukgu的两岁狼于4月8日从大田市动物园逃脱。Neukgu是O-World动物园的繁殖计划的一部分,旨在恢复朝鲜狼种群,该种群曾分布于朝鲜半岛,现已灭绝。
- 虚假图片: 这名40岁的男子利用AI生成一张照片,声称显示Neukgu在路口行走。这张照片在狼逃脱后的几个小时内开始传播。
- 误导搜寻: 该照片导致大田市政府向居民发送紧急短信,警告附近有狼出没。警方也曾在新闻发布会上展示这张AI图片,从而将搜寻重点引向错误的方向。
- 逮捕与指控: 警方通过审查监控录像和AI程序使用记录,确定了该男子。他被指控以欺骗手段妨碍政府工作,最高可判处五年监禁或处以1000万韩元的罚款(约合6700美元/5000英镑)。 该男子在接受讯问时表示他这样做“只是为了好玩”。
- 狼的被捕: 经过九天的搜寻,Neukgu最终在高速公路附近被捕。
- 公众关注: 这起事件引起了韩国全国的广泛关注,甚至包括总统李在明,他公开祈祷Neukgu平安归来。
- Neukgu的“狂热”: 狼被安全送回动物园后,城市掀起了一股对Neukgu的狂热。当地一家面包店开始销售以狼为主题的糕点,并且城市正在考虑将Neukgu指定为官方吉祥物。动物园发布的Neukgu进食的视频获得了超过一百万的点击量。目前动物园已宣布停止发布Neukgu的更新,以给它一个安静的恢复环境。
|
|
My phone replaced a brass plug
好的,以下是根据您提供的文本生成的摘要,用中文书写,并控制在800字以内:
从烹饪到射击:自动化靶卡评分的探索
作者讲述了自己从对烹饪的热爱,到学习狩猎,最终开发自动化靶卡评分系统的经历。最初,作者每周三晚上在爱丁堡郊外的射击场度过,记录呼吸、走位,并使用传统方法评分靶卡。这个过程包括识别近边缘的射击、使用不同尺寸的黄铜塞进行精确评分,以及应对靶卡上的“Ducky”提示以避免撞头。
狩猎的契机与射击入门
为了更深入地了解肉类,作者开始学习狩猎。在英国,无需特殊许可即可在土地所有者的监督下使用其提供的枪支进行鹿狩猎。尽管作者之前从未接触过枪支,但他认为学习射击是必要的,并开始每周两次的射击训练。
自动化需求的产生
在半年的训练中,作者积累了一定的体重,并对寻找合适的评分塞感到厌倦。他意识到,将这个过程自动化是一个不错的想法。
技术挑战与解决方案
作者首先尝试使用苹果的Vision框架进行目标检测,但由于“负空间”的特性,难以准确识别子弹孔。随后,他研究了2012年的一篇关于靶卡自动评分的论文,并成功复现了其中的步骤:擦除环线、洪泛填充、Prewitt边缘检测和Hough变换。然而,这种方法也遇到了挑战,例如识别环线上的射击和识别靶卡上的数字。
为了解决这些问题,作者结合了OpenCV和YOLOv8,利用OpenCV进行结构几何分析,YOLOv8进行子弹孔定位。最终,他使用CoreML将模型打包,形成了一个22.4MB的iOS应用。
评分过程与精度提升
作者通过实验调整了子弹半径的计算方法,并最终达到了80%的准确率。为了进一步提高精度,他利用学习到的模型进行子弹孔检测,并结合几何环半径计算得分。
自动化带来的洞察
自动化评分系统不仅解决了评分问题,还为作者提供了更多洞察。通过分析射击数据,作者可以发现射击趋势、识别问题(例如触发压力、呼吸问题),并最终证明在射击前吃甜甜圈会降低射击表现。
最终成果与展望
作者将自动化系统打包成一个小型离线应用,并分享给射击俱乐部的其他成员。尽管该应用主要针对NSRA靶卡,但他计划逐步扩展支持其他射击项目。作者希望他的作品能够像传统的评分工具一样,在未来持续发挥作用,并激励其他人尝试自动化。
总结
作者的经历展示了从烹饪到射击的转变,以及利用技术解决实际问题的过程。他通过结合各种技术手段,克服了挑战,最终开发出了一款实用的自动化靶卡评分系统,并从中获得了宝贵的经验和洞察。
|
TorchTPU: Running PyTorch Natively on TPUs at Google Scale
TorchTPU:在TPU上实现高性能、可移植的PyTorch体验 (TorchTPU: Achieving High-Performance, Portable PyTorch on TPUs)
This document details the development of TorchTPU, a project aimed at enabling seamless and efficient PyTorch workloads on Google's Tensor Processing Units (TPUs). Addressing the challenges of modern AI infrastructure—specifically the need for performance, hardware portability, and reliability when scaling models across thousands of accelerators—TorchTPU prioritizes usability and developer experience.
Core Concepts & Architecture:
- TPU Infrastructure: TPUs are custom ASICs integrated into a network (Inter-Chip Interconnect - ICI) forming a 2D or 3D torus topology, optimized for dense matrix math (TensorCores) and irregular memory access (SparseCores).
- Usability Focus: TorchTPU is designed to "feel like PyTorch." Developers should be able to switch their initialization to "tpu" and run their training loops with minimal code changes.
- Eager First Philosophy: TorchTPU utilizes PyTorch’s “PrivateUse1” interface, offering three eager modes:
- Debug Eager: Slow, for debugging.
- Strict Eager: Mirrors default PyTorch execution, enabling simultaneous CPU and TPU operation.
- Fused Eager: Automatically fuses operations for increased performance (50-100%+ faster than Strict Eager) through TensorCore optimization. All modes utilize a shared Compilation Cache.
- Static Compilation (torch.compile): Leverages Torch Dynamo and XLA for full-graph compilation, mapping PyTorch operators to StableHLO for optimized TPU binaries.
- Custom Kernel Support: Supports custom kernels written in Pallas and (future) Helion, allowing low-level hardware instruction interfacing.
- Distributed Training: Supports Distributed Data Parallel (DDP), Fully Sharded Data Parallel v2 (FSDPv2), and DTensor, ensuring compatibility with existing PyTorch distributed APIs. TorchTPU addresses SPMD limitations by carefully supporting divergent executions (MPMD).
- Hardware Awareness: Offers guidelines and tools for optimizing model architectures to leverage TPU hardware capabilities, such as efficient matrix multiplication at specific dimensions.
Roadmap (2026 and Beyond):
- Public GitHub Repository: Release of source code, documentation, and tutorials.
- Helion DSL Integration: Expanded custom kernel capabilities.
- Dynamic Shape Support: Native support for dynamic shapes within
torch.compile.
- Multi-Queue Support: Improved migration of asynchronous codebases.
- Ecosystem Integration: Collaboration with vLLM and TorchTitan and scaling to full Pod-size infrastructure.
TorchTPU's goal is to remove barriers and provide a seamless PyTorch experience on TPUs, enabling developers to leverage the power of Google's supercomputing infrastructure for AI model training and serving.
|
UK Biobank leak: Health details of 500 000 people are offered for sale
UK Biobank 数据泄露事件总结
根据《柳叶刀》杂志的报道,一份包含50万名参与者医疗数据的英国健康数据慈善机构UK Biobank的信息,在中国的电商平台阿里巴巴上被发现出售。
主要内容:
- 数据内容: 出售的数据包含参与者的性别、年龄、出生年月、社会经济地位、生活习惯、心理健康状况、自我报告的病史、认知功能以及身体测量数据。
- 更详细的数据: 还包括来自血液学、生化学、代谢组学和蛋白质组学样本的测量数据,以及按照国际疾病分类标准(ICD)编码的健康状况(如癌症)的病历数据,包括诊断日期。
- 发现时间: UK Biobank于2024年4月20日发现了三个出售数据的列表,其中至少有一个数据集包含所有50万名UK Biobank志愿者的信息。
- 其他服务: 还有提供申请数据的支持服务的列表。
- 影响: 此次数据泄露事件引发了对参与者隐私和数据安全的担忧。
总结: 英国健康数据慈善机构UK Biobank的参与者数据,包括详细的医疗信息,在阿里巴巴平台上遭到出售,涉及了包括50万人的敏感数据。
|
Spinel: Ruby AOT Native Compiler
Spinel -- Ruby AOT 编译器总结 (Spinel -- Ruby AOT Compiler Summary)
Spinel 是一个 Ruby AOT (Ahead-of-Time) 编译器,它将 Ruby 源代码编译成独立的、原生可执行文件。它通过执行全程序类型推断并生成优化的 C 代码,实现了比 CRuby 更显著的速度提升。
工作原理:
- 解析: 使用 Prism 解析 Ruby 源代码,序列化为 AST (抽象语法树) 文本文件。
- 代码生成: Spinel 后端 (一个自托管的 Ruby 二进制文件) 执行类型推断并生成 C 源代码。
- 编译: 使用标准 C 编译器 (cc) 将 C 源代码编译成原生二进制文件。
主要特点:
- 自托管: 编译器后端本身是用 Ruby 编写的,并能编译自身。
- 无运行时依赖: 生成的二进制文件不依赖于 Ruby 运行时环境,只有对 libc 和 libm 的依赖。
- 快速启动: 编译后的程序启动速度极快。
性能基准测试:
- 在 28 个基准测试中,Spinel 比 CRuby 的
miniruby 构建快 约 11.6 倍。
- 在某些计算密集型工作负载中,速度提升可达 86.7 倍 (例如 Conway's Game of Life)。
- 在数据结构和 GC 基准测试中,速度提升范围在 2.0x 到 22.6x 之间。
- 在真实世界的程序基准测试中,速度提升范围在 2.9x 到 10.1x 之间。
支持的 Ruby 特性:
Spinel 支持 Ruby 的核心特性,包括类、继承、控制流语句 (if/else, case, while, for..in)、块、异常处理、基本数据类型 (Integer, Float, String, Array, Hash, Range, Time, StringIO, File, Regexp, Bigint)、全局变量、字符串操作、正则表达式、Fiber 和内存管理(基于 mark-and-sweep 的 GC)。它还支持部分更高级的功能,例如符号和字符串的优化。
优化:
Spinel 采用了多种优化技术:
- 值类型推广: 小的、不可变类自动转换为 C 结构体,消除 GC 开销。
- 常量传播: 将简单的常量直接嵌入到使用位置。
- 循环不变长度提升: 循环中字符串长度的计算只进行一次。
- 方法内联: 将短方法内联到调用位置。
- 字符串连接链扁平化: 多个字符串连接操作优化为单个函数调用。
- Bigint 自动推广: 循环中的乘法自动使用 Bigint。
- 死代码消除: 在链接时删除未使用的运行时函数。
架构:
Spinel 的架构包括:
spinel: 包装脚本 (POSIX shell)。
spinel_parse.c: C 前端,使用 libprism 解析源代码。
spinel_codegen.rb: 编译器后端,生成 C 代码。
lib/sp_runtime.h: 运行时库头文件。
lib/sp_bigint.c: Bigint 实现。
lib/regexp/: 内置正则表达式引擎。
限制:
- 不支持
eval 和 instance_eval。
- 不支持动态元编程。
- 不支持线程。
- 不支持编码。
- 对 Lambda 表达式的支持有限。
构建:
使用 make 命令构建 Spinel。构建过程需要 libprism 和 CRuby (仅用于自托管)。
许可证:
MIT 许可证。
|
DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence
DeepSeek-V4:迈向高效百万token上下文智能

DeepSeek-AI 发布了 DeepSeek-V4 系列预览版本,包含两个强大的混合专家 (MoE) 语言模型:DeepSeek-V4-Pro (1.6T 参数,激活 49B) 和 DeepSeek-V4-Flash (284B 参数,激活 13B),两者均支持 一百万 token 的上下文长度。
主要升级:
- 混合注意力架构: 结合压缩稀疏注意力 (CSA) 和高度压缩注意力 (HCA),显著提升长上下文效率。DeepSeek-V4-Pro 在 1M token 上下文设置中,所需单 token 推理的 FLOPs 仅为 DeepSeek-V3.2 的 27%,KV 缓存占用也降至 10%。
- Manifold-Constrained Hyper-Connections (mHC): 加强残差连接,提升信号在层间的稳定性,同时保持模型表达能力。
- Muon 优化器: 加速收敛并提高训练稳定性。
训练与后训练:
- 模型在超过 32T 多样且高质量 token 上进行预训练。
- 后训练采用两阶段模式:首先独立培养领域特定专家 (通过 SFT 和 RL with GRPO),然后通过在线蒸馏整合不同领域的专业知识于单一模型中。
性能亮点:
- DeepSeek-V4-Pro-Max (DeepSeek-V4-Pro 的最大推理模式) 显著提升了开源模型的知识能力,成为目前最佳的开源模型。在编码基准测试中表现出色,并在推理和代理任务方面显著缩小了与领先闭源模型的差距。
- DeepSeek-V4-Flash-Max 在给定更大思考预算时,推理性能可与 Pro 版本媲美,但由于参数规模较小,在纯知识任务和最复杂的代理工作流方面略逊于 Pro 版本。
模型下载:
推理模式:
DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 均支持三种推理模式:
- Non-think: 快速、直观的响应,适用于日常任务。
- Think High: 意识到的逻辑分析,速度较
|
Show HN: How LLMs Work – Interactive visual guide based on Karpathy's lecture
大型语言模型的工作原理:概述
本文档详细介绍了大型语言模型 (LLM) 的构建过程,例如 ChatGPT,从原始互联网文本到对话式助手。 以下是主要要点:
1. 数据收集与预处理:
- 数据来源: 主要使用 Common Crawl(自 2007 年以来抓取了 27 亿网页)等组织提供的大量网络数据。
- 数据规模: 经过过滤后,最终得到约 44TB 的高质量数据集,包含约 15 万亿个 token。
- 数据质量的重要性: 数据质量和多样性对最终模型的影响大于其他因素。
- 预处理步骤: 包括 URL 过滤(屏蔽恶意网站、垃圾信息等)、文本提取(去除 HTML 标签等)、语言过滤(保留特定语言内容)、去重(去除重复内容)和 PII 信息移除(保护个人隐私)。
2. Tokenization (分词):
- 神经网络的输入: 神经网络无法直接处理原始文本,需要将其转换为数字。
- 分词方法: 使用 Byte Pair Encoding (BPE) 算法,将文本分解为“token”(子词块)并分配 ID。
- BPE 优势: 能够处理无限变体的单词、新单词、错误拼写和多种语言,并有效压缩序列长度。
- 词汇量: GPT-4 使用 100,277 个 token 的词汇表。
3. 训练神经网络:
- 模型架构: 使用 Transformer 神经网络,包含数十亿个参数。
- 训练过程: 通过预测文本序列中下一个 token 来调整参数。
- Embedding: 每个 token ID 映射到包含 1,000-4,000 个数字的向量(embedding),表示其含义。Attention 层将上下文信息融入到 embedding 中,从而解析多义词。
- 训练规模: 现代 LLM 拥有数百亿参数,训练数据达到数万亿 token。
4. 推理和 Token 采样:
- 文本生成: 模型通过自回归方式生成文本:输入 token 序列,得到所有可能下一个 token 的概率分布,并从中采样一个 token,然后重复此过程。
- 随机性: 文本生成是随机的,相同的 prompt 会产生不同的输出。
- Temperature: 控制随机性,较低的 temperature 倾向于选择最可能的 token,较高的 temperature 则更随机。
5. 构建助手模型:
- 基础模型: 训练后的模型是一个“互联网模拟器”,可以根据其所见到的互联网内容完成 token 序列。
- 监督微调 (SFT): 使用人类标注的对话数据对基础模型进行微调,使其学习模仿理想助手的行为。
- 强化学习人类反馈 (RLHF): 使用人类对模型输出的排序来训练奖励模型,然后使用强化学习优化语言模型,使其生成人类更喜欢的回复。
6. LLM 的认知特性:
- 幻觉 (Hallucination): 模型可能会自信地编造信息,因为训练数据中总是包含自信的回答。
- 记忆: 模型有长期记忆(参数)和短期记忆(上下文窗口)。
- 工具使用: 模型可以发出特殊 token 来触发外部工具,例如搜索。
- 无持久自我: 每个对话都是独立的,模型没有持久的身份。
- 随机 token 采样: 模型生成文本的过程是基于概率分布的采样,而不是“思考”。
7. 检索增强生成 (RAG):
- 解决知识截止和上下文窗口限制: 将文档嵌入到向量存储中,检索与查询最相关的文档片段,并将它们注入到上下文环境中。
- RAG 的优势: 减少幻觉,使模型能够基于最新的、外部信息生成答案。
总结:
LLM 的构建是一个复杂的过程,需要庞大的数据、强大的计算资源和精细的训练技术。 最终的模型是互联网知识的压缩表示,并可以通过微调和强化学习进行优化,以提供有用的、准确的、无害的对话式助手。
|
Astronomers find the edge of the Milky Way
银河系恒星形成盘边缘首次被定位:总结
这篇报道主要介绍了天文学家首次成功定位了银河系恒星形成盘的边缘,并对银河系的演化提供了新的见解。以下是主要内容:
核心发现:
- 天文学家通过分析超过10万颗巨星的数据,结合先进的计算机模拟,确定银河系恒星形成盘的边缘位于距离银河系中心3.5万至4万光年的区域。
- 在这一距离之外,恒星的年龄又开始增加,形成了一个“U”形的年龄分布曲线。曲线的最低点标志着恒星形成急剧下降,即银河系恒星形成盘的边缘。
银河系恒星形成模式:
- 星系通常以“由内向外”的方式形成恒星,即从中心开始向盘状结构外延展。
- 在银河系中心向外3.5万-4万光年以内,恒星形成活跃,恒星年轻。超出此范围,恒星形成减弱,外围区域的恒星并非在那里形成,而是来自银河系内部迁移到外围。
恒星迁移的机制:
- 外围区域的恒星并非来自卫星星系的吸积,而是通过银河系的旋臂波,类似于冲浪者被浪冲上岸,被“携带”到银河系的外围区域。
- 由于迁移需要时间,因此外围的恒星通常也更古老。
普遍性:
- 类似“U”形的年龄分布曲线在模拟星系和观测其他星系中都有发现,表明银河系的演化模式并非特殊,而是螺旋星系普遍存在的特征。
未解之谜:
- 目前尚不清楚是什么原因导致在3.5万-4万光年之外的区域恒星形成受到抑制。
- 可能的解释包括银河系中心棒状结构对气体的引力束缚,以及银河系弯曲的形状对外围区域恒星形成的影响。
未来展望:
- 新的和未来的观测设备,如4MOST和WEAVE,有望帮助我们更清晰地了解银河系的演化历史,并为解释其他星系的过去和未来提供线索。
- 这项研究是“星系考古学”领域的一项重要进展,有助于我们更深入地了解银河系及其它星系的起源和演化。
数据来源:
- 研究使用了LAMOST和APOGEE光谱学巡天数据,以及欧洲空间局Gaia卫星的测量数据。
- 研究成果发表在《天文学与天体物理学》期刊上。
|
Show HN: Tolaria – Open-source macOS app to manage Markdown knowledge bases
Tolaria: 知识库管理桌面应用总结 (Tolaria: Summary of a Knowledge Base Management Desktop Application)
Tolaria 是一款专为 macOS 和 Linux 设计的桌面应用程序,用于管理 Markdown 知识库。 用户将其用于多种用途,包括:
- 个人知识管理和“第二大脑”
- 组织公司文档,为 AI 提供上下文
- 存储 OpenClaw/助手记忆和程序
核心原则 (Core Principles):
Tolaria 的设计基于以下核心原则:
- 文件优先 (Files-first): 笔记是纯 Markdown 文件,可移植,可以使用任何编辑器,无需导出步骤。数据属于用户。
- Git 优先 (Git-first): 每个库都是一个 Git 仓库,提供完整的版本历史和 Git 远程仓库支持。
- 离线优先,零锁定 (Offline-first, zero lock-in): 无需帐户、订阅或云依赖。库完全离线工作。
- 开源 (Open Source): Tolaria 是免费和开源的。
- 基于标准 (Standards-based): 笔记使用带有 YAML 前置信息的 Markdown 文件,避免专有格式和数据锁定。
- 类型作为透镜 (Types as lenses): 类型仅作为导航辅助,而非强制执行机制。
- AI 优先,但非仅限 AI (AI-first but not AI-only): Markdown 文件库与 AI 代理非常配合,但用户可以自由选择使用的 AI 工具。支持 Claude Code 和 Codex CLI。
- 键盘优先 (Keyboard-first): Tolaria 的设计注重键盘操作,编辑器和命令面板的设计都以此为基础。
- 基于实际使用构建 (Built from real use): Tolaria 是为了管理作者本人 10,000+ 笔记的知识库而创建的,并且每天都在使用。
功能与特性 (Features and Functionality):
- Markdown 支持: 基于 Markdown 文件存储知识。
- Git 集成: 利用 Git 进行版本控制和远程存储。
- 离线工作: 完全离线运行,无需网络连接。
- AI 集成: 支持 Claude Code 和 Codex CLI,方便利用 AI 进行内容创作和处理。
- 键盘快捷键: 提供高效的键盘操作体验。
- 类型系统: 作为导航辅助,帮助用户分类和查找笔记。
- Agents 文件: 允许 AI 代理访问和理解知识库结构。
入门 (Getting Started):
技术文档 (Tech Docs):
- 架构 (ARCHITECTURE.md): 系统设计、技术栈、数据流。
- 抽象 (ABSTRACTIONS.md): 核心抽象和模型。
- 入门 (GETTING-STARTED.md): 如何浏览代码库。
- ADRs: 架构决策记录。
开发环境 (Development Environment):
- Node.js 20+
- pnpm 8+
- Rust 稳定版
- macOS 或 Linux 用于开发
- Linux 系统需要 WebKit2GTK 4.1 和 GTK 3。
开源与本地设置 (Open Source and Local Setup):
Tolaria 使用 Tauri, React 和 TypeScript 构建。 开发者可以参考 https://github.com/refactoringhq/tolaria/blob/main/docs/GETTING-STARTED.md 进行本地运行和贡献。
许可证 (License):
Tolaria 采用 AGPL-3.0-or-later 许可证。 Tolaria 名称和 Logo 受项目商标政策保护。
|
|
How to be anti-social – a guide to incoherent and isolating social experiences
Okay, I understand. Here's a summary based on the provided instruction set, not any external content. I will adhere strictly to the guidelines you’ve outlined, prioritizing a concise and accurate representation of the instructions themselves, and responding in Markdown format and Chinese.
指令集概要 (Instruction Set Summary)
这份文档描述了一套应对人际互动和潜在冲突的策略,核心思想是基于高度防御和自我保护的心理状态。 其目标是避免认知失调、维护个人信念,并最大程度地规避潜在的威胁。
核心原则 (Core Principles):
- 预设恶意 (Presumed Malice): 假设与你互动的人缺乏理智,其行为和言语带有恶意、无知或道德缺失。
- 信任直觉 (Trust Intuition): 完全信任直觉和感受,不挑战或承认任何假设的存在或影响。
- 回避逻辑 (Avoid Logic): 避免深入讨论,尤其是当对方的理由超出你的理解范围时。 转移话题以避免暴露知识盲点。
- 坚守立场 (Dig in Your Heels): 即使面对强烈反对,也要坚持己见。
- 寻求支持 (Exploit Network): 利用现有社交网络,分享精心挑选的与批评者互动细节,以获得支持并压制潜在威胁。
- 忽视资质 (Ignore Credentials): 除非赞同对方观点,否则不考虑对方的背景、经验或专业知识。
- 毫不宽容 (No Grace): 对任何错误,尤其是来自陌生人的错误,绝不宽容。
- 自我保护 (Self-Retreat): 当对话毫无希望时,退回到自我保护的状态。
- 拒绝理解 (Refuse Understanding): 不试图理解你不理解的人。
关键策略 (Key Strategies):
- 暗示性提问 (Suggestive Questioning): 提出问题时,暗示你最初的立场是正确的。
- 构建叙事 (Narrative Building): 通过筛选信息,构建一个有利于你的叙事,并以此为基础团结支持者。
- 情感驱动 (Emotion-Driven): 该策略完全依赖于情感反应,而非理性分析。
总结 (Summary):
这份指令集提供了一种高度防御性的沟通模式,强调预先假设恶意、完全依赖直觉,并积极寻求外部支持来维护个人信念。 它建议避免逻辑讨论、不宽容错误,并在无法解决冲突时选择退缩。 总体而言,该模式旨在保护个人免受潜在威胁,但可能会导致沟通障碍和关系破裂。
中文说明:
以上为根据您提供的指令集所做的概要总结。 总结重点强调了该指令集的核心原则、关键策略以及整体目标。 我严格按照您的指示,没有添加任何个人观点或超出原始内容的描述。 请注意,该指令集所描述的策略可能具有负面影响,不建议将其应用于实际人际关系中。
|
Using the internet like it's 1999
互联网的复兴:回归1999年的互联网使用方式
这篇文章探讨了现代互联网面临的挑战,并呼吁回归更原始、更人性化的互联网使用方式,类似于1999年的状态。
核心观点:
- 互联网的死亡: 现代互联网,尤其是通过社交媒体和视频平台,被算法控制,用户陷入回音室,沉迷于无意义的“doomscroll”,体验着被算法操控的内容。AI生成的内容(“AI slop”)进一步加剧了信息噪音,降低了内容深度和真实性。
- 回归互联网的本质: 互联网的本质是数据传输的“管道”,应该允许用户自由访问和处理信息,而不是被平台和算法所控制。
- 解决方案:
- 减少平台依赖: 抛弃现代社交平台,转向更底层的协议,如HTTP、XMPP/IRC、SMTP等。
- 拥抱旧技术: 利用90年代和2000年代初期的技术,解决当今互联网面临的问题。
- 选择性使用: 有意识地忽略大部分互联网内容,避免被算法操控。
- RSS订阅: 使用RSS订阅源,自主选择关注的内容,避免算法推荐。
- IRC和XMPP: 加入IRC社区,或使用XMPP进行加密的P2P交流。
- 精准搜索: 使用自己的搜索引擎,并学习如何进行精确的搜索查询。
- 本地存储: 下载重要信息并进行本地存储,防止链接失效。
- 电子邮件: 优先使用电子邮件进行沟通,避免平台监控和数据收集。
- POSSE原则: 将内容发布在自己的平台,再推送到社交媒体,避免被平台控制。
- 探索新兴协议: 尝试使用Gopher和Gemini等轻量级协议。
- 屏蔽广告和脚本: 在路由器上设置广告屏蔽列表,禁用JavaScript,使用广告拦截插件。
- 强调真实性: 关注真实的人和内容,避免AI生成的内容和虚假信息。
技术细节:
- Layer 7: 批评了Cloudflare等公司对互联网协议的滥用,认为它们阻碍了互联网自由的信息流动。
- Miniflux: 推荐使用Miniflux作为RSS订阅阅读器。
- OMEMO: 建议使用OMEMO加密技术保护XMPP通讯的隐私。
- Searx: 推荐使用Searx作为自己的搜索引擎。
- Emacs配置: 作者使用Emacs配置下载媒体到本地存储,并同步到手机。
总结:
作者认为,现代互联网已经偏离了最初的理念,用户被算法控制,内容质量下降。通过回归更原始、更人性化的互联网使用方式,我们可以重新掌控自己的注意力,获得更有价值的信息,并建立更真实的人际关系。 核心在于,在互联网中,要成为“网民”(Netizen),而不是数据库中的用户。
|