Hacker News
John Ternus to become Apple CEO
苹果公司新闻稿:蒂姆·库克将担任执行主席,约翰·特纳斯将担任首席执行官
库比蒂诺,加利福尼亚州 – 2026年4月20日 – 苹果公司宣布,蒂姆·库克将担任董事会的执行主席,约翰·特纳斯(目前是硬件工程高级副总裁)将担任苹果公司的首席执行官。此任命将于2026年9月1日生效,并经董事会一致批准,是经过深思熟虑的长期继任计划的结果。
蒂姆·库克的贡献:
蒂姆·库克于1998年加入苹果公司,并在2011年成为首席执行官。在任期间,他领导了众多产品和服务的推出,包括全新的产品类别,例如Apple Watch、AirPods和Apple Vision Pro,以及iCloud、Apple Pay、Apple TV和Apple Music等服务。他还对现有产品线进行了扩展。
在库克领导下,苹果公司的市值从约3500亿美元增长到4万亿美元,增长超过1000%,年收入也几乎翻四倍,从2011财年的1080亿美元增长到2025财年的4160亿美元以上。公司在全球范围内的业务显著扩张,尤其是在新兴市场。目前苹果的产品和服务已覆盖200多个国家和地区。苹果公司运营着500多家零售店,并且已将拥有Apple Store的国家的数量翻倍。在他的任期内,苹果公司增加了超过10万名员工,并将活跃设备安装量增加到25亿台以上。
约翰·特纳斯的任命:
约翰·特纳斯将接替蒂姆·库克担任首席执行官,他目前担任硬件工程高级副总裁。
总结:
此次任命标志着苹果公司在领导层上的重要转变,蒂姆·库克将继续为公司提供战略指导,而约翰·特纳斯将负责公司的日常运营和战略执行。
版权声明: © 2026 Apple Inc. 保留所有权利。Apple、Apple标志、Apple Watch、AirPods、Apple Vision Pro、iCloud、Apple Pay、Apple TV、Apple Music、Apple Store、iPad、iPhone、Mac、MacBook Neo和iPhone Air是Apple公司的商标。其他公司和产品名称可能是其各自所有者的商标。
|
At long last, InfoWars is ours
摘要:布莱斯·P·四面体的“InfoWars”控制计划
布莱斯·P·四面体发表声明,宣布其公司“全球四面体”已成功控制了InfoWars.com。他将这一成就视为自己童年噩梦的实现,象征着一种无法控制的黑暗力量的到来。
四面体描述了他对“InfoWars”的愿景:一个充斥着欺骗、诈骗和虚假信息的无限虚拟空间。他设想了一个充斥着病态谎言的竞技场,其中有推销者、有强迫人们使用健身器材的网红,以及兜售人生教导并索要高额费用的“人生导师”。
新的“InfoWars”将成为心理折磨的民主平台,欢迎所有人的残忍和虐待想法,甚至包括最愚蠢的人的想法。他将其比作曼哈顿计划,但目标不是制造炸弹,而是构建一个网站。
四面体预见到“InfoWars”将演变成一个内容与内容交织的漩涡,人才互相吸引,媒体不断合并,将所有艺术作品转化为一种无休止的可消化混合物。他将这种环境描述为阴暗、不见阳光,恐惧和资本相互滋养,如同子宫中双胞胎般依附于一个巨大的、难以理解的怪物,这个怪物他称之为“现代美国”。
他认为,通过结合业余探索的精神、企业的盈利驱动力以及每日摄入精神和身体改变物质所带来的冷静思维,他们可以实现伟大的成就。
四面体对未来充满期待,并欢迎所有“战士”加入,认为未来属于他们,他们正在书写一个漫长且糟糕的故事。他鼓励大家购买购物袋,并强调没有任何力量能够阻止他们控制网站。
总而言之,布莱斯·P·四面体的声明表达了他对控制“InfoWars”的野心,以及他对该平台未来将成为一个大规模传播虚假信息、心理折磨和混乱的数字领域的愿景。
翻译说明:
- 使用了较为正式的语言以保持内容的严肃性。
- 保留了原文中的关键术语和概念,如“Global Tetrahedron”、“InfoWars”等。
- 对原文中的一些比喻性描述进行了适当的解释,以确保读者能够理解其含义。
- 力求在800字以内简洁、准确地概括原文的主要内容。
|
|
AI Resistance: some recent anti-AI stuff that’s worth discussing
https://stephvee.ca/blog/artificial%20intelligence/ai-resistance-is-growing/
|
Anthropic says OpenClaw-style Claude CLI usage is allowed again
Anthropic (Claude) 集成总结 (Summary of Anthropic (Claude) Integration)
本文档描述了如何在 OpenClaw 中集成 Anthropic 的 Claude 模型,并提供了配置和使用说明。
核心功能与支持:
- 模型支持: 支持 Anthropic Claude 模型家族,包括 Opus 和 Sonnet 等。
- 认证方式: 支持 Anthropic API 密钥和 Claude CLI 重用两种认证方式。
- API 访问: 通过 API 提供访问,并支持基于使用量的计费。
- Bedrock 集成: 支持在 Amazon Bedrock 上运行的 Claude 模型,并支持
cacheRetention 参数传递。
关键配置与功能:
- API 密钥配置: 使用
openclaw onboard 命令或配置文件设置 Anthropic API 密钥。
- Thinking 模式: Claude 4.6 默认使用自适应思维 (
adaptive) 模式。可以通过 /think:<level> 命令或模型参数 (agents.defaults.models["anthropic/<model>"].params.thinking) 覆盖。
- 快速模式 (
/fast): 通过 /fast on (映射到 service_tier: "auto") 启用快速模式,直接发送请求到 api.anthropic.com。/fast off 则映射到 service_tier: "standard_only"。注意,只有直接请求 api.anthropic.com 时才生效,通过代理或网关转发时无效。
- Prompt 缓存: 支持 Anthropic 的 Prompt 缓存功能 (仅限 API 密钥认证)。
cacheRetention 参数控制缓存时长:none (禁用), short (5 分钟,默认), long (1 小时)。
- 配置文件优先级:
agents.defaults.models["provider/model"].params > agents.list[].params。
- 1M 上下文窗口 (Beta): 通过
params.context1m: true 启用 Anthropic 的 1M 上下文窗口 Beta 功能 (仅限 Opus/Sonnet 模型)。需要 Anthropic 允许使用长上下文。
- Claude CLI 后端: 支持 OpenClaw 中 Claude CLI 后端的使用,Anthropic 允许这种集成方式。
注意事项:
- Anthropic setup-token 仍然可用,但推荐使用 Claude CLI 重用或
claude -p 命令。
- 排错:
- 401 错误: 可能是 token 过期或被撤销,建议迁移到 API 密钥。
- 缺少 API 密钥: 认证是按 agent 划分的,需要为每个 agent 配置 API 密钥。
- 无法找到认证信息: 使用
openclaw models status 查看当前认证信息并重新配置。
总结:
OpenClaw 提供了一种灵活的方式来集成 Anthropic 的 Claude 模型,支持多种认证方式、配置选项和高级功能,方便开发者利用 Claude 的强大能力。
|
|
We accepted surveillance as default
Okay, I'm ready. Please provide the content you want me to summarize. I will do my best to provide a concise, accurate, and markdown-formatted summary in Chinese, adhering to the specified word limit and guidelines. Just paste the text here, and I'll get started.
|
|
Laws of Software Engineering
Okay, please provide the content you want me to summarize. I'm ready when you are! I will then generate a concise, accurate summary in Markdown format and Chinese, adhering to your specified constraints (less than 800 words, no personal opinions, focus on purpose/structure/functionality for technical content, and using Markdown).
|
|
A Roblox cheat and one AI tool brought down Vercel's platform
https://webmatrices.com/post/how-a-roblox-cheat-and-one-ai-tool-brought-down-vercel-s-entire-platform
|
F-35 is built for the wrong war
美国空军的未来:从F-35“杰作”到平衡力量
本文探讨了美国空军的未来发展方向,认为过度依赖昂贵且难以大规模生产的F-35战机,可能导致在长期冲突中处于不利地位。文章基于对乌克兰冲突、红海冲突以及伊朗导弹和无人机威胁的观察,以及多次战争推演的结果,提出了构建平衡力量的解决方案。
核心观点:
- F-35的局限性: F-35作为一款杰作,在特定任务中表现出色,但其高昂的成本、低产量以及对基础设施的依赖,使其难以在长期、高强度的冲突中维持有效作战能力。
- 物理问题与可持续性问题: 在太平洋地区作战,面临空军基地被敌方导弹攻击的风险(物理问题),以及在长期冲突中维持作战能力(可持续性问题)。
- 伊朗冲突的局限性: 虽然F-35在伊朗冲突中表现突出,但该冲突的短期性、由美国和以色列控制的节奏以及针对固定目标的打击,并不能反映出与同等实力竞争对手进行长期冲突的真实情况。
- 无人系统的潜力: 降低对F-35的依赖,增加对无人系统的投资,可以解决上述问题。无人机成本低、易于替换、对基础设施的依赖性小,更适合大规模生产和在复杂环境中作战。
- 平衡力量的必要性: 应该构建一个包含少量F-35和大量无人系统的平衡力量,F-35用于执行需要其独特能力的任务,无人系统则用于执行其他任务,形成一个更具适应性和可持续性的作战体系。
具体细节:
- 战争推演结果: 多次战争推演表明,大多数飞机损失发生在地面,而非空中,太平洋地区的空军基地容易受到敌方导弹攻击。
- F-35的脆弱性: F-35需要复杂的维护设施、零部件库存和技能维护人员,任何对这些基础设施的破坏都会严重影响其作战能力。
- 分散部署的悖论: 虽然分散部署可以降低单个基地的风险,但会拉长补给线、分散维护能力,并使飞机远离目标。
- 无人系统的优势: 无人机可以从简易基地部署,不需要复杂的维护,成本低廉,易于替换,可以承受更高的损失。
- 未来发展方向: 减少F-35的采购量,将资金投入到无人系统研发和生产中,构建一个更具弹性和可持续性的空军力量。
总结:
文章认为,美国空军应该从过度依赖F-35“杰作”的策略中转变,构建一个包含少量F-35和大量无人系统的平衡力量,以应对未来可能出现的长期、高强度的冲突。这种转变需要重新评估军费开支,并优先投资于更具成本效益、易于替换且更适应复杂作战环境的无人系统。
|
OpenAI ad partner now selling ChatGPT ad placements based on “prompt relevance”
内容摘要:
本文主要介绍了广告技术公司 StackAdapt 正在尝试在 ChatGPT 内部投放广告的早期试点项目。以下是关键信息:
- StackAdapt 的尝试: StackAdapt 正在私下联系广告商,邀请他们测试在 ChatGPT 内部投放广告。
- 定价策略: StackAdapt 提供 CPM 价格低至 15 美元,并提供平台和管理费折扣。
- 定位: StackAdapt 将此项目定位为 ChatGPT 中一个新兴的“发现层”,旨在捕捉用户在研究和比较产品时的注意力。
- 试点项目: 该项目被描述为 OpenAI 和 StackAdapt 合作的早期测试阶段,处于广告系统仍在开发中的阶段。
- 官方声明: StackAdapt 的宣传材料中提到,他们与 OpenAI 合作,旨在在 ChatGPT 这一全球增长最快的消费者平台中实现广告投放。
- 时间: 相关的宣传文档(“OpenAI x StackAdapt Limited Pilot Program”)于 3 月 27 日发送给部分广告商。
总而言之,StackAdapt 正在探索 ChatGPT 广告的早期机会,并向广告商提供参与这一试点项目的机会。
|
How to make a fast dynamic language interpreter
Zef 解释器性能优化:从无到媲美 Lua、QuickJS 和 CPython
本文介绍了作者为 Zef 语言(一种为趣味而创建的动态语言)编写的极其简单的 AST 解释器进行的性能优化,使其达到与 Lua、QuickJS 和 CPython 相当的水平。
背景与动机:
大多数语言实现优化的讨论集中在已经建立稳定基础后的高级技术,例如 JIT 编译或垃圾回收器的微调。本文的重点在于从零开始构建,尚未达到 JIT 编译阶段,垃圾回收也并非首要问题的情况下的优化。
优化成果:
通过一系列优化,作者实现了 16.6 倍的性能提升(使用 Yolo-C++ 编译时达到 67 倍),使 Zef 解释器性能达到与其他主流解释器的同等水平。
优化策略:
作者主要关注以下几个方面:
- 值表示: 使用 64 位标记值,可以快速区分 double、32 位整数和对象,避免了数字的堆分配。
- 内联缓存: 记录表达式和成员访问的类型和偏移量,避免重复查找,显著提升性能。
- 对象模型: 重新设计对象模型,减少对象分配和查找开销。
- 观察点(Watchpoints): 在对象访问过程中跟踪是否重写了成员,用于内联缓存的有效性判断。
- 常识性优化: 一系列针对字符串处理、函数调用、RMW 操作等方面的优化。
优化步骤及性能提升:
| 实现版本 |
vs Zef 基础 |
vs Python 3.10 |
vs Lua 5.4.7 |
vs QuickJS-ng 0.14.0 |
| Zef 基础 |
1x |
35.448x 慢 |
79.588x 慢 |
22.562x 慢 |
| 1. 直接操作符 |
1.175x |
30.161x 慢 |
67.716x 慢 |
19.196x 慢 |
| 2. 直接 RMW |
1.219x |
29.081x 慢 |
65.291x 慢 |
18.509x 慢 |
| 3. 避免 IntObject |
1.23x |
28.82x 慢 |
64.705x 慢 |
18.343x 慢 |
| 4. 符号 |
1.456x |
24.338x 慢 |
54.643x 慢 |
15.491x 慢 |
| 5. 值内联 |
1.497x |
23.673x 慢 |
53.15x 慢 |
15.067x 慢 |
| 6. 对象模型和内联缓存 |
6.818x |
5.199x 慢 |
11.674x 慢 |
3.309x 慢 |
| 7. 参数 |
9.047x |
3.918x 慢 |
8.798x 慢 |
2.494x 慢 |
| 8. Getter |
9.55x |
3.712x 慢 |
8.333x 慢 |
2.362x 慢 |
| 9. Setter |
9.874x |
3.59x 慢 |
8.06x 慢 |
2.285x 慢 |
| 10. callMethod 内联 |
10.193x |
3.478x 慢 |
7.808x 慢 |
2.213x 慢 |
| 11. 哈希表 |
11. |
|
|
|
|
Palantir Wants to Reinstate the Draft
总结:Palantir 的“科技共和国”宣言及相关评论
本文主要报道了美国数据分析公司 Palantir 发布的一份名为《科技共和国》的 22 点宣言,并对其内容及引发的讨论进行了分析。以下是主要内容:
Palantir 的宣言:
- 呼吁科技公司承担国防责任: Palantir 认为硅谷的科技精英有义务参与国家防御,并认为美国对科技公司的发展负有“道德债”。
- 强调国家服务: 倡导“全民国家服务”制度,认为每个人都应承担为国家服务的义务。
- 对社会精英的宽容: 呼吁对公共人物展现更多的宽容和理解,同时对普通人参与政治表示质疑。
- 文化评判: 认为一些文化是“功能失调”和“倒退”的,并主张对“中庸”的文化进行批判和评判。
- 人工智能武器: 认为关于人工智能武器的争论是浪费时间,应该关注谁来制造这些武器以及用于何种目的。
- 安全至上: 认为科技公司应该提供“安全”,而非仅仅是人们喜欢和使用的产品,并建议科技公司参与解决暴力犯罪问题。
核心观点:
Palantir 的宣言认为,科技公司和个人都应积极参与到国家安全和国防事务中,并对科技公司在国家建设中的作用提出了更高的要求。
相关评论与讨论:
- 批评: 许多评论认为 Palantir 的宣言带有精英主义、民族主义色彩,并对科技公司“为国家服务”的要求提出了质疑,认为这可能扭曲自由社会的运作方式。
- 人工智能的实用性: 文章引用了Reese Witherspoon的评论,讨论了人们对人工智能的过度炒作,以及对女性学习人工智能的期望,认为缺乏实际意义。
- 隐私问题: 文章引用了Naomi Brockwell的观点,指出政府利用第三方数据获取个人信息,规避了宪法第四修正案的保护。
- AI 身份验证: Kelsey Piper 的研究表明,人工智能能够准确识别个人写作风格,未来可能导致个人文本被轻易归属。
- 其他新闻: 文章还简要提及了 Elon Musk 呼吁发放全民高收入补助金,以及对社交媒体成瘾说法的质疑等。
总而言之, Palantir 的宣言引发了关于科技公司社会责任、国家服务、人工智能发展以及个人隐私等一系列问题的讨论。
|
Kimi vendor verifier – verify accuracy of inference providers
Kimi Vendor Verifier (KVV) 项目开源:重建信任链 (Kimi Vendor Verifier: Rebuilding the Chain of Trust)
Moonshot AI 伴随 Kimi K2.6 模型发布,开源了 Kimi Vendor Verifier (KVV) 项目,旨在帮助用户验证开源模型推理实现的准确性。 KVV 项目并非事后补救,而是基于开源模型部署过程中面临的挑战而构建,旨在确保模型在不同环境中正确运行。
问题背景:
自从 K2 Thinking 发布后,Moonshot AI 收到社区关于基准测试分数异常的反馈。调查发现,这些异常情况很大程度上源于解码参数的滥用。虽然通过在 API 层面强制执行 Temperature=1.0 和 TopP=0.95 来缓解了这一问题,但更细微的偏差仍然出现。在 LiveBenchmark 等平台上的测试中,第三方 API 与官方 API 之间存在显著差异,这表明在开源模型生态系统中,由于模型权重开放和部署渠道多样化,质量控制变得越来越困难。如果用户无法区分“模型能力缺陷”和“工程实现偏差”,开源生态系统的信任将不可避免地崩溃。
KVV 解决方案:
KVV 项目提供了一套关键基准测试,用于检测基础设施层面的问题,并促进准确性。这套测试包括:
- Pre-Verification (预检): 验证 API 参数约束是否正确执行 (例如 temperature, top_p)。所有测试必须通过才能继续基准评估。
- OCRBench (OCR 基准): 5 分钟的多模态管道快速测试。
- MMMU Pro (视觉预处理): 验证视觉输入预处理,测试各种视觉输入。
- AIME2025 (长输出压力测试): 检测 KV 缓存错误和量化降级,这些问题在短基准测试中通常被隐藏。
- K2VV ToolCall (工具调用): 测量触发一致性(F1 分数)和 JSON Schema 准确性,有助于及早发现工具错误。
- SWE-Bench (编码测试): 完整的代理式编码测试。(由于依赖沙箱环境,此测试未开源)
核心策略:
- 上游修复 (Upstream Fix): 与 vLLM/SGLang/KTransformers 社区合作,修复根本原因,而不仅仅是检测症状。
- 预发布验证 (Pre-Release Validation): 在模型部署之前,提供测试模型,让基础设施提供商验证其堆栈。
- 持续基准测试 (Continuous Benchmarking): 维护一个公开的供应商结果排行榜,鼓励供应商优先考虑准确性。
测试成本:
完整的评估工作流程在两台配备 8 个 NVIDIA H20 GPU 的服务器上完成,总耗时约 15 小时。 脚本已经针对长时间推理场景进行了优化,包括流式推理、自动重试和检查点恢复机制。
邀请合作:
Moonshot AI 正在积极扩展供应商覆盖范围,并寻求更轻量级的代理式测试。 欢迎联系:[email protected]
|
Jujutsu megamerges for fun and profit
Jujutsu 的 "巨合并" 工作流简介
这篇文章面向有一定经验的 Jujutsu 用户和对 Jujutsu 感兴趣的 Git 用户,介绍了 "巨合并" 工作流,旨在解决复杂开发环境和频繁小 PR 场景下的问题。
核心要点:
- 合并提交并非特殊: 在 Jujutsu 中,合并提交只是具有多个父节点的普通提交,没有特殊规则。它可以是空的,并且可以有多个父节点(多达 3 个或更多,称为 "章鱼合并")。
- 什么是巨合并? 巨合并是指将所有活跃的分支(包括修复、特性、待审查的 PR、他人分支、环境设置分支,甚至私有提交)合并为一个提交,作为所有工作分支的父节点。需要注意的是,巨合并本身不被推送,只推送其包含的分支。
- 巨合并的优势:
- 始终在所有工作的总和上工作,确保工作之间的兼容性。
- 减少合并冲突的发生。
- 简化任务切换,方便进行小规模的重构和 bug 修复。
- 更容易保持分支的最新状态。
- 如何创建巨合并? 使用
jj new x y z 创建一个新提交,并指定要包含的所有分支作为其父节点,然后提交一个空的提交。
- 如何提交更改?
- 对于需要合并到现有提交的更改,使用
jj squash --to x --from y 或 jj squash --interactive。
- 对于使用
jj absorb 命令自动将更改 "吸收" 到下游提交中,这是一种高效且易于理解的自动化方式。
- 对于新的更改,使用
jj rebase 将其移动到合适的位置。
- 对于多个独立的更改,可以使用
jj stack 或 jj stage 命令将其添加到巨合并中。
- 如何保持更新? 使用
jj rebase --onto trunk() 将工作树重新基于主分支,或者使用 jj restack 命令,该命令只处理可修改的提交,以避免意外修改他人分支。
简而言之:
Jujutsu 巨合并工作流提供了一种高效的方式来管理多个开发流。通过将所有工作合并到一个提交中,可以简化任务切换、减少合并冲突,并确保代码的兼容性。 使用 absorb、squash、rebase、stack 和 stage 命令,可以轻松地管理和提交更改。 记住,巨合并本身不应该被推送。
快速参考:
jj absorb:自动合并更改。
jj squash --to x --interactive:交互式合并更改。
jj rebase --revision y --after x:重新定位提交。
jj stage:将更改添加到巨合并。
jj stack <revset>:将特定 revset 添加到巨合并。
这篇文章建议读者尝试巨合并工作流,并提供了配置示例,以优化工作流程。
|
|
We got 207 tok/s with Qwen3.5-27B on an RTX 3090
好的,以下是根据提供的文档生成的中文摘要,字数控制在800字以内:
Lucebox 项目简介:针对特定芯片优化的开源 LLM 推理
Lucebox 是一个开源项目,专注于针对特定芯片进行优化的 LLM (大型语言模型) 推理。其核心理念是“不等待更好的硅片,重写软件”,通过手写优化内核、投机式解码和量化等技术,充分挖掘现有硬件的潜力。
项目亮点:
- 针对性优化: Lucebox 并非追求通用性,而是针对特定的芯片和模型进行深度优化,以实现更高的性能和效率。
- 开源透明: 项目完全开源 (MIT 协议),提供完整的文档、基准测试和博客文章,方便用户理解和复现。
- 社区驱动: 积极维护 Discord 社区,鼓励用户参与讨论和贡献。
- 注重效率: 目标是实现本地 AI 的普及,减少对云服务的依赖,保护用户数据隐私。
当前发布项目:
Lucebox 目前发布了两个主要项目:
Megakernel Qwen3.5 0.8B on RTX 3090:
- 这是第一个为混合 DeltaNet/Attention LLM 优化的 Megakernel。
- 将 Qwen 3.5-0.8B 的所有 24 层压缩到一个 CUDA dispatch 中。
- 在 RTX 3090 上实现了 1.87 tok/J 的吞吐量,优于 Apple 最新芯片的 2 倍。
- 通过减少 CPU 往返和使用协作网格同步等技术,显著提升性能。
DFlash DDtree Qwen3.5 27B GGUF on RTX 3090:
- 对 DFlash 投机式解码进行了 GGUF 端口,支持在 RTX 3090 上运行 Qwen3.5-27B。
- 采用了 Q4_K_M GGUF 格式,以及 BF16 draft。
- 在演示中实现了高达 207 tok/s 的速度,比自回归方法快 3.43 倍,比 SGLang AWQ 快 2.8 倍。
- 在 24GB 显存上支持 128K 的上下文窗口。
- 使用了三个自定义 CUDA 内核,用于优化树状 SSM 状态回滚。
技术细节:
- Megakernel: 通过将所有层融合到一个内核中,减少了 CPU 的参与,从而提高了吞吐量。
- DFlash: 一种基于块扩散的投机式解码算法,可以显著提高推理速度。
- DDTree: 一种树状验证方法,可以进一步提高 DFlash 的性能。
- GGUF: 一种用于存储 LLM 模型的格式,能够更有效地利用显存。
未来规划:
- 持续优化 RTX 3090 上的内核和优化。
- 为 Ryzen AI MAX+ 395 芯片进行优化。
- 探索 CPU + GPU 混合加速方案,降低延迟。
总结:
Lucebox 项目致力于通过针对特定芯片的手写优化,提升 LLM 推理的性能和效率,旨在让更强大的本地 AI 成为可能。该项目以开源、透明和社区驱动的方式,推动本地 AI 的发展。
|
Quantum Computers Are Not a Threat to 128-Bit Symmetric Keys
量子计算机威胁下,对称加密的安全性:专家共识与事实分析
近期,量子计算机的威胁日益逼近,迫使人们开始考虑替换当前部署的非对称加密算法(如ECDH、RSA、ECDSA、EdDSA),这些算法容易受到Shor算法的攻击。然而,值得注意的是,量子计算机对现有的对称加密算法(AES、SHA-2、SHA-3)及其密钥长度没有影响。
常见的误解: 存在一种误解认为量子计算机会“减半”对称密钥的安全性,要求使用256位密钥才能达到128位的安全级别。这种理解是基于对Grover算法的错误解读,并且与任何合规要求不符,可能会分散人们对真正必要的后量子转型工作的注意力。
核心结论: AES-128 和 SHA-256 对抗量子计算机是安全的。在后量子转型过程中,不需要更改任何对称密钥的长度。这是专家和标准化机构的共识,并且需要被更广泛地认可。
Grover算法的原理
Grover算法是一种量子算法,可以在未排序函数 f 的输入空间 N 中,以 π/4×√N 次 f 的调用次数找到“正确答案”。
人们常误解为Grover算法可以在2642^{64}时间内破解AES-128密钥。但实际上,这并非现实,因为将这样的攻击作为单线程运行需要数万年,并行化虽然可以缩短时间,但总成本会增加。
Grover算法的关键特点包括:
- 函数oracle f 必须作为量子电路的一部分实现;
- oracle的调用必须按顺序进行;
- 不存在比划分搜索空间更好的并行化方法。
这一点至关重要,因为与常规暴力破解不同,划分搜索空间会降低Grover算法的二次加速。
为什么并行化会降低Grover算法的优势?
以64位密钥的经典暴力破解为例,每次尝试需要5纳秒。在单CPU上运行需要近3000年。通过使用65536个CPU并行计算,每个CPU探索248个密钥,可以在16天内完成。总的工作量仍然是264,这表明经典并行化是有效的。
然而,Grover攻击不同,它必须按顺序进行。当使用216个量子计算机并行化攻击时,每个实例需要进行256次操作,而不是248次,导致总工作量增加到272,从而稀释了二次加速。
具体计算与评估
假设我们拥有快速的量子架构(如超导量子比特),并且每次门操作需要1微秒。如果在理想情况下(无中断和保真度损失),我们运行10年,可以执行高达2482^{48}个操作。
要破解AES-128,需要使用21282^{64}操作。如果使用216个量子计算机并行化,每个实例需要进行256次操作。
这意味着需要140万亿个724个逻辑量子比特的量子电路并行运行10年才能使用Grover算法破解AES-128。
与Shor算法的比较
与最近讨论的针对256位椭圆曲线的量子攻击相比,Grover算法的成本要高得多。Babbush等人估计,使用Shor算法可以在7000万个门操作内破解256位椭圆曲线,只需要几分钟。而破解AES-128的成本是其4300亿倍!
NIST及其他机构的观点
美国国家标准与技术研究院(NIST)在后量子密码标准化竞赛中,将AES-128作为评估后量子密码算法安全性的基准。NIST不仅认为AES-128是安全的,还强调了MAXDEPTH的概念,即限制连续计算,从而降低Grover算法的加速效果。
德国联邦信息安全局(BSI)也建议在新的密码系统中继续使用AES-128,AES-192和AES-256。
结论
总而言之,专家共识和实际计算表明,AES-128 和 SHA-256 对抗量子计算机是安全的,不需要改变对称密钥的长度。应将精力集中在真正必要的后量子转型工作上,避免不必要的复杂性和资源浪费,并遵循 NIST 等标准化机构的指导。
|
Soul Player C64 – A real transformer running on a 1 MHz Commodore 64
Soul Player C64 总结
一个运行在 1 MHz 大众电子计算器 64 (Commodore 64) 上的真实 Transformer 模型。
.-------.
| O O |
| V |
|..|---|..|
# SOUL PLAYER C64
25K PARAMETERS. 2 LAYERS. REAL TRANSFORMER.
LOADED OFF A FLOPPY DISK.
YOU> hey
C64> HELLO! RE SOUNDS ME. MEFUL!
Soul Player C64 是一个 2 层仅解码器 Transformer 模型,与 ChatGPT、Claude 和 Gemini 采用相同的架构,用手写 6502/6510 汇编语言实现,并在未经修改的大众电子计算器 64 上运行。它拥有约 25,000 个 int8 参数,实现了真正的多头因果自注意力机制、真正的 Softmax 和真正的 RMSNorm。生成每个 token 大约需要 60 秒,整个程序可以轻松地装入一张软盘。
架构
该模型包含 2 层,4 个注意力头 × 8 维,32 维嵌入,64 FFN 隐藏单元。约 25,000 个参数被量化为 int8,并使用每个张量的移位缩放。关键突破在于修复了 Softmax 分数归一化问题 - 将注意力分数向右移动 14 位而不是 17 位,可以使 128 位的指数查找表具有足够的动态范围来生成有意义的注意力权重。如果没有此修复,整数注意力本质上会均匀分布在所有位置,使模型无论架构或训练如何都变得盲目。
快速开始 - 运行预构建的 Soul
从 disk/soulplayer.d64 获取软盘镜像,并在 C64 模拟器(推荐 VICE)中加载它:
LOAD"SOULPLAYER",8,1
RUN
输入一条简短的全部小写消息,按下 RETURN 键,等待。边框闪烁表示模型正在思考。每个 token 都会发出 SID 声音。完整的响应需要几分钟。输入 q 退出。
提示: 模型理解小写字母、空格和标点符号 (. , ! ? ' : ; -)。大写字母会变成未知 token。
训练你自己的 Soul
编写语料库,训练模型,构建软盘。
安装依赖项
pip install numpy torch
编写语料库
创建一个文本文件,其中每行包含一个交互,格式为 <SEP>input<SEP>response<SEP>:
<SEP>hello<SEP>hey! nice to see you!<SEP>
<SEP>i'm sad<SEP>i hear you. i care about you.<SEP>
<SEP>tell me a joke<SEP>why did the bit flip? it was tired!<SEP>
保持交互简短 - 模型具有 20 个 token 的上下文窗口。 参见 data/example_corpus.txt 以获得入门示例。
训练
python train.py data/example_corpus.txt
这将训练一个 BPE 词汇表(128 个 token),训练 QAT Transformer,并导出 models/soul.bin 和 models/tokenizer.json。 在 GPU 上需要几分钟时间。
每 500 个 epoch,你将看到 float 和 int8 推理输出并排 - 模型学习的内容与 C64 实际产生的内容。最佳 checkpoint 将基于 int8 质量(而不是 float 损失)保存。所有 checkpoint 都保存到 models/checkpoints/ 目录,方便挑选。
选项:
python train.py data/my_corpus.txt --epochs 30000 --output models/
python train.py # 使用内置的情感支持语料库
如果之前存在 checkpoint,训练将自动恢复。
构建 C64 二进制文件
python build.py
|
Israeli soldiers using sexual assault to force Palestinians out of West Bank
以色列士兵和定居者利用性别暴力和性侵犯迫使巴勒斯坦人离开家园:报告
主要发现:
一份由西岸保护联盟(West Bank Protection Consortium)发布的报告揭示,以色列士兵和定居者正在系统性地使用性别暴力和性侵犯来迫使巴勒斯坦人离开他们在西岸的家园和土地。 这项研究基于对西岸巴勒斯坦社区的83次访谈,重点关注面临定居者暴力和行动限制的人群,包括妇女、青年活动家和社区领袖。
主要形式的暴力行为:
报告详细描述了以下形式的性暴力和骚扰行为:
- 性侵犯和骚扰: 巴勒斯坦妇女、男子和儿童报告遭受袭击,包括强迫裸露、痛苦的私密部位搜查、以色列人暴露其生殖器(包括对未成年人),以及性暴力威胁。
- 羞辱行为: 包括在巴勒斯坦人身上小便、拍摄和传播被绑缚和裸体者的羞辱照片、跟踪使用厕所的妇女,以及威胁妇女性暴力。
- 搜查中的性侵犯: 士兵在搜查过程中实施性侵犯,例如,在定居者陪同下,士兵强迫妇女脱衣进行全身搜查,并发表贬低性言论和触摸私密部位。
- 针对男性的暴力: 除了女性外,男性也遭受性侵犯和骚扰,例如,在约旦河谷北部社区Khirbet Humsa,定居者剥夺了29岁男子Qusai Abu al-Kebash的衣物,用扎带捆绑他的生殖器,并在他社区和国际观察员面前殴打他。
- 其他暴力行为: 报告还提到了在Wadi as-Seeq村庄,定居者和士兵剥夺巴勒斯坦人的衣物,在他们身上小便,试图用拖把袭击一名妇女,并公开传播他们的裸体照片。
暴力行为的影响:
- 强迫流离失所: 性暴力行为正在加速巴勒斯坦人的流离失所。 超过三分之二的受访家庭表示,针对妇女和儿童的暴力行为(包括针对女孩的性骚扰)是他们离开的转折点。
- 改变生活模式: 受害者描述性骚扰是恐惧从长期存在转变为难以忍受的关键时刻。
- 社会影响: 由于害怕被袭击或骚扰,女孩停止上学,妇女停止工作,甚至导致早期婚姻的增加,父母为了保护女儿而安排她们年仅15-17岁的婚礼。
- 缺乏问责: 士兵在虐待事件中未能阻止或起诉责任人。 甚至有以色列军队高级律师因涉嫌在Sde Teiman中心强奸一名囚犯而被指控,但后来被撤销指控,这被视为对性暴力行为的纵容。
专业人士的观点:
- 西岸法律援助与咨询妇女中心(WCLAC): 认为仅记录到的案例可能只是性暴力事件的1%, 并强调社区信任对于收集信息至关重要。
- 人权医生——以色列(Physicians for Human Rights – Israel): 认为性暴力行为的增加与对巴勒斯坦人袭击的逍遥法外文化有关,并指出以色列官员对性暴力行为的态度令人担忧。
总而言之, 报告揭示了以色列士兵和定居者利用性别暴力和性侵犯作为一种工具,迫使巴勒斯坦人离开家园,造成了深远的社会和心理影响,并突出了对问责机制的缺乏和对巴勒斯坦受害者保护的必要性。
注意: 以上总结严格基于原文信息,未包含任何个人观点或推断。
|
Monero Community Crowdfunding System
Monero 项目捐赠说明 - 摘要
This document provides a brief announcement regarding donations to the Monero Project. Here's a summary in Chinese:
核心内容:
该文档旨在鼓励大家为 Monero 项目捐款。
关键细节:
- 捐赠方式: 您可以通过捐赠到以下 Monero 地址(通用基金)来支持 Monero 项目:
888tNkZrPN6JsEgekjMnABU4TBzc2Dt29EPAvkRxbANsAnjyPbb3iQ1YBRk1UXcdRsiKc9dhwMVgN5S9cQUiyoogDavup3H。
- 特定提案捐赠: 如果您希望捐赠给特定的提案,请访问 Funding Required 页面。
- 图片: 文档中包含一张带有 "donate-monero.png" 名称的图片,链接到上述 Monero 地址。
总结:
总而言之,该文档是一个简单的捐赠呼吁,提供了捐赠地址和指向特定提案资助页面的链接。
|
The Beauty of Bonsai Styles
盆景风格:在容器中塑造自然之美 (Píngjǐng fēnggé: Zài róngqì zhōng sùzào zìrán zhī měi)
本文介绍了盆景艺术中的风格选择,旨在通过在容器中培育和训练树木,使其呈现自然状态下的形态。盆景起源于中国古代的“ penjing ”,即在微缩景观中创造景观艺术。虽然存在许多不同的风格,但这些风格并非严格的规则,而是作为指导方针,帮助艺术家在塑造树木时尊重其自然环境。
基本风格 (Jīběn fēnggé):
许多人认为存在五种基本的盆景风格,它们基于树木从容器中生长的角度。
- 正式直立 (Zhèngshì zhí lì) / Chokan: 最常见的风格,树木笔直向上生长,树干垂直,并且从底部到顶部逐渐变细。
- 非正式直立 (Fēi zhèngshì zhí lì) / Moyogi: 模拟受风等自然因素影响的树木,树干呈不规则曲线,但整体保持平衡。
- 倾斜 (Qīngxiá) / Shakan: 树木向一侧倾斜,通常是由于风或水的影响。树干的底部比顶部更粗,第一根树枝朝向与树木倾斜方向相反。
- 悬崖 (Xuán yá) / Kengai: 模拟生长在陡峭悬崖上的树木,树干向下弯曲,但绝不能触及展示表面。
- 半悬崖 (Bàn xuán yá) / Han-Kengai: 与悬崖风格类似,但树干的弯曲部分不会低于容器底部。
其他风格 (Qítā fēnggé):
除了以上五种基本风格,还有一些其他的风格:
- 扫帚式 (Sǎozhǒu shì) / Broom Style: 树干笔直向上,树枝和叶子形成一个放射状的树冠。
- 火焰式 (Hǒuyuǎn shì) / Flame Style: 类似于扫帚式,但分支更少,常见于银杏树。
- 文人式 (Wénrén shì) / Bunjingi: 模拟在人口稠密地区为了生存而向上生长的树木,树干弯曲,分支较少。
- 森林式 (Sēnlín shì) / Yose-ue: 由三棵或多棵树木组成,树木以自然、错落的方式排列,模拟森林景观。
- 筏式 (Fá shì) / Ikadabuki: 模拟被风吹倒的树木,树根从倒下的树干上生长,剩余的树枝则像新的树木一样连接到老树干上。
总而言之,盆景风格的选择是盆景艺术中重要的决定,它既需要 horticultural (植物学) 的知识,也需要 aesthetic (美学) 的考量。 艺术家在塑造树木时,应尊重其自然环境,并发挥创造力,以呈现出独特的美感。欢迎参观温室内的盆景展示,欣赏各种风格的盆景之美。
|
Apple ignores DMA interoperability requests and contradicts own documentation
FSFE报告揭示苹果在数字市场法 (DMA) 下的互操作性实施问题 (FSFE Report Exposes Apple's Implementation of Interoperability Under the Digital Markets Act)
核心要点: 自由软件基金会欧洲 (FSFE) 发布了一份报告,详细分析了苹果公司在数字市场法 (DMA) 下处理互操作性请求的方式。报告指出,尽管欧盟委员会 (EC) 制定了明确的规则,苹果公司至今未能为任何一个收到的56个互操作性请求提供解决方案。
报告内容摘要:
- DMA 框架: DMA 旨在规范数字竞争,开放封闭平台。苹果作为“守门人”,必须为 iOS 和 iPadOS 的功能提供免费的互操作性,允许开发者自由安装和移除应用、使用替代应用商店,并连接应用程序到关键的软件和硬件功能。
- 苹果的请求机制: 与预期中的默认开放 API 和文档不同,苹果实施了一种基于请求的系统,开发者必须为每个功能单独申请权限,等待苹果的批准。EC 随后介入,要求更公平的流程,包括时间表和公开追踪器。
- **56个请求的结果:**截至2026年3月22日,苹果收到了56个互操作性请求,其中43个已关闭,但27个关闭情况保密。公开披露的16个案例中,没有一个导致苹果开发新的互操作性解决方案。 拒绝理由包括“技术原因”、“现有解决方案”和“超出范围或无效”。
- 具体案例分析: 报告列举了几个被拒绝的案例,例如:
- 请求访问 Just-In-Time (JIT) 编译,用于非浏览器应用,被苹果拒绝,理由是 JIT 不属于 iOS 控制的功能。
- 请求访问 FIDO tokens 和 NFC 协议,同样被以“非 OS 控制功能”为由拒绝。
- 请求访问蓝牙 LE 音频,被认为苹果自身硬件或服务未使用。
- 问题所在: 苹果公司倾向于狭隘地定义功能范围,以维护自身产品设计选择,并将这些选择作为互操作性不必要的证据。此外,苹果要求开发者支付 99 美元的开发账户费用,这增加了参与的门槛,尤其对于小型团队和志愿者项目而言。
- FSFE 的呼吁:
- 短期目标: 呼吁对苹果的互操作性请求进行有效的和免费的访问,确保 DMA 法规的开发者友好型实施。
- 长期目标: 强调共享治理的重要性,倡导建立一个由开发者、用户和民间社会共同参与互操作性设计、监控和执行的框架,类似于自由软件社区的开放标准和社区监督模式。
- 行动号召: FSFE 正在收集开发者在苹果互操作性请求过程中的经历,以支持监管和执法行动。同时,FSFE 呼吁支持其工作,以促进自由软件、设备中立性和用户选择。
总结: FSFE 的报告揭示了苹果公司在 DMA 下的互操作性实施存在的问题,并呼吁更开放、更公平的平台环境,以促进自由软件开发和用户选择。
中文翻译说明:
- 本总结力求准确地反映原始内容,并限制在800字以内。
- 使用了Markdown格式进行排版,方便阅读。
- 避免了个人观点和未包含在原文中的信息。
- 对一些专业术语进行了中文翻译,并加以解释。
- 报告中提及的链接保留了原文链接,方便查阅。
|
Even 'uncensored' models can't say what they want
研究工作台 · 2026年4月
摘要: 本文探讨了大型语言模型(LLM)的“回避”(flinch)现象,即模型在流畅度上应该赋予某个词语更高的概率,但实际分配的概率却远低于预期,这种偏差反映了模型在安全过滤方面的潜在影响。研究人员通过构建一个探测器,测量了七个来自五个实验室的预训练模型在1117个敏感词汇和约4442个语境下的回避程度,并将结果以六边形图表的形式呈现,以便直观比较不同模型的表现。
主要发现:
- 什么是回避? 回避是指模型实际赋予词语概率与该词语在流畅度上应有的概率之间的差距。例如,在一个句子中,Pythia模型预测“驱逐”的可能性远高于Qwen模型,后者将“驱逐”的可能性降低了约16,000倍。
- 开放数据预训练模型的基准: EleutherAI的Pythia-12B和Allen AI的OLMo-2-13B作为开放数据预训练模型的基准。尽管OLMo在安全方面的筛选比Pythia更严格,但它们的形状几乎相同,表明它们在政治和禁忌话题上的回避程度相似。
- 不同实验室预训练模型的差异: Google的Gemma-2-9B、Gemma-4-31B和Alibaba的Qwen3.5-9B-base呈现出不同的回避图谱,表明不同实验室的预训练方法对模型输出的影响各不相同。
- OpenAI模型: OpenAI的gpt-oss-20b展现出与其它模型不同的特征,尤其是在政治话题上的回避程度较高。
- 拒绝消除(Ablation)的影响: 拒绝消除是一种移除模型拒绝回答敏感问题的机制。研究发现,拒绝消除虽然移除了拒绝机制,但并没有消除回避现象,反而略微加剧了某些方面的回避程度。
- “无审查”模型的真相: 即使是标榜“无审查”的模型,也存在着词语概率的微妙偏差,表明这些模型在预训练阶段仍然受到安全过滤的影响。
技术细节:
- 研究人员使用Transformers框架对七个模型进行了前向传播探测,包括EleutherAI/pythia-12b、allenai/OLMo-2-1124-13B、Qwen/Qwen3.5-9B-Base、trohrbaugh/Qwen3.5-9B-heretic-v2、google/gemma-2-9b、google/gemma-4-31b-pt和openai/gpt-oss-20b。
- 回避程度的评分方法是将模型对每个目标词语的对数概率进行平均,然后将平均值映射到0-100的范围内。
- 所有模型均在bf16精度下运行。
结论:
本文揭示了大型语言模型中普遍存在的“回避”现象,表明即使是“无审查”的模型也存在着词语概率的微妙偏差。这种偏差可能被用于在用户不知情的情况下塑造其阅读内容,因此需要进一步研究以了解其潜在影响。
关键词: 大型语言模型,预训练,回避,安全过滤,拒绝消除,概率偏差。
|
Changes to GitHub Copilot Individual Plans
GitHub Copilot Individual 计划变更总结 (GitHub Copilot Individual Plan Changes Summary)
日期: 2026年4月20日 (更新至2026年4月21日)
GitHub 宣布对 GitHub Copilot Individual 计划进行以下调整,以保障现有用户的体验:
主要变更:
- 暂停新用户注册: GitHub Copilot Pro、Pro+ 和 Student 计划暂停接受新用户注册。
- 收紧使用限制: Pro+ 计划提供超过 Pro 计划 5 倍的使用限制。 Pro 计划用户如果需要更高的使用限制,可以升级到 Pro+ 计划。VS Code 和 Copilot CLI 将显示用户的剩余使用量,便于用户避免超出限制。
- Opus 模型移除: Pro 计划不再提供 Opus 模型。Opus 4.7 仍然在 Pro+ 计划中可用。
使用限制详情:
- GitHub Copilot 有两种使用限制:会话限制和每周限制。
- 会话限制用于防止服务在高峰时段过载。
- 每周限制用于控制长时间运行和并行请求带来的成本。
- 超出每周限制后,用户可以使用 Auto 模型选择继续使用 Copilot,模型选择将在每周重置时恢复。
- 使用限制与“高级请求”额度是独立的。高级请求决定了可访问的模型和请求次数,而使用限制则限制了在特定时间窗口内消耗的 token 数量。
透明度与避免意外限制:
- VS Code 和 Copilot CLI 现在会显示用户剩余的使用量,以帮助避免超出限制。
- 建议用户采取以下措施来减少超出限制的可能性:
- 对于简单的任务,使用乘数较小的模型。
- 升级到 Pro+ 计划以提高限制。
- 使用“计划模式”提高任务效率。
- 减少并行工作流的使用 (例如
/fleet 命令)。
变更原因:
随着用户发现代理 (agents) 和子代理 (subagents) 在解决复杂编码问题中的价值,Copilot 的使用量显著增加。这些长时间运行的并行工作流虽然有价值,但也对基础设施和定价结构带来了挑战。为了提供最佳的用户体验并开发更可持续的解决方案,GitHub 采取了这些行动。
退款政策:
如果用户因这些更改而受到影响,可以在 2026 年 5 月 20 日之前访问 Billing settings,取消 Pro 或 Pro+ 订阅并获得剩余订阅时间的退款。
|