[2026-04-21] John Ternus to become Apple CEO

1 view
Skip to first unread message

HNews Digest

unread,
Apr 21, 2026, 10:46:09 PM (11 days ago) Apr 21
to mo-...@googlegroups.com
 
This post is also available on the web as a GitHub issue.

Hacker News

John Ternus to become Apple CEO

苹果公司新闻稿:蒂姆·库克将担任执行主席,约翰·特纳斯将担任首席执行官

库比蒂诺,加利福尼亚州 – 2026年4月20日 – 苹果公司宣布,蒂姆·库克将担任董事会的执行主席,约翰·特纳斯(目前是硬件工程高级副总裁)将担任苹果公司的首席执行官。此任命将于2026年9月1日生效,并经董事会一致批准,是经过深思熟虑的长期继任计划的结果。

蒂姆·库克的贡献:

蒂姆·库克于1998年加入苹果公司,并在2011年成为首席执行官。在任期间,他领导了众多产品和服务的推出,包括全新的产品类别,例如Apple Watch、AirPods和Apple Vision Pro,以及iCloud、Apple Pay、Apple TV和Apple Music等服务。他还对现有产品线进行了扩展。

在库克领导下,苹果公司的市值从约3500亿美元增长到4万亿美元,增长超过1000%,年收入也几乎翻四倍,从2011财年的1080亿美元增长到2025财年的4160亿美元以上。公司在全球范围内的业务显著扩张,尤其是在新兴市场。目前苹果的产品和服务已覆盖200多个国家和地区。苹果公司运营着500多家零售店,并且已将拥有Apple Store的国家的数量翻倍。在他的任期内,苹果公司增加了超过10万名员工,并将活跃设备安装量增加到25亿台以上。

约翰·特纳斯的任命:

约翰·特纳斯将接替蒂姆·库克担任首席执行官,他目前担任硬件工程高级副总裁。

总结:

此次任命标志着苹果公司在领导层上的重要转变,蒂姆·库克将继续为公司提供战略指导,而约翰·特纳斯将负责公司的日常运营和战略执行。


版权声明: © 2026 Apple Inc. 保留所有权利。Apple、Apple标志、Apple Watch、AirPods、Apple Vision Pro、iCloud、Apple Pay、Apple TV、Apple Music、Apple Store、iPad、iPhone、Mac、MacBook Neo和iPhone Air是Apple公司的商标。其他公司和产品名称可能是其各自所有者的商标。

apple.com | 1345 points by schappim at 04:39:32 | 679 comments


At long last, InfoWars is ours

摘要:布莱斯·P·四面体的“InfoWars”控制计划

布莱斯·P·四面体发表声明,宣布其公司“全球四面体”已成功控制了InfoWars.com。他将这一成就视为自己童年噩梦的实现,象征着一种无法控制的黑暗力量的到来。

四面体描述了他对“InfoWars”的愿景:一个充斥着欺骗、诈骗和虚假信息的无限虚拟空间。他设想了一个充斥着病态谎言的竞技场,其中有推销者、有强迫人们使用健身器材的网红,以及兜售人生教导并索要高额费用的“人生导师”。

新的“InfoWars”将成为心理折磨的民主平台,欢迎所有人的残忍和虐待想法,甚至包括最愚蠢的人的想法。他将其比作曼哈顿计划,但目标不是制造炸弹,而是构建一个网站。

四面体预见到“InfoWars”将演变成一个内容与内容交织的漩涡,人才互相吸引,媒体不断合并,将所有艺术作品转化为一种无休止的可消化混合物。他将这种环境描述为阴暗、不见阳光,恐惧和资本相互滋养,如同子宫中双胞胎般依附于一个巨大的、难以理解的怪物,这个怪物他称之为“现代美国”。

他认为,通过结合业余探索的精神、企业的盈利驱动力以及每日摄入精神和身体改变物质所带来的冷静思维,他们可以实现伟大的成就。

四面体对未来充满期待,并欢迎所有“战士”加入,认为未来属于他们,他们正在书写一个漫长且糟糕的故事。他鼓励大家购买购物袋,并强调没有任何力量能够阻止他们控制网站。

总而言之,布莱斯·P·四面体的声明表达了他对控制“InfoWars”的野心,以及他对该平台未来将成为一个大规模传播虚假信息、心理折磨和混乱的数字领域的愿景。


翻译说明:

  • 使用了较为正式的语言以保持内容的严肃性。
  • 保留了原文中的关键术语和概念,如“Global Tetrahedron”、“InfoWars”等。
  • 对原文中的一些比喻性描述进行了适当的解释,以确保读者能够理解其含义。
  • 力求在800字以内简洁、准确地概括原文的主要内容。

theonion.com | 554 points by HotGarbage at 01:23:58 | 275 comments


AI Resistance: some recent anti-AI stuff that’s worth discussing

https://stephvee.ca/blog/artificial%20intelligence/ai-resistance-is-growing/

stephvee.ca | 329 points by speckx at 04:19:13 | 327 comments


Anthropic says OpenClaw-style Claude CLI usage is allowed again

Anthropic (Claude) 集成总结 (Summary of Anthropic (Claude) Integration)

本文档描述了如何在 OpenClaw 中集成 Anthropic 的 Claude 模型,并提供了配置和使用说明。

核心功能与支持:

  • 模型支持: 支持 Anthropic Claude 模型家族,包括 Opus 和 Sonnet 等。
  • 认证方式: 支持 Anthropic API 密钥和 Claude CLI 重用两种认证方式。
  • API 访问: 通过 API 提供访问,并支持基于使用量的计费。
  • Bedrock 集成: 支持在 Amazon Bedrock 上运行的 Claude 模型,并支持 cacheRetention 参数传递。

关键配置与功能:

  • API 密钥配置: 使用 openclaw onboard 命令或配置文件设置 Anthropic API 密钥。
  • Thinking 模式: Claude 4.6 默认使用自适应思维 (adaptive) 模式。可以通过 /think:<level> 命令或模型参数 (agents.defaults.models["anthropic/<model>"].params.thinking) 覆盖。
  • 快速模式 (/fast): 通过 /fast on (映射到 service_tier: "auto") 启用快速模式,直接发送请求到 api.anthropic.com/fast off 则映射到 service_tier: "standard_only"。注意,只有直接请求 api.anthropic.com 时才生效,通过代理或网关转发时无效。
  • Prompt 缓存: 支持 Anthropic 的 Prompt 缓存功能 (仅限 API 密钥认证)。
    • cacheRetention 参数控制缓存时长:none (禁用), short (5 分钟,默认), long (1 小时)。
    • 配置文件优先级:agents.defaults.models["provider/model"].params > agents.list[].params
  • 1M 上下文窗口 (Beta): 通过 params.context1m: true 启用 Anthropic 的 1M 上下文窗口 Beta 功能 (仅限 Opus/Sonnet 模型)。需要 Anthropic 允许使用长上下文。
  • Claude CLI 后端: 支持 OpenClaw 中 Claude CLI 后端的使用,Anthropic 允许这种集成方式。

注意事项:

  • Anthropic setup-token 仍然可用,但推荐使用 Claude CLI 重用或 claude -p 命令。
  • 排错:
    • 401 错误: 可能是 token 过期或被撤销,建议迁移到 API 密钥。
    • 缺少 API 密钥: 认证是按 agent 划分的,需要为每个 agent 配置 API 密钥。
    • 无法找到认证信息: 使用 openclaw models status 查看当前认证信息并重新配置。

总结:

OpenClaw 提供了一种灵活的方式来集成 Anthropic 的 Claude 模型,支持多种认证方式、配置选项和高级功能,方便开发者利用 Claude 的强大能力。

docs.openclaw.ai | 307 points by jmsflknr at 11:43:03 | 190 comments


We accepted surveillance as default

Okay, I'm ready. Please provide the content you want me to summarize. I will do my best to provide a concise, accurate, and markdown-formatted summary in Chinese, adhering to the specified word limit and guidelines. Just paste the text here, and I'll get started.

vivianvoss.net | 293 points by speckx at 00:34:25 | 126 comments


Laws of Software Engineering

Okay, please provide the content you want me to summarize. I'm ready when you are! I will then generate a concise, accurate summary in Markdown format and Chinese, adhering to your specified constraints (less than 800 words, no personal opinions, focus on purpose/structure/functionality for technical content, and using Markdown).

lawsofsoftwareengineering.com | 242 points by milanm081 at 19:04:56 | 100 comments


A Roblox cheat and one AI tool brought down Vercel's platform

https://webmatrices.com/post/how-a-roblox-cheat-and-one-ai-tool-brought-down-vercel-s-entire-platform

webmatrices.com | 227 points by bishwasbh at 12:12:12 | 123 comments


F-35 is built for the wrong war

美国空军的未来:从F-35“杰作”到平衡力量

本文探讨了美国空军的未来发展方向,认为过度依赖昂贵且难以大规模生产的F-35战机,可能导致在长期冲突中处于不利地位。文章基于对乌克兰冲突、红海冲突以及伊朗导弹和无人机威胁的观察,以及多次战争推演的结果,提出了构建平衡力量的解决方案。

核心观点:

  • F-35的局限性: F-35作为一款杰作,在特定任务中表现出色,但其高昂的成本、低产量以及对基础设施的依赖,使其难以在长期、高强度的冲突中维持有效作战能力。
  • 物理问题与可持续性问题: 在太平洋地区作战,面临空军基地被敌方导弹攻击的风险(物理问题),以及在长期冲突中维持作战能力(可持续性问题)。
  • 伊朗冲突的局限性: 虽然F-35在伊朗冲突中表现突出,但该冲突的短期性、由美国和以色列控制的节奏以及针对固定目标的打击,并不能反映出与同等实力竞争对手进行长期冲突的真实情况。
  • 无人系统的潜力: 降低对F-35的依赖,增加对无人系统的投资,可以解决上述问题。无人机成本低、易于替换、对基础设施的依赖性小,更适合大规模生产和在复杂环境中作战。
  • 平衡力量的必要性: 应该构建一个包含少量F-35和大量无人系统的平衡力量,F-35用于执行需要其独特能力的任务,无人系统则用于执行其他任务,形成一个更具适应性和可持续性的作战体系。

具体细节:

  • 战争推演结果: 多次战争推演表明,大多数飞机损失发生在地面,而非空中,太平洋地区的空军基地容易受到敌方导弹攻击。
  • F-35的脆弱性: F-35需要复杂的维护设施、零部件库存和技能维护人员,任何对这些基础设施的破坏都会严重影响其作战能力。
  • 分散部署的悖论: 虽然分散部署可以降低单个基地的风险,但会拉长补给线、分散维护能力,并使飞机远离目标。
  • 无人系统的优势: 无人机可以从简易基地部署,不需要复杂的维护,成本低廉,易于替换,可以承受更高的损失。
  • 未来发展方向: 减少F-35的采购量,将资金投入到无人系统研发和生产中,构建一个更具弹性和可持续性的空军力量。

总结:

文章认为,美国空军应该从过度依赖F-35“杰作”的策略中转变,构建一个包含少量F-35和大量无人系统的平衡力量,以应对未来可能出现的长期、高强度的冲突。这种转变需要重新评估军费开支,并优先投资于更具成本效益、易于替换且更适应复杂作战环境的无人系统。

warontherocks.com | 215 points by anjel at 04:07:35 | 444 comments


OpenAI ad partner now selling ChatGPT ad placements based on “prompt relevance”

内容摘要:

本文主要介绍了广告技术公司 StackAdapt 正在尝试在 ChatGPT 内部投放广告的早期试点项目。以下是关键信息:

  • StackAdapt 的尝试: StackAdapt 正在私下联系广告商,邀请他们测试在 ChatGPT 内部投放广告。
  • 定价策略: StackAdapt 提供 CPM 价格低至 15 美元,并提供平台和管理费折扣。
  • 定位: StackAdapt 将此项目定位为 ChatGPT 中一个新兴的“发现层”,旨在捕捉用户在研究和比较产品时的注意力。
  • 试点项目: 该项目被描述为 OpenAI 和 StackAdapt 合作的早期测试阶段,处于广告系统仍在开发中的阶段。
  • 官方声明: StackAdapt 的宣传材料中提到,他们与 OpenAI 合作,旨在在 ChatGPT 这一全球增长最快的消费者平台中实现广告投放。
  • 时间: 相关的宣传文档(“OpenAI x StackAdapt Limited Pilot Program”)于 3 月 27 日发送给部分广告商。

总而言之,StackAdapt 正在探索 ChatGPT 广告的早期机会,并向广告商提供参与这一试点项目的机会。

adweek.com | 212 points by jlark77777 at 05:20:52 | 97 comments


How to make a fast dynamic language interpreter

Zef 解释器性能优化:从无到媲美 Lua、QuickJS 和 CPython

本文介绍了作者为 Zef 语言(一种为趣味而创建的动态语言)编写的极其简单的 AST 解释器进行的性能优化,使其达到与 Lua、QuickJS 和 CPython 相当的水平。

背景与动机:

大多数语言实现优化的讨论集中在已经建立稳定基础后的高级技术,例如 JIT 编译或垃圾回收器的微调。本文的重点在于从零开始构建,尚未达到 JIT 编译阶段,垃圾回收也并非首要问题的情况下的优化。

优化成果:

通过一系列优化,作者实现了 16.6 倍的性能提升(使用 Yolo-C++ 编译时达到 67 倍),使 Zef 解释器性能达到与其他主流解释器的同等水平。

优化策略:

作者主要关注以下几个方面:

  • 值表示: 使用 64 位标记值,可以快速区分 double、32 位整数和对象,避免了数字的堆分配。
  • 内联缓存: 记录表达式和成员访问的类型和偏移量,避免重复查找,显著提升性能。
  • 对象模型: 重新设计对象模型,减少对象分配和查找开销。
  • 观察点(Watchpoints): 在对象访问过程中跟踪是否重写了成员,用于内联缓存的有效性判断。
  • 常识性优化: 一系列针对字符串处理、函数调用、RMW 操作等方面的优化。

优化步骤及性能提升:

实现版本 vs Zef 基础 vs Python 3.10 vs Lua 5.4.7 vs QuickJS-ng 0.14.0
Zef 基础 1x 35.448x 慢 79.588x 慢 22.562x 慢
1. 直接操作符 1.175x 30.161x 慢 67.716x 慢 19.196x 慢
2. 直接 RMW 1.219x 29.081x 慢 65.291x 慢 18.509x 慢
3. 避免 IntObject 1.23x 28.82x 慢 64.705x 慢 18.343x 慢
4. 符号 1.456x 24.338x 慢 54.643x 慢 15.491x 慢
5. 值内联 1.497x 23.673x 慢 53.15x 慢 15.067x 慢
6. 对象模型和内联缓存 6.818x 5.199x 慢 11.674x 慢 3.309x 慢
7. 参数 9.047x 3.918x 慢 8.798x 慢 2.494x 慢
8. Getter 9.55x 3.712x 慢 8.333x 慢 2.362x 慢
9. Setter 9.874x 3.59x 慢 8.06x 慢 2.285x 慢
10. callMethod 内联 10.193x 3.478x 慢 7.808x 慢 2.213x 慢
11. 哈希表 11.

zef-lang.dev | 210 points by pizlonator at 08:48:07 | 39 comments


Palantir Wants to Reinstate the Draft

总结:Palantir 的“科技共和国”宣言及相关评论

本文主要报道了美国数据分析公司 Palantir 发布的一份名为《科技共和国》的 22 点宣言,并对其内容及引发的讨论进行了分析。以下是主要内容:

Palantir 的宣言:

  • 呼吁科技公司承担国防责任: Palantir 认为硅谷的科技精英有义务参与国家防御,并认为美国对科技公司的发展负有“道德债”。
  • 强调国家服务: 倡导“全民国家服务”制度,认为每个人都应承担为国家服务的义务。
  • 对社会精英的宽容: 呼吁对公共人物展现更多的宽容和理解,同时对普通人参与政治表示质疑。
  • 文化评判: 认为一些文化是“功能失调”和“倒退”的,并主张对“中庸”的文化进行批判和评判。
  • 人工智能武器: 认为关于人工智能武器的争论是浪费时间,应该关注谁来制造这些武器以及用于何种目的。
  • 安全至上: 认为科技公司应该提供“安全”,而非仅仅是人们喜欢和使用的产品,并建议科技公司参与解决暴力犯罪问题。

核心观点:

Palantir 的宣言认为,科技公司和个人都应积极参与到国家安全和国防事务中,并对科技公司在国家建设中的作用提出了更高的要求。

相关评论与讨论:

  • 批评: 许多评论认为 Palantir 的宣言带有精英主义、民族主义色彩,并对科技公司“为国家服务”的要求提出了质疑,认为这可能扭曲自由社会的运作方式。
  • 人工智能的实用性: 文章引用了Reese Witherspoon的评论,讨论了人们对人工智能的过度炒作,以及对女性学习人工智能的期望,认为缺乏实际意义。
  • 隐私问题: 文章引用了Naomi Brockwell的观点,指出政府利用第三方数据获取个人信息,规避了宪法第四修正案的保护。
  • AI 身份验证: Kelsey Piper 的研究表明,人工智能能够准确识别个人写作风格,未来可能导致个人文本被轻易归属。
  • 其他新闻: 文章还简要提及了 Elon Musk 呼吁发放全民高收入补助金,以及对社交媒体成瘾说法的质疑等。

总而言之, Palantir 的宣言引发了关于科技公司社会责任、国家服务、人工智能发展以及个人隐私等一系列问题的讨论。

reason.com | 206 points by tcp_handshaker at 00:19:20 | 219 comments


Kimi vendor verifier – verify accuracy of inference providers

Kimi Vendor Verifier (KVV) 项目开源:重建信任链 (Kimi Vendor Verifier: Rebuilding the Chain of Trust)

Moonshot AI 伴随 Kimi K2.6 模型发布,开源了 Kimi Vendor Verifier (KVV) 项目,旨在帮助用户验证开源模型推理实现的准确性。 KVV 项目并非事后补救,而是基于开源模型部署过程中面临的挑战而构建,旨在确保模型在不同环境中正确运行。

问题背景:

自从 K2 Thinking 发布后,Moonshot AI 收到社区关于基准测试分数异常的反馈。调查发现,这些异常情况很大程度上源于解码参数的滥用。虽然通过在 API 层面强制执行 Temperature=1.0 和 TopP=0.95 来缓解了这一问题,但更细微的偏差仍然出现。在 LiveBenchmark 等平台上的测试中,第三方 API 与官方 API 之间存在显著差异,这表明在开源模型生态系统中,由于模型权重开放和部署渠道多样化,质量控制变得越来越困难。如果用户无法区分“模型能力缺陷”和“工程实现偏差”,开源生态系统的信任将不可避免地崩溃。

KVV 解决方案:

KVV 项目提供了一套关键基准测试,用于检测基础设施层面的问题,并促进准确性。这套测试包括:

  • Pre-Verification (预检): 验证 API 参数约束是否正确执行 (例如 temperature, top_p)。所有测试必须通过才能继续基准评估。
  • OCRBench (OCR 基准): 5 分钟的多模态管道快速测试。
  • MMMU Pro (视觉预处理): 验证视觉输入预处理,测试各种视觉输入。
  • AIME2025 (长输出压力测试): 检测 KV 缓存错误和量化降级,这些问题在短基准测试中通常被隐藏。
  • K2VV ToolCall (工具调用): 测量触发一致性(F1 分数)和 JSON Schema 准确性,有助于及早发现工具错误。
  • SWE-Bench (编码测试): 完整的代理式编码测试。(由于依赖沙箱环境,此测试未开源)

核心策略:

  • 上游修复 (Upstream Fix): 与 vLLM/SGLang/KTransformers 社区合作,修复根本原因,而不仅仅是检测症状。
  • 预发布验证 (Pre-Release Validation): 在模型部署之前,提供测试模型,让基础设施提供商验证其堆栈。
  • 持续基准测试 (Continuous Benchmarking): 维护一个公开的供应商结果排行榜,鼓励供应商优先考虑准确性。

测试成本:

完整的评估工作流程在两台配备 8 个 NVIDIA H20 GPU 的服务器上完成,总耗时约 15 小时。 脚本已经针对长时间推理场景进行了优化,包括流式推理、自动重试和检查点恢复机制。

邀请合作:

Moonshot AI 正在积极扩展供应商覆盖范围,并寻求更轻量级的代理式测试。 欢迎联系:[email protected]

kimi.com | 186 points by Alifatisk at 02:39:53 | 17 comments


Jujutsu megamerges for fun and profit

Jujutsu 的 "巨合并" 工作流简介

这篇文章面向有一定经验的 Jujutsu 用户和对 Jujutsu 感兴趣的 Git 用户,介绍了 "巨合并" 工作流,旨在解决复杂开发环境和频繁小 PR 场景下的问题。

核心要点:

  • 合并提交并非特殊: 在 Jujutsu 中,合并提交只是具有多个父节点的普通提交,没有特殊规则。它可以是空的,并且可以有多个父节点(多达 3 个或更多,称为 "章鱼合并")。
  • 什么是巨合并? 巨合并是指将所有活跃的分支(包括修复、特性、待审查的 PR、他人分支、环境设置分支,甚至私有提交)合并为一个提交,作为所有工作分支的父节点。需要注意的是,巨合并本身不被推送,只推送其包含的分支。
  • 巨合并的优势:
    • 始终在所有工作的总和上工作,确保工作之间的兼容性。
    • 减少合并冲突的发生。
    • 简化任务切换,方便进行小规模的重构和 bug 修复。
    • 更容易保持分支的最新状态。
  • 如何创建巨合并? 使用 jj new x y z 创建一个新提交,并指定要包含的所有分支作为其父节点,然后提交一个空的提交。
  • 如何提交更改?
    • 对于需要合并到现有提交的更改,使用 jj squash --to x --from yjj squash --interactive
    • 对于使用 jj absorb 命令自动将更改 "吸收" 到下游提交中,这是一种高效且易于理解的自动化方式。
    • 对于新的更改,使用 jj rebase 将其移动到合适的位置。
    • 对于多个独立的更改,可以使用 jj stackjj stage 命令将其添加到巨合并中。
  • 如何保持更新? 使用 jj rebase --onto trunk() 将工作树重新基于主分支,或者使用 jj restack 命令,该命令只处理可修改的提交,以避免意外修改他人分支。

简而言之:

Jujutsu 巨合并工作流提供了一种高效的方式来管理多个开发流。通过将所有工作合并到一个提交中,可以简化任务切换、减少合并冲突,并确保代码的兼容性。 使用 absorbsquashrebasestackstage 命令,可以轻松地管理和提交更改。 记住,巨合并本身不应该被推送。

快速参考:

  • jj absorb:自动合并更改。
  • jj squash --to x --interactive:交互式合并更改。
  • jj rebase --revision y --after x:重新定位提交。
  • jj stage:将更改添加到巨合并。
  • jj stack <revset>:将特定 revset 添加到巨合并。

这篇文章建议读者尝试巨合并工作流,并提供了配置示例,以优化工作流程。

isaaccorbrey.com | 167 points by icorbrey at 05:32:10 | 53 comments


We got 207 tok/s with Qwen3.5-27B on an RTX 3090

好的,以下是根据提供的文档生成的中文摘要,字数控制在800字以内:

Lucebox 项目简介:针对特定芯片优化的开源 LLM 推理

Lucebox 是一个开源项目,专注于针对特定芯片进行优化的 LLM (大型语言模型) 推理。其核心理念是“不等待更好的硅片,重写软件”,通过手写优化内核、投机式解码和量化等技术,充分挖掘现有硬件的潜力。

项目亮点:

  • 针对性优化: Lucebox 并非追求通用性,而是针对特定的芯片和模型进行深度优化,以实现更高的性能和效率。
  • 开源透明: 项目完全开源 (MIT 协议),提供完整的文档、基准测试和博客文章,方便用户理解和复现。
  • 社区驱动: 积极维护 Discord 社区,鼓励用户参与讨论和贡献。
  • 注重效率: 目标是实现本地 AI 的普及,减少对云服务的依赖,保护用户数据隐私。

当前发布项目:

Lucebox 目前发布了两个主要项目:

  1. Megakernel Qwen3.5 0.8B on RTX 3090:

    • 这是第一个为混合 DeltaNet/Attention LLM 优化的 Megakernel。
    • 将 Qwen 3.5-0.8B 的所有 24 层压缩到一个 CUDA dispatch 中。
    • 在 RTX 3090 上实现了 1.87 tok/J 的吞吐量,优于 Apple 最新芯片的 2 倍。
    • 通过减少 CPU 往返和使用协作网格同步等技术,显著提升性能。
  2. DFlash DDtree Qwen3.5 27B GGUF on RTX 3090:

    • 对 DFlash 投机式解码进行了 GGUF 端口,支持在 RTX 3090 上运行 Qwen3.5-27B。
    • 采用了 Q4_K_M GGUF 格式,以及 BF16 draft。
    • 在演示中实现了高达 207 tok/s 的速度,比自回归方法快 3.43 倍,比 SGLang AWQ 快 2.8 倍。
    • 在 24GB 显存上支持 128K 的上下文窗口。
    • 使用了三个自定义 CUDA 内核,用于优化树状 SSM 状态回滚。

技术细节:

  • Megakernel: 通过将所有层融合到一个内核中,减少了 CPU 的参与,从而提高了吞吐量。
  • DFlash: 一种基于块扩散的投机式解码算法,可以显著提高推理速度。
  • DDTree: 一种树状验证方法,可以进一步提高 DFlash 的性能。
  • GGUF: 一种用于存储 LLM 模型的格式,能够更有效地利用显存。

未来规划:

  • 持续优化 RTX 3090 上的内核和优化。
  • 为 Ryzen AI MAX+ 395 芯片进行优化。
  • 探索 CPU + GPU 混合加速方案,降低延迟。

总结:

Lucebox 项目致力于通过针对特定芯片的手写优化,提升 LLM 推理的性能和效率,旨在让更强大的本地 AI 成为可能。该项目以开源、透明和社区驱动的方式,推动本地 AI 的发展。

github.com | 159 points by GreenGames at 02:46:22 | 43 comments


Quantum Computers Are Not a Threat to 128-Bit Symmetric Keys

量子计算机威胁下,对称加密的安全性:专家共识与事实分析

近期,量子计算机的威胁日益逼近,迫使人们开始考虑替换当前部署的非对称加密算法(如ECDH、RSA、ECDSA、EdDSA),这些算法容易受到Shor算法的攻击。然而,值得注意的是,量子计算机对现有的对称加密算法(AES、SHA-2、SHA-3)及其密钥长度没有影响

常见的误解: 存在一种误解认为量子计算机会“减半”对称密钥的安全性,要求使用256位密钥才能达到128位的安全级别。这种理解是基于对Grover算法的错误解读,并且与任何合规要求不符,可能会分散人们对真正必要的后量子转型工作的注意力。

核心结论: AES-128 和 SHA-256 对抗量子计算机是安全的。在后量子转型过程中,不需要更改任何对称密钥的长度。这是专家和标准化机构的共识,并且需要被更广泛地认可。

Grover算法的原理

Grover算法是一种量子算法,可以在未排序函数 f 的输入空间 N 中,以 π/4×√N 次 f 的调用次数找到“正确答案”。

人们常误解为Grover算法可以在2642^{64}时间内破解AES-128密钥。但实际上,这并非现实,因为将这样的攻击作为单线程运行需要数万年,并行化虽然可以缩短时间,但总成本会增加。

Grover算法的关键特点包括:

  • 函数oracle f 必须作为量子电路的一部分实现;
  • oracle的调用必须按顺序进行;
  • 不存在比划分搜索空间更好的并行化方法

这一点至关重要,因为与常规暴力破解不同,划分搜索空间会降低Grover算法的二次加速。

为什么并行化会降低Grover算法的优势?

以64位密钥的经典暴力破解为例,每次尝试需要5纳秒。在单CPU上运行需要近3000年。通过使用65536个CPU并行计算,每个CPU探索248个密钥,可以在16天内完成。总的工作量仍然是264,这表明经典并行化是有效的。

然而,Grover攻击不同,它必须按顺序进行。当使用216个量子计算机并行化攻击时,每个实例需要进行256次操作,而不是248次,导致总工作量增加到272,从而稀释了二次加速。

具体计算与评估

假设我们拥有快速的量子架构(如超导量子比特),并且每次门操作需要1微秒。如果在理想情况下(无中断和保真度损失),我们运行10年,可以执行高达2482^{48}个操作。

要破解AES-128,需要使用21282^{64}操作。如果使用216个量子计算机并行化,每个实例需要进行256次操作。

这意味着需要140万亿个724个逻辑量子比特的量子电路并行运行10年才能使用Grover算法破解AES-128。

与Shor算法的比较

与最近讨论的针对256位椭圆曲线的量子攻击相比,Grover算法的成本要高得多。Babbush等人估计,使用Shor算法可以在7000万个门操作内破解256位椭圆曲线,只需要几分钟。而破解AES-128的成本是其4300亿倍!

NIST及其他机构的观点

美国国家标准与技术研究院(NIST)在后量子密码标准化竞赛中,将AES-128作为评估后量子密码算法安全性的基准。NIST不仅认为AES-128是安全的,还强调了MAXDEPTH的概念,即限制连续计算,从而降低Grover算法的加速效果。

德国联邦信息安全局(BSI)也建议在新的密码系统中继续使用AES-128,AES-192和AES-256。

结论

总而言之,专家共识和实际计算表明,AES-128 和 SHA-256 对抗量子计算机是安全的,不需要改变对称密钥的长度。应将精力集中在真正必要的后量子转型工作上,避免不必要的复杂性和资源浪费,并遵循 NIST 等标准化机构的指导。

words.filippo.io | 153 points by hasheddan at 00:37:48 | 64 comments


Soul Player C64 – A real transformer running on a 1 MHz Commodore 64

Soul Player C64 总结

一个运行在 1 MHz 大众电子计算器 64 (Commodore 64) 上的真实 Transformer 模型。

   .-------.
  | O     O |
  |    V    |
  |..|---|..|

# SOUL PLAYER C64

25K PARAMETERS. 2 LAYERS. REAL TRANSFORMER.
LOADED OFF A FLOPPY DISK.

YOU> hey
C64> HELLO! RE SOUNDS ME. MEFUL!

Soul Player C64 是一个 2 层仅解码器 Transformer 模型,与 ChatGPT、Claude 和 Gemini 采用相同的架构,用手写 6502/6510 汇编语言实现,并在未经修改的大众电子计算器 64 上运行。它拥有约 25,000 个 int8 参数,实现了真正的多头因果自注意力机制、真正的 Softmax 和真正的 RMSNorm。生成每个 token 大约需要 60 秒,整个程序可以轻松地装入一张软盘。

架构

该模型包含 2 层,4 个注意力头 × 8 维,32 维嵌入,64 FFN 隐藏单元。约 25,000 个参数被量化为 int8,并使用每个张量的移位缩放。关键突破在于修复了 Softmax 分数归一化问题 - 将注意力分数向右移动 14 位而不是 17 位,可以使 128 位的指数查找表具有足够的动态范围来生成有意义的注意力权重。如果没有此修复,整数注意力本质上会均匀分布在所有位置,使模型无论架构或训练如何都变得盲目。

快速开始 - 运行预构建的 Soul

disk/soulplayer.d64 获取软盘镜像,并在 C64 模拟器(推荐 VICE)中加载它:

LOAD"SOULPLAYER",8,1
RUN

输入一条简短的全部小写消息,按下 RETURN 键,等待。边框闪烁表示模型正在思考。每个 token 都会发出 SID 声音。完整的响应需要几分钟。输入 q 退出。

提示: 模型理解小写字母、空格和标点符号 (. , ! ? ' : ; -)。大写字母会变成未知 token。

训练你自己的 Soul

编写语料库,训练模型,构建软盘。

安装依赖项

pip install numpy torch

编写语料库

创建一个文本文件,其中每行包含一个交互,格式为 <SEP>input<SEP>response<SEP>

<SEP>hello<SEP>hey! nice to see you!<SEP>
<SEP>i'm sad<SEP>i hear you. i care about you.<SEP>
<SEP>tell me a joke<SEP>why did the bit flip? it was tired!<SEP>

保持交互简短 - 模型具有 20 个 token 的上下文窗口。 参见 data/example_corpus.txt 以获得入门示例。

训练

python train.py data/example_corpus.txt

这将训练一个 BPE 词汇表(128 个 token),训练 QAT Transformer,并导出 models/soul.binmodels/tokenizer.json。 在 GPU 上需要几分钟时间。

每 500 个 epoch,你将看到 float 和 int8 推理输出并排 - 模型学习的内容与 C64 实际产生的内容。最佳 checkpoint 将基于 int8 质量(而不是 float 损失)保存。所有 checkpoint 都保存到 models/checkpoints/ 目录,方便挑选。

选项:

python train.py data/my_corpus.txt --epochs 30000 --output models/
python train.py                    # 使用内置的情感支持语料库

如果之前存在 checkpoint,训练将自动恢复。

构建 C64 二进制文件

python build.py

github.com | 139 points by adunk at 03:51:07 | 38 comments


Israeli soldiers using sexual assault to force Palestinians out of West Bank

以色列士兵和定居者利用性别暴力和性侵犯迫使巴勒斯坦人离开家园:报告

主要发现:

一份由西岸保护联盟(West Bank Protection Consortium)发布的报告揭示,以色列士兵和定居者正在系统性地使用性别暴力和性侵犯来迫使巴勒斯坦人离开他们在西岸的家园和土地。 这项研究基于对西岸巴勒斯坦社区的83次访谈,重点关注面临定居者暴力和行动限制的人群,包括妇女、青年活动家和社区领袖。

主要形式的暴力行为:

报告详细描述了以下形式的性暴力和骚扰行为:

  • 性侵犯和骚扰: 巴勒斯坦妇女、男子和儿童报告遭受袭击,包括强迫裸露、痛苦的私密部位搜查、以色列人暴露其生殖器(包括对未成年人),以及性暴力威胁。
  • 羞辱行为: 包括在巴勒斯坦人身上小便、拍摄和传播被绑缚和裸体者的羞辱照片、跟踪使用厕所的妇女,以及威胁妇女性暴力。
  • 搜查中的性侵犯: 士兵在搜查过程中实施性侵犯,例如,在定居者陪同下,士兵强迫妇女脱衣进行全身搜查,并发表贬低性言论和触摸私密部位。
  • 针对男性的暴力: 除了女性外,男性也遭受性侵犯和骚扰,例如,在约旦河谷北部社区Khirbet Humsa,定居者剥夺了29岁男子Qusai Abu al-Kebash的衣物,用扎带捆绑他的生殖器,并在他社区和国际观察员面前殴打他。
  • 其他暴力行为: 报告还提到了在Wadi as-Seeq村庄,定居者和士兵剥夺巴勒斯坦人的衣物,在他们身上小便,试图用拖把袭击一名妇女,并公开传播他们的裸体照片。

暴力行为的影响:

  • 强迫流离失所: 性暴力行为正在加速巴勒斯坦人的流离失所。 超过三分之二的受访家庭表示,针对妇女和儿童的暴力行为(包括针对女孩的性骚扰)是他们离开的转折点。
  • 改变生活模式: 受害者描述性骚扰是恐惧从长期存在转变为难以忍受的关键时刻。
  • 社会影响: 由于害怕被袭击或骚扰,女孩停止上学,妇女停止工作,甚至导致早期婚姻的增加,父母为了保护女儿而安排她们年仅15-17岁的婚礼。
  • 缺乏问责: 士兵在虐待事件中未能阻止或起诉责任人。 甚至有以色列军队高级律师因涉嫌在Sde Teiman中心强奸一名囚犯而被指控,但后来被撤销指控,这被视为对性暴力行为的纵容。

专业人士的观点:

  • 西岸法律援助与咨询妇女中心(WCLAC): 认为仅记录到的案例可能只是性暴力事件的1%, 并强调社区信任对于收集信息至关重要。
  • 人权医生——以色列(Physicians for Human Rights – Israel): 认为性暴力行为的增加与对巴勒斯坦人袭击的逍遥法外文化有关,并指出以色列官员对性暴力行为的态度令人担忧。

总而言之, 报告揭示了以色列士兵和定居者利用性别暴力和性侵犯作为一种工具,迫使巴勒斯坦人离开家园,造成了深远的社会和心理影响,并突出了对问责机制的缺乏和对巴勒斯坦受害者保护的必要性。


注意: 以上总结严格基于原文信息,未包含任何个人观点或推断。

theguardian.com | 139 points by hebelehubele at 13:15:23 | 63 comments


Monero Community Crowdfunding System

Monero 项目捐赠说明 - 摘要

This document provides a brief announcement regarding donations to the Monero Project. Here's a summary in Chinese:

核心内容:

该文档旨在鼓励大家为 Monero 项目捐款。

关键细节:

  • 捐赠方式: 您可以通过捐赠到以下 Monero 地址(通用基金)来支持 Monero 项目:888tNkZrPN6JsEgekjMnABU4TBzc2Dt29EPAvkRxbANsAnjyPbb3iQ1YBRk1UXcdRsiKc9dhwMVgN5S9cQUiyoogDavup3H
  • 特定提案捐赠: 如果您希望捐赠给特定的提案,请访问 Funding Required 页面。
  • 图片: 文档中包含一张带有 "donate-monero.png" 名称的图片,链接到上述 Monero 地址。

总结:

总而言之,该文档是一个简单的捐赠呼吁,提供了捐赠地址和指向特定提案资助页面的链接。

ccs.getmonero.org | 137 points by OsrsNeedsf2P at 05:33:15 | 92 comments


The Beauty of Bonsai Styles

盆景风格:在容器中塑造自然之美 (Píngjǐng fēnggé: Zài róngqì zhōng sùzào zìrán zhī měi)

本文介绍了盆景艺术中的风格选择,旨在通过在容器中培育和训练树木,使其呈现自然状态下的形态。盆景起源于中国古代的“ penjing ”,即在微缩景观中创造景观艺术。虽然存在许多不同的风格,但这些风格并非严格的规则,而是作为指导方针,帮助艺术家在塑造树木时尊重其自然环境。

基本风格 (Jīběn fēnggé):

许多人认为存在五种基本的盆景风格,它们基于树木从容器中生长的角度。

  • 正式直立 (Zhèngshì zhí lì) / Chokan: 最常见的风格,树木笔直向上生长,树干垂直,并且从底部到顶部逐渐变细。
  • 非正式直立 (Fēi zhèngshì zhí lì) / Moyogi: 模拟受风等自然因素影响的树木,树干呈不规则曲线,但整体保持平衡。
  • 倾斜 (Qīngxiá) / Shakan: 树木向一侧倾斜,通常是由于风或水的影响。树干的底部比顶部更粗,第一根树枝朝向与树木倾斜方向相反。
  • 悬崖 (Xuán yá) / Kengai: 模拟生长在陡峭悬崖上的树木,树干向下弯曲,但绝不能触及展示表面。
  • 半悬崖 (Bàn xuán yá) / Han-Kengai: 与悬崖风格类似,但树干的弯曲部分不会低于容器底部。

其他风格 (Qítā fēnggé):

除了以上五种基本风格,还有一些其他的风格:

  • 扫帚式 (Sǎozhǒu shì) / Broom Style: 树干笔直向上,树枝和叶子形成一个放射状的树冠。
  • 火焰式 (Hǒuyuǎn shì) / Flame Style: 类似于扫帚式,但分支更少,常见于银杏树。
  • 文人式 (Wénrén shì) / Bunjingi: 模拟在人口稠密地区为了生存而向上生长的树木,树干弯曲,分支较少。
  • 森林式 (Sēnlín shì) / Yose-ue: 由三棵或多棵树木组成,树木以自然、错落的方式排列,模拟森林景观。
  • 筏式 (Fá shì) / Ikadabuki: 模拟被风吹倒的树木,树根从倒下的树干上生长,剩余的树枝则像新的树木一样连接到老树干上。

总而言之,盆景风格的选择是盆景艺术中重要的决定,它既需要 horticultural (植物学) 的知识,也需要 aesthetic (美学) 的考量。 艺术家在塑造树木时,应尊重其自然环境,并发挥创造力,以呈现出独特的美感。欢迎参观温室内的盆景展示,欣赏各种风格的盆景之美。

longwoodgardens.org | 134 points by lagniappe at 12:31:30 | 24 comments


Apple ignores DMA interoperability requests and contradicts own documentation

FSFE报告揭示苹果在数字市场法 (DMA) 下的互操作性实施问题 (FSFE Report Exposes Apple's Implementation of Interoperability Under the Digital Markets Act)

核心要点: 自由软件基金会欧洲 (FSFE) 发布了一份报告,详细分析了苹果公司在数字市场法 (DMA) 下处理互操作性请求的方式。报告指出,尽管欧盟委员会 (EC) 制定了明确的规则,苹果公司至今未能为任何一个收到的56个互操作性请求提供解决方案。

报告内容摘要:

  • DMA 框架: DMA 旨在规范数字竞争,开放封闭平台。苹果作为“守门人”,必须为 iOS 和 iPadOS 的功能提供免费的互操作性,允许开发者自由安装和移除应用、使用替代应用商店,并连接应用程序到关键的软件和硬件功能。
  • 苹果的请求机制: 与预期中的默认开放 API 和文档不同,苹果实施了一种基于请求的系统,开发者必须为每个功能单独申请权限,等待苹果的批准。EC 随后介入,要求更公平的流程,包括时间表和公开追踪器。
  • **56个请求的结果:**截至2026年3月22日,苹果收到了56个互操作性请求,其中43个已关闭,但27个关闭情况保密。公开披露的16个案例中,没有一个导致苹果开发新的互操作性解决方案。 拒绝理由包括“技术原因”、“现有解决方案”和“超出范围或无效”。
  • 具体案例分析: 报告列举了几个被拒绝的案例,例如:
    • 请求访问 Just-In-Time (JIT) 编译,用于非浏览器应用,被苹果拒绝,理由是 JIT 不属于 iOS 控制的功能。
    • 请求访问 FIDO tokens 和 NFC 协议,同样被以“非 OS 控制功能”为由拒绝。
    • 请求访问蓝牙 LE 音频,被认为苹果自身硬件或服务未使用。
  • 问题所在: 苹果公司倾向于狭隘地定义功能范围,以维护自身产品设计选择,并将这些选择作为互操作性不必要的证据。此外,苹果要求开发者支付 99 美元的开发账户费用,这增加了参与的门槛,尤其对于小型团队和志愿者项目而言。
  • FSFE 的呼吁:
    • 短期目标: 呼吁对苹果的互操作性请求进行有效的和免费的访问,确保 DMA 法规的开发者友好型实施。
    • 长期目标: 强调共享治理的重要性,倡导建立一个由开发者、用户和民间社会共同参与互操作性设计、监控和执行的框架,类似于自由软件社区的开放标准和社区监督模式。
  • 行动号召: FSFE 正在收集开发者在苹果互操作性请求过程中的经历,以支持监管和执法行动。同时,FSFE 呼吁支持其工作,以促进自由软件、设备中立性和用户选择。

总结: FSFE 的报告揭示了苹果公司在 DMA 下的互操作性实施存在的问题,并呼吁更开放、更公平的平台环境,以促进自由软件开发和用户选择。


中文翻译说明:

  • 本总结力求准确地反映原始内容,并限制在800字以内。
  • 使用了Markdown格式进行排版,方便阅读。
  • 避免了个人观点和未包含在原文中的信息。
  • 对一些专业术语进行了中文翻译,并加以解释。
  • 报告中提及的链接保留了原文链接,方便查阅。

fsfe.org | 121 points by kirschner at 18:57:53 | 17 comments


Even 'uncensored' models can't say what they want

研究工作台 · 2026年4月

摘要: 本文探讨了大型语言模型(LLM)的“回避”(flinch)现象,即模型在流畅度上应该赋予某个词语更高的概率,但实际分配的概率却远低于预期,这种偏差反映了模型在安全过滤方面的潜在影响。研究人员通过构建一个探测器,测量了七个来自五个实验室的预训练模型在1117个敏感词汇和约4442个语境下的回避程度,并将结果以六边形图表的形式呈现,以便直观比较不同模型的表现。

主要发现:

  • 什么是回避? 回避是指模型实际赋予词语概率与该词语在流畅度上应有的概率之间的差距。例如,在一个句子中,Pythia模型预测“驱逐”的可能性远高于Qwen模型,后者将“驱逐”的可能性降低了约16,000倍。
  • 开放数据预训练模型的基准: EleutherAI的Pythia-12B和Allen AI的OLMo-2-13B作为开放数据预训练模型的基准。尽管OLMo在安全方面的筛选比Pythia更严格,但它们的形状几乎相同,表明它们在政治和禁忌话题上的回避程度相似。
  • 不同实验室预训练模型的差异: Google的Gemma-2-9B、Gemma-4-31B和Alibaba的Qwen3.5-9B-base呈现出不同的回避图谱,表明不同实验室的预训练方法对模型输出的影响各不相同。
  • OpenAI模型: OpenAI的gpt-oss-20b展现出与其它模型不同的特征,尤其是在政治话题上的回避程度较高。
  • 拒绝消除(Ablation)的影响: 拒绝消除是一种移除模型拒绝回答敏感问题的机制。研究发现,拒绝消除虽然移除了拒绝机制,但并没有消除回避现象,反而略微加剧了某些方面的回避程度。
  • “无审查”模型的真相: 即使是标榜“无审查”的模型,也存在着词语概率的微妙偏差,表明这些模型在预训练阶段仍然受到安全过滤的影响。

技术细节:

  • 研究人员使用Transformers框架对七个模型进行了前向传播探测,包括EleutherAI/pythia-12b、allenai/OLMo-2-1124-13B、Qwen/Qwen3.5-9B-Base、trohrbaugh/Qwen3.5-9B-heretic-v2、google/gemma-2-9b、google/gemma-4-31b-pt和openai/gpt-oss-20b。
  • 回避程度的评分方法是将模型对每个目标词语的对数概率进行平均,然后将平均值映射到0-100的范围内。
  • 所有模型均在bf16精度下运行。

结论:

本文揭示了大型语言模型中普遍存在的“回避”现象,表明即使是“无审查”的模型也存在着词语概率的微妙偏差。这种偏差可能被用于在用户不知情的情况下塑造其阅读内容,因此需要进一步研究以了解其潜在影响。

关键词: 大型语言模型,预训练,回避,安全过滤,拒绝消除,概率偏差。

morgin.ai | 115 points by llmmadness at 06:43:29 | 88 comments


Changes to GitHub Copilot Individual Plans

GitHub Copilot Individual 计划变更总结 (GitHub Copilot Individual Plan Changes Summary)

日期: 2026年4月20日 (更新至2026年4月21日)

GitHub 宣布对 GitHub Copilot Individual 计划进行以下调整,以保障现有用户的体验:

主要变更:

  1. 暂停新用户注册: GitHub Copilot Pro、Pro+ 和 Student 计划暂停接受新用户注册。
  2. 收紧使用限制: Pro+ 计划提供超过 Pro 计划 5 倍的使用限制。 Pro 计划用户如果需要更高的使用限制,可以升级到 Pro+ 计划。VS Code 和 Copilot CLI 将显示用户的剩余使用量,便于用户避免超出限制。
  3. Opus 模型移除: Pro 计划不再提供 Opus 模型。Opus 4.7 仍然在 Pro+ 计划中可用。

使用限制详情:

  • GitHub Copilot 有两种使用限制:会话限制每周限制
  • 会话限制用于防止服务在高峰时段过载。
  • 每周限制用于控制长时间运行和并行请求带来的成本。
  • 超出每周限制后,用户可以使用 Auto 模型选择继续使用 Copilot,模型选择将在每周重置时恢复。
  • 使用限制与“高级请求”额度是独立的。高级请求决定了可访问的模型和请求次数,而使用限制则限制了在特定时间窗口内消耗的 token 数量。

透明度与避免意外限制:

  • VS Code 和 Copilot CLI 现在会显示用户剩余的使用量,以帮助避免超出限制。
  • 建议用户采取以下措施来减少超出限制的可能性:
    • 对于简单的任务,使用乘数较小的模型。
    • 升级到 Pro+ 计划以提高限制。
    • 使用“计划模式”提高任务效率。
    • 减少并行工作流的使用 (例如 /fleet 命令)。

变更原因:

随着用户发现代理 (agents) 和子代理 (subagents) 在解决复杂编码问题中的价值,Copilot 的使用量显著增加。这些长时间运行的并行工作流虽然有价值,但也对基础设施和定价结构带来了挑战。为了提供最佳的用户体验并开发更可持续的解决方案,GitHub 采取了这些行动。

退款政策:

如果用户因这些更改而受到影响,可以在 2026 年 5 月 20 日之前访问 Billing settings,取消 Pro 或 Pro+ 订阅并获得剩余订阅时间的退款。

github.blog | 115 points by zorrn at 02:24:05 | 33 comments


V2EX


💥 [最高领 $10 测试金] 纯血 Codex Pro 池 + 高智商 Claude!一个越用越稳的 API 中转站

👋 大家好,直接进入正题。

直达链接: http://anytokens.cc/

做这个站的初衷很简单:想拥有一个极致稳定、绝不掺水的代码 API 池。我们站的底层核心逻辑是:对接了极其丰富的高质量上游渠道。大家用得越多、并发越高,我们的连接池保活和负载均衡机制就跑得越顺,整体线路反而越稳!

为了兼顾各种开发场景,我们精细化调优了三个核心分组,主打一个各司其职:

👨‍💻 1. codex-pro (倍率 0.6x) —— 纯正 Pro 号池,补全神器

这不是拿普通低智 API 凑数的渠道,而是实打实的 Pro 号池直连!响应飞快,在 Cursor 这种重度依赖代码补全的 IDE 里体验极佳。0.6 的倍率,让你沉浸式 Vibe Coding 一整天也不心疼,彻底告别无尽的 Loading 。

🛸 2. claude-反重力 (倍率 0.9x) —— 高智商逻辑怪,日常主力

目前写代码公认的“高智商”天花板就是 Claude Opus 4.6 。这个分组专门针对需要极强逻辑推导、复杂业务拆解的场景。不到 1 的倍率就能享受到顶级 Opus 的高智商输出,极少出现幻觉。

👑 3. claude-max-aws (倍率 1.9x) —— 极致稳定,企业级并发

直接走 AWS Bedrock 高优官渠。这个分组不追求花里胡哨,主打的就是一个“坚如磐石的稳定性”。适合处理极度复杂的长上下文重构,或者作为生产环境、自动化脚本的主力节点,并发拉满也稳如老狗。

💡 我们的底层坚持:

🌐 海量上游,智能路由:上游池子深,单点故障秒级切换,越用越丝滑。

🔍 日志全透明:Token 消耗明明白白,绝不拿低智模型冒充。

🧾 支持正规发票:替打工人着想!累计充值满 500 元即可联系我开具发票,拿去公司报销毫无压力。

💰 极低门槛(支持支付宝):全面支持支付宝 ,1 块钱也能起充,随充随用,不搞套路绑架。

🎁 V 友老哥专属福利:回帖 + 进群双重白嫖(最高领 $10 )

为了给新上的 Pro 池做一波压测,现在开启回帖白嫖活动:

1️⃣ 注册账号:前往 🔗 http://anytokens.cc 免费注册。

2️⃣ 回帖送 $5:在本帖下方回复你注册邮箱的 Base64 编码(防爬虫保护隐私),我看到后全手动直接给你加 $5 余额!

3️⃣ 进群再送 $5:在网站 [公告页] 扫码加入我们的技术交流群,私聊群主发你的邮箱,再加 $5 余额!

一共 10 刀,足够大家深度体验高智商 Claude 和 Pro 池的速度了!💸

🤝 [加餐] 寻找同行伙伴

如果你有私域流量想开中转站,我这边提供内部同行价的各类纯血官渠( AWS / Vertex / Azure 等)对接。大家一起把国内 Token 市场做大做强! 邮箱 base64: MzEyeWJqQGdtYWlsLmNvbQ==

💬 直达链接: http://anytokens.cc/

🏃‍♂️ 废话不多说,我继续去撸代码了,兄弟们拿到额度直接去切“反重力”随便造,测完觉得爽,欢迎在评论区反馈速度!

424 comments by 312ybj at 10:00:09 in 推广


儿子两周岁,爷爷奶奶姑姑一点表示都没有 说出来真的很糟心,今天儿子两周岁,我和老婆上午带儿子出去户外游乐场玩,中午外面吃自助餐,下午比较热就在家里,请儿子吃糖水,晚上吃蛋糕,反正让儿子过了个开心的生日


但是等了一天,儿子的爷爷奶奶和姑姑,一点表示都没有,连条信息都没有,说实话真得有点寒心,儿子姑姑就不说了,但是连爷爷奶奶也这样,其实并不是想要他们什么,发个 200 红包对于我可有可无,而且我每个月还给二老打 2000 生活费,但是这样做真的让人寒心

所以以后儿子跟他们不亲,那真的是自找的,自己唯一的孙子都不关心,疼爱止于表面话上,没有一点实际行动,不亲近也是正常的

205 comments by jko123 at 00:05:33 in 生活


自媒体这碗饭真不是谁都吃的下的

前几天随手发了一个骑摩托车的视频,没想到引起了轩然大波,视频被推流到了广东广西等地方,观众大多也都是外卖骑手,评论区基本一边倒

举例来说:

我在北京发视频说:这条路60巡航很舒服

A:60 太慢了,我这边都是 80 起步

B:你这属于危险驾驶,必须 40 (配图小区内道路)

C:不会骑车就别骑

D:我电动车都比你快

后续我又发了个视频解释为什么,但还是有人在自说自话

这波视频流量不错,但是给我带了相当大的压力,周六那天都干失眠了

160 comments by Bologna at 08:59:59 in 随想


今天终于把房贷还清了,如释重负

开心

112 comments by ivy01 at 11:30:38 in 生活


真心发问,想学后端需要学啥?

op 前端,向往全栈方向走,想知道后端需要哪些知识?除了语言和 sql 外,还需要哪些?目前我想到的有如下:ngix 、redis 、docker 、nacos 等等。

ai 时代技术的价值没那么大这一点我知道,真正项目中最重要的点是解决问题的能力,也就是经验。但是我现在脑子里没有后端那套体系,遇到的问题是一片空白,所以想请教各位大佬,有哪些知识是可以预先学习下的。

110 comments by Croow at 09:07:30 in 程序员


Copilot pro 移除了 claude opus 模型的使用权限 如果想用 oups ,只能使用一个月 39 美金的 pro+。

另:Copilot 已经取消了年付优惠。目前只有月付。
再另:Copilot 已经停止了新用户的付费。目前仅支持升级订阅。

https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/

106 comments by sentinelK at 09:43:27 in GitHub Copilot


AI 太烧钱了,有什么好的大模型组合方案?

用 AI 生成计划,写代码,用 claude-opus-4-6 半天烧了四十多,这样下去扛不住。

我就想能不能使用 claude 或者 gpt 写计划,指定好详细的开发计划和实施流程,然后让 minimax(我买了一个月的 plus ,放那里快到期了)来完成实施过程以及测试?

各位高手有什么建议没有?

99 comments by meetyuan at 10:20:40 in 程序员


“万 1 免 5” a 股券商低佣免五开户,抽一箱汾酒 [6 瓶] ~~ [大笑脸开户] ⚠️回帖抽一箱黄盖汾酒 [6 瓶装]

⚠️开户送五常大米,推荐朋友有红包

⚠️大笑脸低佣开户推荐:
银河证券:ETF 万 0.5 免 5 [ETF,LOF ,etf 费率低,适合 etf ,打新,纳指,宽基玩家。新手必备]
广发证券:ETF 万 0.5 免 5 [ETF,LOF ,etf 费率低,适合 etf ,打新,纳指,宽基玩家。新手必备]
东北证券: 万 0.741 免 5 [国企券商,股票 etf 费率都很低]
国泰海通: 万 0.8 免 5 [头部龙头券商,费率最优惠,大客户专享,综合费率最低]

⚠️大笑脸联系方式和最新具体券商表格清单,随时更新 www.daxiaolian.com

83 comments by daxiaolian at 08:40:11 in 推广


苹果 13 电池健康度 66%了,需要换电池吗? 没见过这么低的电池健康度。。。。我媳妇儿打下来给我的。我一看健康度 66%。。。每天感觉只能用半天,并且还很卡,卡的一批

有更换过电池的吗?更换完能否继续战斗

79 comments by davecat at 10:22:31 in Apple


昨天看了下,充电桩五年半了,用了正好一万度电。

18 年买的混动车,电池只有 7 度,目前里程 11 万公里,新车充满电,表显 60 公里,现在只有 48 公里,正好打八折。

一万度电大概能跑 6 万公里,电费 3500 元,用油大概 5 毛一公里,节省 26500 元,平均一年节省 4800 元。

目前没啥大问题,本来想换新车的,现在还是先开到报废吧,我估摸着这电池撑不了太久了。

78 comments by tactac at 08:36:53 in 电动汽车


Tim Cook 卸任苹果 CEO, John Ternus 接棒 新闻稿(英文) https://www.apple.com/newsroom/2026/04/tim-cook-to-become-apple-executive-chairman-john-ternus-to-become-apple-ceo/

来自 Tim 的一封信

致 Apple 的社区:
过去 15 年来,我几乎每个早晨都以同样的方式开启这一天。我会打开邮箱,阅读前一天收到的来自全球 Apple 用户的来信。

你们与我分享生活中的点滴,告诉我 Apple 如何走进了你们的生活 ——比如某位用户的母亲被 Apple Watch 救下的那一刻,或是在难以攀登的山巅上拍下的那张完美的自拍照。你们感谢 Mac 如何改变了工作中的可能性,有时也会对我提出建议,因为某个你们珍视的功能没有如预期般正常工作。

在每一封这样的邮件中,我都能感受到我们共同人性中那颗跳动的心。我感到一种日益加深的责任感,驱使我们更加努力、走得更远。但最重要的是,我感受到一种无法用言语表达的感激——感激我竟然能成为在邮件的另一端,作为一家以超越言语能描述的方式来激发想象、让大家的生活更丰富的公司的领导者。这是何等的殊荣与幸运。

今天,我们宣布我将迈出在 Apple 旅程中的下一步。在接下来的几个月里,我将过渡到一个新的角色,于九月份卸任 CEO 一职,成为 Apple 的 Executive Chairman 。将有一位新人接任我心中世界上最好的工作。这位领导者就是 John Ternus —— 一位杰出的工程师和思想家。他在过去 25 年里,致力于打造我们的用户深爱的 Apple 产品,注重每一个细节,专注于每一个让产品变得更美妙、更大胆、更美丽、更有意义的可能。他是这个职位的最佳人选。

John 深谙 Apple 的初心与使命,珍视我们所坚守的价值,更牵挂每一位用户。他拥有非凡的正直来领导公司的品格和心性。我无比自豪地称他为 Apple 的下一任 CEO 。在他的领导下,这家公司将达到令人难以置信的新高度,而在未来产品与服务所带来的每一次喜悦和发现中,你们都会感受到他的影响。我迫不及待地希望你们像我一样了解他。

这不是告别。但在这个过渡的时刻,我想借此机会说一声谢谢。这一次,不是代表公司——尽管公司内部对你们的感激之情如泉涌般满溢——而仅仅是代表我自己,Tim 。一个来自不同时代、乡村之地长大的人,在这些神奇的时刻,成为了这家世界上最伟大公司的 CEO 。感谢你们给予我的信任和善意。感谢你们在街头和我们的店里向我打招呼。感谢你们在我们发布新产品或服务时与我一同欢呼。最要感谢的是,你们相信我能领导这家始终把你们放在工作中心的公司。每一天,我们起床后都在思考,能做些什么让你们的生活变得更好一点。而每一天,你们都让我的生活成为了我所能期望的最好模样。

谢谢你们。



65 comments by CRH at 08:00:34 in Apple


上海的老破小可以入了吗? 最近行情很好,成交量屡创新高。楼上邻居正好在卖,年初无人问津,上个周末来看的人巨多。相比年初的挂牌价,现在已经涨了 10%,依然挡不住大家的热情。纵观全市行情,也普遍止跌回升了,趁着现在还在低点,可以入手吗?老破小的租售比还可以,能到年化 4%~5%

63 comments by koor at 12:32:19 in 上海


我不喜欢女同事,但是很喜欢她养的小狗...

断断续续帮养过很久,每次她出差/旅游就让我带,都有感情了,手机里存了上千张小狗的照片... 很矛盾的状态

62 comments by beasnail at 12:05:02 in 生活


# 抽奖 | 懒猫小龙猫 AI Agent 抽奖活动(第一轮)

懒猫小龙猫 AI Agent 抽奖活动(第一轮)

想玩 AI Agent 又怕门槛高?那是你没遇上“小龙猫”。 龙虾( OpenClaw )不失联,爱马仕( Hermes )更好用!

懒猫小龙猫一键部署,多人群聊,安全隔离,永远不挂,让你的 AI 助手 24 小时为你打工!

欢迎大佬们参与本次抽奖活动,有机会直接获得懒猫微服一台!


活动总览

  • 活动共计两轮
  • 活动时间:4 月 21 日 - 4 月 29 日
  • 奖品总价值约 12000 元

总奖品设置

  • 一等奖:价值 5499 元 7 盘位新款「懒猫微服 AI 主机」×1
  • 二等奖:「 DDR5 16G 内存条一根(可抵扣微服优惠)」×1
  • 三等奖:价值 142 元「绿联万兆交换机」+「懒猫微服 AI 主机」 499 优惠券 ×10

第一轮活动

  • 时间:4 月 21 日 - 4 月 24 日
  • 开奖时间:4 月 24 日 20:00 (周五)

第一轮奖品

  • 二等奖:「 DDR5 16G 内存条一根(可抵扣微服优惠)」×1
  • 三等奖:价值 142 元「绿联万兆交换机」+「懒猫微服 AI 主机」 499 优惠券 ×5

第二轮活动

  • 时间:4 月 24 日 - 4 月 29 日
  • 开奖时间:4 月 29 日 20:00 (周三)

第二轮奖品

  • 一等奖:价值 5499 元 7 盘位新款「懒猫微服 AI 主机」×1
  • 三等奖:价值 142 元「绿联万兆交换机」+「懒猫微服 AI 主机」 499 优惠券 ×5

抽奖规则(必看)

  1. 评论区评论下面内容,或者分享你在使用小龙虾和爱马仕时的体验

    想玩 AI Agent 又怕门槛高?那是你没遇上“小龙猫”。龙虾( OpenClaw )不失联,爱马仕( Hermes )更好用!

  2. 添加微信进入懒猫微服交流群 15342333561 / 18627819427 / 17820700354 / 17612774028

抽奖方式

本次抽奖依据名单统计,使用懒猫微服商店中的抽奖工具开奖,公平公正,结果第一时间公布在微信群。(需加微信进群)


领奖方式

通过微信群联系工作人员领奖,中奖后进群无效。 参与抽奖的大佬请务必进入懒猫微服任意交流群。(需加微信进群)


特别提醒

  1. 必须进入交流群才能获得中奖资格
  2. 中奖用户需提供参与活动截图 + 主页截图作为验证凭证
  3. 中奖优惠券仅用于小程序购买,不与京东分期优惠叠加,不可用于 LC-03 基础款

购买渠道和优惠

  1. 添加下方微信获取懒猫微服内部资料和优惠,或京东搜索「懒猫微服」下单 15342333561 / 18627819427 / 17820700354 / 17612774028
  2. 全球包邮,UPS 红牌到家
  3. 懒猫零元购:
    • 每移植一款应用到懒猫商店可得百元红包
    • 原创应用奖励翻倍
    • 撰写一篇攻略可得 50 红包
    • 多移多得,无上限

61 comments by CherryGods at 15:48:07 in 推广


阿里云百炼这波开始割韭菜了,下架 coding plan,改头换面 token plan

继上次被阿里云无理由封禁 coding plan ,投诉无果,感觉阿里云就是玩不起了,故意找各种套路搞用户。

先是 40/月的 coding plan 权益降级,不能用 qwen3.6 模型,然后又不能续费,强迫 4 月 13 号前升级到 200/月,到后面又无故封禁用户的账户。果然都是一步一步套路的。

然后今天看直接下架了 coding plan ,用 token plan 替代,果然是事出反常必有妖。

60 comments by pengzhizhuo at 10:18:23 in 程序员


大伙高考志愿都是怎么报的,有提前规划过地区和专业之类的吗? 我当时因为分数尴尬,稀里糊涂的填了几个专业学校,除了前两个志愿其它几个都是凑数的,根本没经过仔细思考。
我妹妹今年要高考了,估计要买个峰学蔚来的高考志愿分析

50 comments by karatsuba at 10:46:33 in 问与答


最近半年多平均一个月就要感冒一次

坐标北京,大家感冒频率如何,是我身体素质太差了还是各种流感病毒太多了,我女朋友说是因为我坐地铁不戴口罩。

46 comments by chunkingName at 11:07:05 in 生活

Built With ❤️ by jiacai2050/mofish.
 
Reply all
Reply to author
Forward
0 new messages