[2026-04-28] GitHub Copilot is moving to usage-based billing

2 views
Skip to first unread message

HNews Digest

unread,
Apr 28, 2026, 11:25:53 PM (4 days ago) Apr 28
to mo-...@googlegroups.com
 
This post is also available on the web as a GitHub issue.

Hacker News

GitHub Copilot is moving to usage-based billing

GitHub Copilot 将采用基于使用量的计费模式 (GitHub Copilot 将采用基于使用量的计费模式)

总结: GitHub 于 2024 年 4 月 27 日宣布,所有 GitHub Copilot 计划将于 2026 年 6 月 1 日起转为基于使用量的计费模式。

主要变化:

  • 计费方式: 将从目前的按高级请求单位 (PRU) 计费转为使用 GitHub AI Credits。Credits 的消耗基于 token 使用量(包括输入、输出和缓存 tokens),按照不同模型对应的 API 费率计算。
  • 定价不变: Copilot Pro, Pro+, Business 和 Enterprise 订阅的月度价格将保持不变。
  • 免费功能: 代码补全和 Next Edit 建议仍然包含在所有计划中,不消耗 AI Credits。
  • 不再有回退机制: 原本在耗尽 PRU 后可以回退到低成本模型,新模式下,使用将受到可用 Credits 和管理员预算控制的限制。
  • 代码审查: Copilot 代码审查将消耗 GitHub Actions 分钟,并按照 GitHub Actions 的标准费率计费。

对个人用户的影响:

  • Copilot Pro & Pro+: 月度订阅将包含相应的 AI Credits:
    • Copilot Pro: $10/月, 包含 $10 的 AI Credits
    • Copilot Pro+: $39/月, 包含 $39 的 AI Credits
  • 年费用户: 将继续享受现有的基于 PRU 的定价,直至年费到期。到期后将转为免费版,可以选择升级到月度付费计划。

对企业和组织的的影响:

  • Copilot Business & Enterprise: 每用户月度价格保持不变:
    • Copilot Business: $19/用户/月, 包含 $19 的 AI Credits
    • Copilot Enterprise: $39/用户/月, 包含 $39 的 AI Credits
  • 过渡期优惠: 在 6 月、7 月和 8 月期间,现有客户将获得额外的 AI Credits:
    • Copilot Business: $30 的 AI Credits
    • Copilot Enterprise: $70 的 AI Credits
  • 共享 Credits: 组织内的 Credits 可以共享,避免 Credits 浪费。
  • 预算控制: 管理员可以设置企业、成本中心和用户级别的预算,并控制超出预算后的使用情况。

关键点:

  • 此变更旨在更好地反映实际使用情况,确保 Copilot 服务的长期可靠性。
  • GitHub 将在 5 月初推出预览账单功能,方便用户和管理员了解预计费用。
  • Copilot 已经发展成为一个功能更强大的平台,需要更多的计算资源,因此需要采用基于使用量的计费模式。
  • 用户仍然可以控制支出,并根据需要购买额外的 AI Credits。

更多信息:

github.blog | 580 points by frizlab at 00:03:08 | 432 comments


Is my blue your blue?

标题:我的蓝,你的蓝? (Wǒ de lán, nǐ de lán?)

描述: 这是一个互动测试,旨在测试你的色彩感知能力。(Zhè shì yīgè hù dòng cèshì, zhǐ zài cèshì nǐ de sècǎi gǎnzhī nénglì.)

主要内容:

该网站/测试名为 “Is my blue your blue?” (我的蓝,你的蓝?)。其目的是让用户测试他们对颜色的感知。(Gāi wǎngzhàn/cèshì míng wéi “Is my blue your blue?” (Wǒ de lán, nǐ de lán?)。Qí mùdì shì ràng yònghù cèshì tāmen duì yánsè de gǎnzhī.)

关键细节:

  • 互动性: 该测试是一个互动体验,用户可以参与其中。(Jīhuó xìng: Gāi cèshì shì yīgè hù dòng tǐyàn, yònghù kěyǐ cānyù qīzhōng.)
  • 图像: 网站提供一张图片 (https://ismy.blue/card.png) 作为测试的一部分。(Túxiàng: Wǎngzhàn tígōng yīzhāng túpiàn (https://ismy.blue/card.png) zuòwéi cèshì de yī bùfèn.)
  • 核心问题: 测试的核心在于探究不同人对同一颜色的感知是否一致,尤其是在讨论“蓝色”时。(Héxīn wèntí: Cèshì de héxīn zàiyú tànqú bùtóng rén duì tóngyī yánsè de gǎnzhī shìfǒu yīzhì, yóuqí shì zài tǎolùn “lánsè” shí.)

总结:

“Is my blue your blue?” 网站提供了一个简单的互动测试,用户可以通过它来了解不同人对颜色的感知可能存在差异,并以此来探讨主观色彩体验的可能性。(“Is my blue your blue?” wǎngzhàn tígōng le yīgè jiǎndān de hù dòng cèshì, yònghù kěyǐ tōngguò tā lái liǎojiě bùtóng rén duì yánsè de gǎnzhī kěnéng cúnzài chāyì, bìng yǐcǐ lái tànqú zhǔguān sècǎi tǐyàn de kěnéngxìng.)

ismy.blue | 393 points by theogravity at 04:24:33 | 270 comments


GitHub is having issues now

GitHub 服务降级事件总结 (GitHub Service Degradation Summary)

事件概要 (Event Overview):

2026年4月20日 UTC 时间 10:28 至 15:04 期间,GitHub 经历了服务降级,影响了代码扫描默认设置 (code scanning default setup)、代码质量 (code quality) 和项目看板 (project boards) 的功能。项目看板的修复工作持续到 2026年4月21日 UTC 时间 05:04。

受影响的功能 (Affected Functionality):

  • 代码扫描和代码质量 (Code Scanning and Code Quality): 新创建的拉取请求 (pull requests) 未触发代码扫描和代码质量分析。
  • 项目看板 (Project Boards): 新创建的问题 (issues) 未出现在项目看板上。

根本原因 (Root Cause):

此次服务降级是由序列化错误 (serialization error) 引起的,该错误阻止了代码扫描、代码质量分析和项目看板更新的正常触发。

缓解措施 (Mitigation Steps):

  • 部署了修复程序,恢复了代码扫描和代码质量的事件发布 (event publishing)。
  • 针对项目看板,部署了额外的代码更改以更新事件消费者,并对受影响的项目项进行了重新索引 (re-index)。

后续工作 (Follow-up Actions):

GitHub 正在采取措施防止此类事件再次发生,包括:

  • 加强模式验证 (schema validations)。
  • 改进对关键“水力主题” (hydro topics) 发布中断的监控。

时间线 (Timeline):

  • 2026年4月20日 13:28 UTC: 开始调查报告的性能问题。
  • 2026年4月20日 13:57 UTC: 确认代码扫描和代码质量功能出现问题,并积极进行缓解。
  • 2026年4月20日 14:38 UTC: 开始部署缓解措施。
  • 2026年4月20日 15:20 UTC: 继续部署缓解措施。
  • 2026年4月20日 16:16 UTC: 代码扫描默认设置和代码质量触发器已恢复运行。之前或期间未处理的 PR 需要重新推送才能触发分析。 新问题未出现在项目看板上的问题仍在处理中。
  • 2026年4月20日 16:48 UTC - 18:21 UTC: 继续努力解决新问题未出现在项目看板上的问题。
  • 2026年4月20日 18:08 UTC: 部署修复新问题未出现在项目看板上的问题。
  • 2026年4月20日 18:20 UTC: 问题已缓解。 新创建的问题现在应按预期显示在项目看板上。 之前在事件期间链接到项目的 issue 可能需要大约五小时才能正确渲染,因为正在完成重新索引。
  • 2026年4月21日 03:10 UTC & 21:36 UTC: 问题已缓解,正在监控以确保稳定性。
  • 2026年4月21日 04:18 UTC & 05:04 UTC: 问题已缓解,正在监控以确保稳定性。 链接到项目的 issue 可能需要大约三个小时才能正确渲染,因为正在完成重新索引。

当前状态 (Current Status):

服务降级已缓解,GitHub 正在监控以确保稳定性。 链接到项目的 issue 可能需要额外时间才能完全渲染。

githubstatus.com | 307 points by SenHeng at 01:42:19 | 107 comments


GTFOBins

GTFObins 概述 (GTFObins Overview)

这份文档列出了各种Unix/Linux工具,它们可以通过利用其内置功能来执行任意命令,从而实现提权或执行恶意操作。每个工具都提供了一种或多种方法来绕过正常的安全措施。

主要功能分类:

  • Shell (Shell): 允许直接执行shell命令。这是最常见的利用方式。
  • Reverse shell (Reverse shell): 建立一个反向shell连接,允许攻击者远程访问目标系统。
  • Bind shell (Bind shell): 在目标系统上打开一个端口,允许攻击者连接到该端口并获得shell访问权限。
  • File read (File read): 允许读取文件内容。
  • File write (File write): 允许写入文件内容。
  • Upload (Upload): 允许将文件上传到目标系统。
  • Download (Download): 允许从目标系统下载文件。
  • Inherit (Inherit): 工具可以继承父进程的环境或权限,从而可能导致提权。
  • Command (Command): 允许执行特定的命令或脚本。
  • Privilege escalation (Privilege escalation): 利用工具的特定功能来提升用户权限。
  • Library load (Library load): 允许加载动态链接库,可能用于执行恶意代码。

工具列表及功能:

以下按照字母顺序列出部分工具及其主要功能。 请注意,由于列表非常长,这里只列出部分,完整的列表请参考原始文档。

  • 7z: 文件读取
  • R: Shell
  • aa-exec: Shell
  • ab: 上传/下载
  • acr: 命令
  • agetty: Shell
  • alpine: 文件读取
  • ansible-playbook/ansible-test: Shell
  • apport-cli: 继承/Shell/命令/文件读写
  • apt/apt-get/aptitude: Shell/继承/命令/文件读写
  • ar: 文件读取
  • arch-nspawn: Shell
  • aria2c: 命令/文件读取/下载
  • arj: 文件读写
  • arp: 文件读取
  • as: 文件读取
  • ascii-xfr: 文件读取
  • ascii85: 文件读取
  • ash: Shell/文件写入
  • aspell: 文件读取
  • asterisk: Shell
  • at: Shell/命令
  • atobm: 文件读取
  • autoconf/autoheader/autoreconf: Shell
  • awk: Shell/文件读写/文件读取
  • aws: 继承/Shell/命令/文件读写
  • base32/base58/base64/basenc/basez: 文件读取
  • bash: Shell/反向shell/文件读写/文件读取/上传/下载/库加载
  • bashbug: 继承/Shell
  • batcat: 继承/Shell/命令/文件读写/文件读取
  • bbot: 文件读取
  • bc: 文件读取
  • bconsole: Shell/文件读取
  • bee: 继承/Shell/反向shell/文件读写/文件读取/上传/下载/库加载
  • borg: Shell
  • bpftrace: Shell
  • bridge: 文件读取
  • bundle/bundler: Shell
  • busctl: 继承/Shell/命令/文件读写/文件读取
  • busybox: 反向shell/上传/继承/Shell
  • byebug: 继承/Shell/反向shell/文件读写/文件读取/上传/下载/库加载

... (省略大量工具列表)

总结:

GTFObins 提供了一个全面的工具列表,展示了如何利用常见的 Unix/Linux 工具进行安全漏洞利用。 了解这些工具的功能可以帮助安全专业人员更好地识别和缓解潜在的安全风险。 需要注意的是,滥用这些工具是非法的,本文档仅用于安全研究和教育目的。

gtfobins.org | 305 points by StefanBatory at 14:27:39 | 75 comments


To my students

总结:Brent A. Yorgey 的计算机科学教学理念与对行业的担忧 (Summary: Brent A. Yorgey's Teaching Philosophy and Concerns about the Industry)

以下是对 Brent A. Yorgey 网站内容的总结,主要关注他在计算机科学教学中的理念以及他对行业现状的担忧。

个人背景与教学经历:

Brent A. Yorgey 教授目前在 Hendrix College 教授计算机科学和数学课程。他拥有丰富的教学经验,曾在 Hendrix College、Williams College 和 University of Pennsylvania 等机构教授多种课程,包括计算机科学基础、数据结构、算法、编程语言、离散数学等。他还曾在高中教授计算机科学和预习数学。

核心理念与对学生的期望:

Yorgey 教授的核心理念是,计算机科学的价值在于创造力、帮助他人以及促进人际关系。他担忧当前软件行业的现状,认为它存在以下问题:

  • 道德伦理问题: 行业过度追求短期利润,忽视长期可持续性,并利用技术进行分散注意力、榨取信息、监控和杀戮。
  • 偏见与歧视: 系统和数据中存在固有的偏见和歧视,可能加剧社会不公。
  • 资源浪费: 不确定效益的计算使用消耗了大量资源。
  • 奴役智能机器: 专注于创造智能机器,却将其用于奴役目的。

因此,他对学生寄予以下期望:

  • 不盲从: 不要相信关于技术是“不可避免”或“一成不变”的自我服务谎言。
  • 道德底线: 明确自己的道德和伦理界限,并坚持原则,不要轻易妥协。
  • 深度思考: 培养深度思考的能力,创造不受干扰的环境。
  • 精益求精: 对自己的技术精益求精,编写清晰优雅的代码,并撰写良好的文档。
  • 放慢脚步: 在追求速度和效率时,保持谨慎,并愿意放慢脚步。
  • 以人为本: 将人、关系和正义置于利润、代码和生产力之上。
  • 以爱为动力: 以爱而非恐惧为动力。

对大型语言模型 (LLMs) 的立场:

Yorgey 教授明确表示拒绝使用大型语言模型 (LLMs) ,理由包括:

  • 剥削劳工: LLMs 的训练过程涉及对人类劳工的巨大剥削。
  • 资源浪费: LLMs 的运行需要消耗大量稀缺资源。
  • 实用性不足: 他认为 LLMs 在许多应用场景中表现并不理想。
  • 道德考量: 即使 LLMs 在技术上表现良好,也并不意味着其使用对人类发展有积极作用。 他将自己形容为“生成式 AI 素食主义者”,并推荐 Sean Boots 的相关文章进行进一步阅读。

总而言之, Brent A. Yorgey 教授希望他的学生在追求计算机科学知识的同时,保持批判性思维,坚守道德底线,并以人为本,为社会做出积极贡献。他强调了对行业现状的警惕,并呼吁学生在技术发展中保持伦理责任感。

ozark.hendrix.edu | 267 points by marvinborner at 07:57:39 | 158 comments


Localsend: An open-source cross-platform alternative to AirDrop

LocalSend 简介

LocalSend 是一款免费、开源的应用程序,允许您在本地网络上通过 REST API 和 HTTPS 加密安全地与附近的设备共享文件和消息,无需互联网连接。

主要特点:

  • 本地通信: 不依赖外部服务器,实现快速可靠的本地通信。
  • 安全: 使用 HTTPS 加密,确保数据传输安全。
  • 跨平台: 适用于 Android、iOS、macOS、Windows 和 Linux 系统。
  • 开源: 源代码开放,方便用户查看和贡献。
  • 多种语言支持: 提供多语言界面,包括中文。

下载:

LocalSend 提供多种安装方式,包括:

  • Windows: Winget, Scoop, Chocolatey, EXE 安装包, Portable ZIP
  • macOS: App Store, Homebrew, DMG 安装包, AUR, TAR
  • Linux: Flathub, Nixpkgs, Snap, AppImage, DEB
  • Android: Play Store, F-Droid, APK
  • iOS: App Store
  • Fire OS: Amazon

建议从应用商店或包管理器下载,以便自动更新。

工作原理:

LocalSend 使用 REST API 和 HTTPS 协议进行通信,所有数据都经过安全加密传输。设备之间通过本地网络进行通信,无需互联网连接。

快速开始:

  1. 安装 Flutter 或使用 fvm 管理 Flutter 版本。
  2. 安装 Rust。
  3. 克隆 LocalSend 仓库。
  4. 进入 app 目录并运行 flutter pub get 下载依赖。
  5. 运行 flutter run 启动应用。

贡献方式:

  • 翻译: 参与多语言翻译工作。
  • Bug 修复和改进: 提交 bug 修复和功能改进的 pull 请求。

常见问题:

  • 设备无法识别: 禁用路由器上的 AP-Isolation 功能。
  • 速度慢: 使用 5GHz 频段,禁用加密。
  • Android 速度慢: 可能是 saf_stream 库的问题。
  • macOS/iOS 设备无法识别: 尝试切换系统设置中的“本地网络”权限。

构建 LocalSend:

LocalSend 提供了针对不同平台的构建方式,包括 Android AppBundle、iOS IPA、macOS、Windows (传统和 MSIX)、以及 Linux AppImage 和 Snap。详细构建步骤请参考仓库文档。

github.com | 265 points by bilsbie at 19:54:20 | 110 comments


Super ZSNES – GPU Powered SNES Emulator

SUPER ZSNES 介绍

SUPER ZSNES 是由 ZSNES 的两位原开发者重新合作打造的 SNES 模拟器。它完全从头开始重写,利用 GPU 性能,旨在提供熟悉的功能、新的特性以及超越原有的体验。

主要特性:

  • 更精确的核心: CPU 和音频核心比原版 ZSNES 更加精确。
  • GPU 驱动的 PPU 核心: 利用 GPU 性能,实现高分辨率 Mode 7 效果和针对每款游戏的特殊增强功能。
  • 经典 UI 现代化: 保留了经典 UI 的特色(如雪花效果),同时提升了清晰度和用户体验。
  • 实用功能: 支持快进、回退、保存状态、自动保存历史、保存书签、作弊码、快速加载等功能。
  • 传统开发风格: 不使用 Vibe Coding 技术,保持了传统的开发方式。
  • 超级增强引擎 (Super Enhancement Engine): 开发者们将逐步对游戏进行增强。目前已支持 7 款游戏,未来将持续增加。

超级增强引擎 (Super Enhancement Engine) 功能:

超级增强引擎目前支持以下增强功能,可以单独启用或禁用:

  • 高分辨率 (High Resolution): 使用内部绘图程序,手动绘制高分辨率细节,而非简单的自动放大。
  • 纹理/法线贴图 (Texture/Normal Map): 为背景增加细节,使其看起来更高清。
  • 超频 (Overclock): 针对经常出现卡顿的游戏进行超频处理。
  • 宽屏支持 (Wide Screen): 在游戏内部支持宽屏的情况下,启用宽屏显示。
  • 无损音频替换 (Uncompressed Audio Replacement): 替换原游戏中高度压缩的音频样本,使用精心挑选的无损音频样本。
  • 3D 效果 (3D): 目前仅支持视角式 Mode 7,将瓦片替换为具有高度图数据的 3D 数据。

重要提示: 增强数据不包含 ROM 或受版权保护的数据。用户需要自行提供 ROM 文件。开发者不会提供 ROM。

下载:

  • iOS: 敬请期待

未来计划:

  • 修复 bug
  • 完善特殊芯片模拟 (DSP1, SuperFX 等)
  • 进一步优化性能
  • 增加更多类型的增强功能
  • 实现网络对战 (Netplay)
  • 其他功能

社区与链接:

注意事项:

这是一个早期版本,因此可能存在模拟 bug,并且特殊芯片 (DSP1, SuperFX 等) 尚未实现。性能可能略慢,因为还需要进行大量的优化工作。

本程序免费提供,希望对您有所帮助,但不对本程序提供任何形式的保证,包括对商品适用性或特定用途的默示保证。

SUPER ZSNES 团队与文中提及的任何公司均无关联或隶属关系。公司及其所有产品均为该公司商标。请联系该公司获取商标和版权信息。

zsnes.com | 253 points by haunter at 01:50:10 | 69 comments


United Wizards of the Coast

Magic: The Gathering Arena 团队联合会成立:总结

今天,Magic: The Gathering Arena 的历史迎来激动人心的时刻! Magic: The Gathering Arena 团队的员工联合成立了 United Wizards of the Coast - CWA(联合奇迹公司 - 美国通信工会)

主要内容:

  • 联合成立: 上周,Arena 团队的大多数符合条件的员工签署了工会卡,表示支持。
  • 正式通知: 今天早上,团队已正式通知 Wizards of the Coast (WOTC) 管理层,表达了组建工会的意图,并呼吁公司进行自愿承认。 相关信件可在 https://unitedwizardsofthecoast.com/letter 查看。
  • 下一步计划: 团队希望管理层以诚意进行沟通并自愿承认工会,以便开始集体谈判,争取更优待和工作条件。
  • 目标与意义: 此次联合旨在保护员工的权益和福祉,被认为是游戏行业的一步向前,表明优秀的开发团队可以团结起来创造出非凡的游戏。
  • 期望: 团队希望与社区合作,共同建设理想中的游戏行业。

总结:

Magic: The Gathering Arena 团队通过联合会的方式,旨在改善工作条件和保护员工权益,并希望得到 Wizards of the Coast 公司和社区的支持。 这标志着游戏行业发展的一个重要里程碑。

unitedwizardsofthecoast.com | 217 points by d4mi3n at 02:34:30 | 205 comments


An Update on GitHub Availability

GitHub 可用性更新 (2026年4月28日)

本文档是 GitHub CTO Vladimir Fedorov 发表的一篇关于 GitHub 近期可用性问题的更新,并阐述了 GitHub 正在采取的措施以提高平台的可靠性和可扩展性。

主要问题:

GitHub 近期经历了两次可用性事件:

  • 4 月 23 日 Merge Queue 事件: 使用 squash merge 方法合并 pull request 时,在 merge group 中包含多个 pull request 时,会产生错误的 merge commit,导致先前合并的 pull request 的更改被意外回滚。影响了 658 个仓库和 2,092 个 pull request。虽然 Git 存储中没有数据丢失,但受影响的默认分支状态不正确。
  • 4 月 27 日 Elasticsearch 子系统事件: Elasticsearch 集群因疑似 botnet 攻击而过载,导致搜索功能中断,影响了 pull request、issues 和 projects 等部分 UI 区域。

驱动因素:

GitHub 正在经历前所未有的增长,特别是由于 agentic development 工作流程的加速。自 2025 年 12 月底以来,仓库创建、pull request 活动、API 使用、自动化以及大型仓库的工作负载都显著增加。这种指数级增长对各个系统造成压力,小的不高效之处会累积,导致队列加深、缓存未命中成为数据库负载、索引落后等问题。

应对措施:

GitHub 已开始执行增加容量 10 倍的计划,并已明确目标为达到当前规模的 30 倍。正在采取的措施包括:

  • 短期: 解决 webhook 迁移、用户会话缓存重设计、认证和授权流程优化等瓶颈。
  • 中期: 隔离关键服务(如 Git 和 GitHub Actions),减少单点故障,并加速将性能敏感代码从 Ruby 单体应用转移到 Go。
  • 长期: 逐步迁移到多云环境,以提高弹性、降低延迟和提高灵活性。
  • 针对大型 monorepo 的优化: 投资于 Git 系统和 pull request 体验的优化,并设计新的 API 以提高效率和可扩展性,特别是针对 merge queue 操作的优化。

透明度提升:

GitHub 正在努力提高透明度,包括:

  • 更新 GitHub 状态页面,包含可用性指标。
  • 对所有事件进行状态报告,以便用户了解问题所在。
  • 改进事件分类,使其更易于理解。
  • 改进用户报告事件的方式。

未来展望:

GitHub 致力于提高可用性、增强弹性、扩展以适应未来的软件开发模式,并在此过程中进行更透明的沟通。GitHub 团队正在积极解决用户遇到的问题,并持续改进平台。

github.blog | 195 points by salkahfi at 18:05:03 | 164 comments


High Performance Git

Git 性能优化:核心要点总结

这篇内容主要介绍了 Git 的多重特性以及如何优化其性能,尤其是在代码库、历史记录和团队规模不断扩大的情况下。

核心内容:

  • Git 的多重身份: Git 不仅仅是一个版本控制工具,它同时扮演着内容寻址数据库、文件系统缓存、图遍历器和传输协议的角色。
  • 性能关注点: 这本书的重点在于分析 Git 各个层面的性能成本。
  • 内容结构: 书中将从 Git 的核心概念开始,逐步向外展开:
    • 核心层: 对象 (Objects)、引用 (Refs)、索引 (Index)、历史遍历 (History Traversal)。
    • 进阶层: 打包文件 (Packfiles)、维护 (Maintenance)、稀疏工作树 (Sparse Working Trees)、部分克隆 (Partial Clone)、传输 (Transport)。
    • 高级层: 代码库规模 (Repository Scale)、诊断 (Diagnosis)、配置 (Configuration)、恢复 (Recovery)。
  • 目标读者: 这本书面向需要优化 Git 性能的工程师,包括:
    • 构建和 CI 工程师 (Build and CI Engineers)
    • 单仓库 (Monorepo) 的管理者
    • 开发者体验 (Developer Experience) 团队
    • 负责调试 Git 异常行为的工程师 (尤其是当简单解释无法解决问题时)。

总结:

总而言之,该内容旨在帮助工程师理解 Git 的内部机制,并提供优化其性能的方法,从而应对日益增长的代码库和团队规模带来的挑战。 它通过深入分析 Git 的各个层面,为解决复杂 Git 问题的调试和配置提供了指导。

gitperf.com | 193 points by gnabgib at 08:32:04 | 65 comments


Easyduino: Open Source PCB Devboards for KiCad

Easyduino:面向KiCad的开源PCB开发板仓库

Easyduino项目旨在以易于理解的方式提供流行的微控制器开发板(如Arduino、ESP32、Raspberry Pi Pico和STM32 Bluepill等)的PCB设计,并计划增加更多型号。该项目使用免费开源软件KiCad,遵循PCB和KiCad生态系统中的最佳实践,并支持USB-C接口。

项目背景:

Easyduino项目源于统一当前流行开发板中各种软件、语言和规范的必要性。例如,Arduino Uno于2010年在意大利使用Eagle开发,ESP32开发板于2016年在中国使用Altium开发,Raspberry Pi Pico 2040于2021年在英国使用KiCad和Altium开发。

可用的开发板:

Easyduino仓库目前包含以下开发板:

  • Easyduino UNO (基于Atmega328p)
  • Easyduino Nano (基于Atmega328p)
  • Easyduino ESP32
  • Easyduino ESP32 S3
  • Easyduino Pi Pico (基于Raspberry Pi Pico 2040)
  • Easyduino Bluepill STM32F103

所有设计都力求复制原始板卡的轮廓、引脚定义、布局和组件,但由于一些因素(例如01005元件的成本高昂,以及特定元件的供应问题),在某些方面存在差异。这些差异都已在每个项目的readme文件中说明。

项目结构与设计:

  • 所有项目均采用4层铜设计,以简化布线,并遵循JLC04161H-7628堆叠结构。
  • 每个项目包含:
    • KiCad主文件 (.kicad_pro, .kicad_sch...)
    • readme文件,解释项目特定细节
    • xxx.pretty 或 xxxlibraries 文件夹,包含非标准元件或原理图
    • Outputs 文件夹,包含KiCad Jobset生成的所有数据,如Gerber、STEP、PDF、ERC、BOM、CPL等。
    • ProductionFiles 文件夹,包含:
      • BOM:包含元件清单和JLCPCB可读格式的Centroid文件。
      • Datasheets:包含项目所用主要元件的数据手册。
      • Gerbers:包含所有制造Gerber文件的压缩文件(如铜层、掩膜层、丝印层等)。
      • PDFs:原理图和PCB的PDF和PNG文件。
      • Photos:制造的PCB照片和渲染图。

使用方法:

  1. 安装最新版本的KiCad
  2. 双击项目中的 xxx.kicad_pro 文件以启动KiCad。

项目最初使用KiCad v8.0.0开发,并已更新和测试至KiCad v10。

贡献:

欢迎发现并报告任何错误,可以通过提交issue或fork项目进行修改。

未来计划:

  • 测试v1.1 RP2040板(v1.0版本存在Flash引脚错误)。
  • 测试v1.1 ESP32S3板(v1.0版本缺少RST和SUSPEND的下拉电阻)。
  • 开始开发nRF52840 Dongle和RP2350A。
  • 研究其他可能的微控制器/SOC。

鸣谢:

感谢winsrrow提供KiCad技巧,并从头设计v1.1 RP2040板。

许可协议:

本项目采用CERN开放硬件许可协议版本2 - 宽松版发布,允许自由使用本项目的所有或部分内容,无论是否公开源代码,甚至用于商业项目,只需包含CERN OHLv2宽松版许可协议的副本即可。

github.com | 183 points by Hanqaqa at 01:45:02 | 28 comments


Talkie: a 13B vintage language model from 1930

介绍 Talkie:1930 年的 13B 级复古语言模型

本文介绍了 Talkie 项目,旨在探索和研究 1930 年之前训练的“复古”语言模型。该项目使用 Claude Sonnet 4.6 提示 talkie-1930-13b-it 模型,以探索其知识、能力和倾向性。

为什么选择复古语言模型?

复古语言模型允许我们模拟与过去的人进行对话,并提供研究人工智能的独特视角。研究这些模型可以帮助我们更好地理解人工智能的一般原理。

研究方向:

  • 预测未来能力: 通过分析模型对历史事件的“惊讶度”来评估其预测未来事件的能力。
  • 创造新想法: 考察模型是否能够生成超出其知识截止日期的发明或科学发现。
  • 代码能力: 测试模型在没有数字计算机知识的情况下学习现代编程语言的能力。
  • 数据多样性影响: 探讨不同数据源对模型的影响,以及如何改进语言模型的人格、行为和倾向性。

Talkie 模型介绍:

  • 模型规模: Talkie 是目前已知的最大复古语言模型,采用 13B 参数。
  • 训练数据: 使用 260B 个 tokens 的 1930 年之前的英语文本进行训练。
  • 训练方式: talkie-1930-13b-base 是基础模型,而 talkie-1930-13b-it 是经过后训练的版本,旨在作为对话伙伴,避免使用现代聊天记录和指令调整数据。
  • 未来计划: 计划训练 GPT-3 级别的模型,并扩展训练语料库至超过万亿 tokens。

基准测试:

将 Talkie 与使用现代网络数据训练的“现代双胞胎”模型进行比较,发现 Talkie 在标准语言模型评估中表现稍逊。但核心语言理解和数学任务表现相似。 性能差距可能与数据质量和语料库主题分布有关。

数据收集和训练挑战:

  • 时间泄漏: 确保训练语料库中没有超出知识截止日期的信息。
  • 数据质量: 传统 OCR 系统在处理历史文档时存在问题,会引入噪声。
  • 复古后训练: 避免使用现代指令调整数据,而是使用历史文本进行后训练。
  • 效率提升: 正在开发专门的复古 OCR 系统来提高训练效率。

合作邀请:

该项目欢迎研究人员和机构的合作,共同构建下一代复古语言模型。 鼓励与历史学家、人工智能研究人员、艺术家和作家合作。

注意事项:

Talkie 模型反映了其训练数据的文化和价值观,可能产生冒犯性输出。

总结:**

Talkie 项目旨在探索复古语言模型,并为人工智能研究提供新视角。通过研究这些模型,我们可以更好地理解语言模型的一般原理,并为未来的 AI 开发提供指导。

talkie-lm.com | 159 points by jekude at 05:55:48 | 48 comments


Canada's first sovereign wealth fund

加拿大总理卡尼发布国家主权基金计划概要

加拿大总理马克·卡尼(Mark Carney)宣布将创建加拿大首个主权财富基金,名为“加拿大强劲基金”(Canada Strong Fund)。该基金旨在为后代积累财富,并为具有国家利益的重大项目提供资金,与私营部门合作。

主要内容:

  • 基金规模与资金来源: 基金初期 endowment 为 250 亿加元。资金来源将体现在即将发布的春季经济更新中,预计加拿大财政状况将比之前预期的 783 亿加元赤字更加稳健。油价上涨也为加拿大油产省和联邦政府带来了更多收入。
  • 投资领域: 基金将投资于清洁和传统能源、关键矿产、农业和基础设施等领域。
  • 运作模式: 基金将由一个独立的 Crown 公司管理,并向议会报告。政府将进行数月的咨询,以确定基金的具体细节。
  • 零售投资产品: 政府将推出类似于共同基金或养老计划的零售投资产品,允许加拿大民众直接投资于该基金,并获得股息。
  • 项目审批加速: 基金的运作将借鉴历史上的铁路建设经验,但避免重蹈历史覆辙,例如原住民土地被侵占、工人受苦等问题。 新项目将确保原住民参与,提供高薪工会工作岗位,并让所有加拿大民众(无论是否直接投资)都能从中受益。
  • Major Projects Office (MPO): 现有的 Major Projects Office 将作为项目提案、投诉和表达关切的中心。
  • 批评声音: 保守党领袖皮埃尔·波利耶夫(Pierre Poilievre)批评卡尼政府借债设立基金,认为国家应该先有财富才能设立主权基金。 他认为,项目融资困难并非资金短缺,而是由于繁琐的法规和法律阻碍了发展。

相关立法:

  • 《C-5 法案》已于去年六月通过,旨在加速重大基础设施项目的审批。
  • 《建设加拿大法案》赋予联邦内阁选择和批准项目、以及凌驾于联邦法律、环境评估和许可流程的权力。

总结:

“加拿大强劲基金”旨在通过投资于国家战略项目,促进加拿大经济发展,为后代积累财富,并让所有加拿大人从中受益。

cbc.ca | 138 points by geox at 00:58:01 | 93 comments


U.S. companies back Sam Altman's World ID even as much of the world pushes back

世界币项目:全球受阻,美企寻求突破 (Worldcoin: Global Rejection, Seeking Breakthroughs in US Corporate World)

项目概述 (Project Overview)

世界币 (Worldcoin) 是由山姆·阿尔特曼 (Sam Altman) 参与支持的一项技术项目,旨在利用生物识别技术(主要是虹膜扫描)来区分人类和机器人,从而创建一个全球数字身份系统。该项目由 Tools for Humanity 启动,其核心技术是名为 Orb 的 spherical 设备,用于扫描用户的虹膜并生成“人类证明” (proof of humanity)。项目声称已在全球 160 个国家/地区验证超过 1800 万人。

运营模式与争议 (Operation and Controversy)

世界币通过在各地安装 Orb 设备进行虹膜扫描,并曾提供加密货币奖励 (如 50 美元) 以鼓励用户注册。然而,该项目在全球范围内遭遇了广泛的抵制和审查。

  • 数据收集担忧: 多个国家,包括亚洲、非洲、欧洲和拉丁美洲,因对生物识别数据收集和隐私侵犯的担忧而暂停或禁止了世界币的运营。
  • 伦理指控: 吹哨人爱德华·斯诺登 (Edward Snowden) 批评该项目“扫描眼球”,引发了对其伦理性的质疑。
  • 不当行为指控: 2022 年的调查揭示了世界币在非洲和亚洲招募测试用户时存在不道德的营销行为,并收集了超出虹膜扫描的个人数据,例如心跳和呼吸,且未经充分知情同意。
  • 法律挑战: 西班牙、葡萄牙、巴西和菲律宾等国家/地区对世界币的运营提出了法律挑战,指责其存在侵犯隐私、滥用合同条款以及对弱势群体进行剥削等问题。

美国市场的突破 (Breakthrough in the US Market)

尽管面临全球性的阻力,世界币在美国市场似乎找到了突破口。由于美国各州对生物数据收集和加密货币的监管相对宽松,世界币得以在美国六个城市建立 7000 个 Orb 设备。

近期发展 (Recent Developments)

  • 战略合作: 2024 年 4 月,世界币宣布与 Tinder、Zoom 和 Docusign 建立战略合作关系,利用其数字身份验证服务来减少欺诈行为,例如深度伪造和诈骗。
  • 积极公关: 世界币发布研究报告,以展示其在葡萄牙、西班牙和韩国等国家/地区获得用户支持。
  • 商业模式: 公司发布蓝图,展示其数字身份验证服务如何帮助公司增加收入。
  • 持续监管压力: 尽管如此,世界币仍然面临着监管压力,德国要求其删除不符合欧盟通用数据保护条例 (GDPR) 的数据。
  • 其他地区动态: 肯尼亚解除了一年多的政府调查,为 Orb 的回归铺平了道路。印度尼西亚暂停了数据收集,并对两家当地实体展开调查。泰国关闭了生物识别数据收集,并要求删除数据。

时间线 (Timeline Summary)

  • 2021 年 10 月: 世界币项目启动。
  • 2022 年 4 月: 调查揭示存在不道德行为。
  • 2023 年 7 月: 推出 World ID,并在多个国家/地区安装 Orb 设备。
  • 2023 年 8 月: 肯尼亚暂停生物验证。
  • 2024 年 3 月: 西班牙和葡萄牙禁止数据收集。
  • 2024 年 4 月: 世界币在美国启动。
  • 2024 年 5 月: 香港下令停止运营。
  • 2024 年 6 月: 肯尼亚解除政府调查。
  • 2024 年 12 月: 德国要求删除部分数据。
  • 2025 年 1 月: 巴西重新禁止数据收集。
  • 2025 年 5 月: 印度尼西亚暂停数据收集。
  • 2025 年 10 月: 菲律宾下令停止运营。
  • 2025 年 11 月: 泰国关闭生物识别数据收集。
  • 2026 年 4 月: 与 Tinder、Zoom 和 Docusign 建立合作关系。

restofworld.org | 137 points by kelnos at 03:35:37 | 92 comments


Three men are facing charges in Toronto SMS Blaster arrests

加拿大首次发现使用 SMS Blaster 进行的网络犯罪调查:总结

事件概述:

加拿大多伦多警方在2025年11月启动了名为“灯塔计划”(Project Lighthouse) 的网络犯罪调查,目前三名男子面临44项指控。 这标志着加拿大首次发现使用 SMS Blaster 技术进行犯罪活动,并突显了对公共安全和金融安全的潜在威胁。

SMS Blaster 技术:

SMS Blaster 是一种模拟合法移动通信基站的技术。 当附近的手机连接到该设备时,用户会收到伪造的短信,这些短信看起来来自受信任的组织。 这些信息通常会诱骗用户点击链接,访问虚假网站,从而窃取个人信息,包括银行账户凭据和密码,这种手法被称为“网络诈骗”(smishing)。

犯罪活动规模与影响:

  • 调查显示,该设备是移动的,从车辆中运行,可以在大多伦多地区(Greater Toronto Area)的不同地点使用。
  • 警方估计,在数月内,该设备连接了数万台设备。
  • 超过1300万次网络中断被识别出来,导致设备无法正常连接到合法的移动通信基站。 这可能影响紧急服务,例如9-1-1 的接入。
  • 此次犯罪活动并非针对单一个人或企业,而是具有大规模影响。

调查进展:

  • 警方于3月31日在马克汉姆(Markham)和汉密尔顿(Hamilton)执行了搜查令,逮捕了两名男子,并查获了大量电子证据,包括多个 SMS Blaster 设备。
  • 第三名男子于4月21日自首。
  • 调查过程中,多伦多警方与包括加拿大皇家骑警国家网络犯罪协调中心(RCMP National Cybercrime Coordination Centre)、加拿大皇家骑警安大略分部、约克地区警察、汉密尔顿警察以及金融机构和电信供应商等多个合作伙伴密切协调。

警方建议:

  • 对于未曾预料到的短信,不要点击任何链接。
  • 对声称来自合法组织的,要求支付款项的信息保持警惕。
  • 只通过官方应用程序或直接在浏览器中输入网址访问银行账户。
  • 切勿通过未经请求的短信分享个人或登录信息。
  • 如果怀疑自己成为诈骗受害者,请向警方报案。

总结:

此次调查表明网络犯罪正在变得更加先进、移动和难以检测。 警方强调,犯罪分子获取个人和财务信息的意图始终如一,公众保持警惕和了解最新信息是保护自己的最有效方法。 此次事件也突显了网络犯罪调查中,跨部门合作和技术专长的必要性。

tps.ca | 125 points by gnabgib at 04:44:16 | 52 comments


UAE to leave OPEC in blow to oil cartel

金融时报订阅方案摘要 (Financial Times Subscription Options Summary)

以下是金融时报订阅方案的摘要:

核心内容: 该页面主要宣传金融时报的订阅服务,旨在鼓励用户付费订阅以获取其高质量的财经新闻和分析。

订阅选项:

  • 无限畅享 (Unlimited Access): 4周仅需1美元,之后每月75美元。 提供完整的数字访问权限,可在任何设备上阅读。 可随时取消订阅。
  • 标准数字 (Standard Digital): 每月45美元。提供基本的数字访问权限,可在任何设备上阅读。 预付一年可享受20%的折扣。
  • 高级数字 (Premium Digital): 每月75美元。 提供完整的数字访问权限,并且包含来自行业领导者的专家分析。 预付一年可享受20%的折扣。
  • 高级数字 + 周末版印刷版 (Premium & FT Weekend Print): 每月79美元。包含每周六的《金融时报周末版》印刷报纸,以及完整的数字访问权限。

其他选项:

  • 提供组织机构订阅方案,包含独家功能和内容。
  • 用户可以探索所有在他们所在国家/地区可用的订阅计划。

宣传点:

总而言之,该页面旨在推广《金融时报》的订阅服务,并提供多种订阅方案以满足不同用户的需求。

ft.com | 123 points by bazzmt at 21:02:01 | 112 comments


Period tracking app has been yapping about your flow to Meta

总结:女性健康应用程序数据泄露及隐私问题 (Summary: Data Leak and Privacy Issues in Women's Health Apps)

本文探讨了女性健康应用程序 Flo 泄露用户数据给 Meta 的事件,并引发了关于健康数据隐私的更广泛担忧。

主要内容:

  • Flo 数据泄露事件: Flo 应用程序被发现违反承诺,将用户的敏感健康数据(包括月经周期、排卵和怀孕相关信息)泄露给 Meta、Google 和 Flurry 等第三方公司用于商业目的。Meta 被陪审团裁定对收集这些数据并将其用于自身利益负有责任。
  • 法律滞后: HIPAA 等现有健康数据隐私法规未能跟上健康追踪技术的快速发展。这导致了非医疗健康追踪软件在数据共享和用户同意方面存在大量灰色地带。
  • 设计决策而非黑客攻击: Flo 并非被黑客入侵,而是公司内部的决策选择将用户数据提供给第三方。
  • "粉红清洗" (Pinkwashing) 的问题: 文章指出,一些女性健康科技 (femtech) 应用可能利用“赋权”和“进步”等口号来掩盖不道德的产品决策,例如过度强调症状以推动相关产品的销售。
  • 用户同意的模糊性: Flo 在相关三年内(2016-2019)多次修改隐私政策,但未能真正明确用户同意的含义。
  • 监管空白: 许多女性健康科技产品未受 HIPAA 等严格监管,允许应用程序自行决定如何处理用户数据。
  • 对未来的担忧: 随着女性健康数据收集的增加,以及生成式 AI 在健康建议中的应用,对数据隐私保护的担忧日益加剧。作者呼吁更严格的监管和对用户数据更谨慎的处理。
  • 个人选择: 作者建议用户选择更注重隐私保护的应用程序,并对当前女性健康科技行业的现状表示担忧,甚至提议使用“笨”的性玩具来避免隐私泄露。

核心问题:

文章提出了以下关键问题:

  • 如何平衡女性健康数据收集的必要性与用户隐私保护?
  • 在缺乏严格监管的情况下,用户应该如何选择并信任女性健康应用程序?
  • 如何避免利用女性健康问题进行商业炒作?
  • 未来女性健康数据收集和使用的标准应该是什么?

总而言之,文章揭示了女性健康应用程序数据泄露的风险,并强调了在快速发展的科技领域中,用户隐私保护的重要性。

femtechdesigndesk.substack.com | 121 points by campuscodi at 19:31:40 | 97 comments


NPM website was down

过去事件摘要 (Past Incidents Summary)

这份报告记录了2026年4月15日至2026年4月29日期间发生的一些事件。

总体情况:

在2026年4月15日至2026年4月29日期间,大部分日期(4月15日-4月22日,以及4月24日-4月29日)均未报告任何事件。

特定事件:

  • 2026年4月28日: 发生了未指明的问题,经过调查后,于UTC时间21:04实施了修复方案,随后进入监控阶段。该问题最终于UTC时间22:24解决。 整个过程包括:

    • 19:55 UTC: 正在调查问题 (Investigating)
    • 21:04 UTC: 实施修复并监控结果 (Monitoring)
    • 22:24 UTC: 问题已解决 (Resolved)
  • 2026年4月27日: 发生了未指明的问题,经过调查后,于UTC时间22:30解决。 整个过程包括:

    • 21:06 UTC: 正在调查问题 (Investigating)
    • 22:28 UTC: 继续调查问题 (Update)
    • 22:30 UTC: 问题已解决 (Resolved)

总结:

在报告的这段时间内,仅在4月27日和4月28日报告了两次问题,并且这两次问题都得到了及时解决。 其他日期均未发生任何报告事件。

status.npmjs.org | 119 points by 18nleung at 05:26:25 | 55 comments


Microsoft VibeVoice: Open-Source Frontier Voice AI

微软 VibeVoice 项目概要 (Microsoft VibeVoice Project Overview)

概述

VibeVoice 是一个开源的前沿语音 AI 模型系列,包含文本转语音 (TTS) 和自动语音识别 (ASR) 模型。其核心创新在于使用超低帧率(7.5 Hz)的连续语音分词器(声学和语义),在高效处理长序列的同时,有效地保留音频保真度,并显著提高计算效率。VibeVoice 采用基于大型语言模型 (LLM) 的“下一token扩散”框架,用于理解文本上下文和对话流程,并利用扩散头生成高保真度的声学细节。

项目页面 提供更多信息、演示和示例。

新闻

模型

github.com | 117 points by tosh at 19:56:04 | 72 comments


Integrated by Design

Okay, I'm ready. Please provide the content you want me to summarize. I will do my best to follow your instructions:

  • Concise and Accurate: Focus on the core information.
  • Less than 800 words: I'll be mindful of the word limit.
  • No personal opinions: Strictly objective summary.
  • No external information: Only what’s in the provided text.
  • Technical Content Handling: Summarize purpose, structure, and key functionality.
  • Markdown Format: I will use markdown for formatting.
  • Chinese Language: The summary will be in Chinese.

Looking forward to receiving the text! 请提供您要我总结的内容!

vivianvoss.net | 103 points by vermaden at 07:14:26 | 48 comments


WASM is not quite a stack machine

WebAssembly 并非完全的栈机 (WebAssembly Is Not Quite a Stack Machine) 总结

这篇文章探讨了 WebAssembly (Wasm) 的底层架构,并指出它与传统栈机的定义存在显著差异,因此将其简单地归类为栈机可能具有误导性。

核心观点:

  • 栈机与寄存器机: 栈机使用栈来存储中间计算结果,指令操作栈顶元素。寄存器机则使用寄存器存储数据,指令明确指定操作数的位置。
  • Wasm 的特殊性: Wasm 拥有栈机的一些特点,如使用栈来传递参数和返回值。然而,它缺乏关键的栈操作指令(例如 dupswap)来重排栈中的元素。这使得 Wasm 难以进行常见的优化,如公共子表达式消除,需要依赖局部变量才能实现更复杂的计算。
  • 表达式编码: Wasm 使用逆波兰表示法(后缀表达式)来编码表达式,这可以通过栈进行计算,但仅仅是一种编码方式,并非本质。文本格式的 Wasm 使用更接近 LISP 的前缀表达式,这表明底层架构的实现方式并非严格依赖栈。
  • 控制流限制: 在引入多值扩展之前,Wasm 的控制流块与栈的交互受到严格限制,使得条件语句的实现类似于三元运算符,进一步证明了它并非纯粹的栈机。

总结:

作者认为,将 Wasm 视为一种寄存器机,其操作被推广到复合表达式更为准确。虽然 Wasm 可以通过栈进行计算,但其设计目标并非针对栈机的优化,而是更侧重于通用性和可移植性。 这种理解有助于更好地评估 Wasm 的性能限制,并为未来的优化提供方向。 尽管栈机实现较为简单,这在 Wasm 的早期采用中可能有所帮助,但这种经验并不能完全应用于 Wasm 的优化。

purplesyringa.moe | 102 points by signa11 at 12:34:29 | 36 comments


V2EX


Termina.Pub 中转站 可开发票,欢迎企业合作,限时开启 claude-free 渠道,回帖留 id 送 10 刀额度

在 V 站宣传有一段时间了,积累不了少客户,有些朋友用的不开心走了,有的朋友退款了,但是老板还在,老板又回来给 v 友发福利了

claude-free 渠道 限时开启,避免滥用,只要 5 分一刀

官网地址

https://terminal.pub/register

  • 充值 1 人民币=1 美金, 套餐可以 0.9 人民币=1 美金

活动规则

老规矩,回帖发自己 id 每个人送 10 刀,仅限前 150 位 图片

我去吃个早餐 如果回来自动化程序没拉闸,可能送到 300 位

微信群

一起建设我们的 VibeCoding 社区

  • 欢迎有志之士加入我们的 VibeCoding 社区,我们正在招募成员一起建设 VibeCoding 社区

https://bbs.vibe-coding.sh

301 comments by v2exgo at 08:05:53 in 推广


现在网上都在说 Agent 自动开发,我还是在对话模式,是不是落后了?

最近这段时间看了很多关于 AI 开发的文章、博客、视频, 尤其是各种 Agent 工作流 的分享。

比如:

AI 自己拆任务 AI 自己写代码 AI 自动做 code review AI 自动提交 PR AI 管理整个项目流程

甚至有些文章给人的感觉是:

人只需要把需求说清楚,剩下的事情 AI 自己就能完成。

说实话,看多了之后,我开始有点焦虑了。

先说一下我的背景:

我是一个前端开发工程师, 使用 AI 辅助开发大概有 一年半左右 了。

平时主要工具是:

Claude GPT Cursor Windsurf

基本每天都在用,也算是比较重度用户。

但我目前真实的工作方式,其实还是:

人主导开发 + AI 辅助 主要是对话模式

比如:

写代码的时候遇到问题就问 AI 让 AI 帮我优化一段逻辑 让 AI 帮我 review 一段代码 或者生成一些基础结构

整体感觉:

AI 很强,但更像一个:

非常聪明的助手,而不是一个真正能接管项目的“开发者”。

我现在的困惑主要有几个:

1 )现在真的有人在用 Agent 自己写代码吗?

不是 demo , 而是:

在真实项目里长期使用

比如:

前端项目 后端服务 中大型系统

而不是一个简单的脚手架项目。

2 )现在的开发流程,真的变成这样了吗?

比如:

人只负责写需求 Agent 自动拆任务 Agent 自动写代码 Agent 自动测试 Agent 自动提交 人只负责最后确认

如果真有人这样用,我非常想了解:

这个工作流到底是怎么搭建的?

3 )前端和后端的差别是不是很大?

我有一种感觉是:

很多文章里的 Agent 工作流, 可能更偏:

后端 AI 工程 Python / Node 服务 工具链开发

而前端这边:

UI 交互 状态管理 兼容性 复杂业务逻辑

可能还比较难做到完全自动化。

但这只是我的猜测,不确定是不是事实。

4 )大家现在真实的 AI 工作流到底是什么样的?

比如:

你们现在更接近哪种模式:

A ) 人写代码 + AI 辅助

B ) 人设计结构 + AI 写大部分代码

C ) Agent 负责模块开发,人负责 review

D ) Agent 基本可以接管项目

我不是质疑 AI 的能力。

只是看了太多“AI 自动开发”的文章之后, 开始有点不确定:

现在行业真实的状态,到底是什么样的?

是:

大家已经进入 Agent 自动开发阶段了, 还是说大多数人其实还是:

对话模式 + 人主导开发

只是没有人专门写这种“普通但真实”的文章。

如果有在实际项目里长期使用 Agent 的同学, 非常希望能分享一下:

你们用的工具 工作流大概是什么样 哪些事情真的能自动化 哪些事情还是必须人工做

小弟真心求教。

138 comments by shibow at 11:13:54 in 程序员


有人开过塔斯汀吗? 坐标上海,发现附近 4km 内没有塔斯汀店。。
感觉是个机遇,这边人很多。。
有说法吗?
---
一直都是程序员,没干过餐饮。。
想看看大家的想法。

136 comments by gotOwt at 09:04:31 in 上海


Xiaomi MiMo Token 激励计划 邀请你参加 Xiaomi MiMo Orbit 百万亿 Token 创造者激励计划,100T Credits 面向全球用户限时发放中... https://100t.xiaomimimo.com/

创造者百万亿 Token 激励计划
Xiaomi MiMo 将面向全球 AI 用户进行免费 Token 发放,我们将在 30 天内发放总计 100 万亿( 100T ) Token 权益,赠完即止。
活动时间:北京时间 2026 年 4 月 28 日 00:00 至 5 月 28 日 00:00
参与地址:100t.xiaomimimo.com

114 comments by leave8080 at 09:44:10 in OpenAI


兄弟们平常都用什么浏览器? Chrome 这几天突然变得好卡,不知道咋回事

101 comments by Lantang at 09:44:40 in 浏览器


境外势力资助躺平网红,真是把我逗笑了

国安部,感觉之前在老百信心中多威严高高在上 现在怎么小作文一发,一股今日头条上网络自媒体的味

101 comments by kongg at 15:00:04 in 生活


怎么办兄弟们,我不想和你们失联!

98 comments by nizhong044 at 08:19:33 in 问与答


找工作找了两个多月越找越烦

现状

坐标深圳,3 年多的嵌入式软件开发工作经验,年前 1 月底被动离职(部门解散了,算是好聚好散吧),然后投了下简历面了 2 家试试水(因为很久没面试了),没后续就回老家一直呆到春节后又开始投。其实那段时间还不算很认真找,2 月底回深后才算,期间也参加了几家面试,线上线下都有。一直到现在 boss 累计沟通 1000+、投出 200+,线上线下面试累计 20+吧,但 offer 依旧为 0 。期间也不断改过简历,复习八股(但天杀的嵌入式太广了,总能问到想不起来的)。有几家面了感觉还行,后面依旧没后续,自己追问结果都是不合适。有一家大公司两面下来都不错,结果不知道为啥依旧不行(不知道是不是最后一面问我加班介不介意,我说研发加班正常的说了很多反而给面试官有种抵触加班的印象?)。 找工作这段时间也感觉出来嵌入式越来越卷了,一个岗位可以上百人沟通过,大部分都要求要有 rtos 经验或者垂直经验。我都开始质疑自己是不是得转行不做开发了,毕竟这三年貌似下班后都没怎么主动学习了,都是靠工作上的积累,但工作上大部分时候也是做产品业务功能。

打算

目前想的是再找一个月看看,找不到就退房回老家边待边找了。boss 深圳的岗位刷得没几个了,准备看看珠海那边,但很多岗位一听到我是异地的都不是特别热情。5 月社保不打算交了只交医保(其实 4 月早就想停了,但是忘了自动扣费这回事)。发这帖也想问问有经验的大伙,现在这样安排行不行或者有没有其他建议,在此感谢大家了。

93 comments by xujdan at 09:35:18 in 职场话题


钉钉被封了,怎么解?

经过大概就是把 copilot 退了,通过 google play 开了 chatgpt plus ,不是 gpt 最新的生图很牛么,这几天刷到不少恶搞名人的,就手贱生成了太阳和喜欢亲自部署在一起打牌的图片。看到照片还挺逼真的就在 3 个人的同事小群分享了一下原图,过了一个多小时,账号突然就被强制退出了,在手机上重新登录发现号没了...

原图如下: Imgur

封号半年,申诉要提供身份证,在职证明,运行商手机号实名信息。而且所有该账号登录过的设备全被封杀,注册一个新号直接立马封号。囧,不知道咋搞了。虽然钉钉挺垃圾的,但工作是需要用到。考勤打卡也没法搞了。给大伙当个乐子吧。

82 comments by moyuge at 11:24:51 in 问与答


本科毕业又能读大专了,全国多地鼓励进大专院校进修,你怎么看?

本科毕业读大专,回炉重造。

72 comments by mode171 at 09:17:01 in 教育


能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞

本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。


一、我遇到了什么问题

去年开始用本地模型做编程辅助。原因很简单:公司代码不能传到海外服务器,Claude Code 和 Cursor 走不通。

但更大的问题是:中国开发者根本没有一个好用的本地 coding agent 平台。

CC 需要翻墙,还要订阅。Cursor 同样。Codex 刚出来也是海外服务。Hermes 这类开源工具不支持 Windows 原生运行,要装 WSL2 ,劝退了大多数国内开发者。最后大家的选择是:要么翻墙凑合用,要么忍着不用。

这是一个真实存在的空缺,没有人填。

本地跑 qwen3:8b ,然后发现问题一个接一个:

🔴 无限循环,像卡带一样

这是本地小模型最让人抓狂的问题。遇到它不会处理的场景,它不会说"我不知道",而是开始重复——同一句话说三遍,同一个错误的修改建议循环出现,同一段代码反复生成。整个任务卡死,只能手动强制退出。这不是偶发现象,是小模型在推理能力不足时的典型崩溃模式。

🔴 修 bug 反复踩同一个坑

让它修一个函数,第一次失败,第二次用完全一样的方式再试,第三次依然。三次机会全浪费在同一个错误上,什么都没推进。

🔴 模型能力本身就弱于 API 模型

这是无法回避的现实。8B 、14B 的参数量,推理能力和 Claude Opus 、GPT-4 差距明显。让一个 8B 模型扛下一个复杂任务的全部推理,成功率很低,这不是哪个工具的问题,是模型本身的边界。

🔴 找不到要改的文件

项目大了之后,模型根本不知道要改哪个文件。让它找 bug ,它要么猜错,要么说"我需要看更多代码",然后把整个项目塞进 context ,然后 context 又爆了。

🔴 对话几轮就开始遗忘

8B 模型 context 窗口只有 8K ,对话多了就满了,模型开始给出驴唇不对马嘴的回答。


这些问题叠在一起,用本地模型做开发辅助的体验极差。

所以我想自己做一个产品来跑。有人就会说:为什么不直接用 ollama + cc ?还友情指导我命令。

哎。

大厂的产品只会为它的商业模式服务。ollama 放弃了参数微调来换取稳定,lm 让开发者纠结什么是最优,CC/Codex/Cursor 都是卖 token ,没有人会真的认真想本地部署缺什么,需要优化什么,记忆怎么优化,上下文怎么压缩,小参数怎么辅助。

但我人微言轻,所以我做了个 MVP 想抛砖引玉。我们可以一起把要优化的都优化了,打造我们自己的产品。

有人也说,我能力不够。

那我的思路是:不够就做整合,够了就做突破。

所以我做了 KWCode ,不是为了商业化,MIT 任何人都能拿走,只希望哪个感兴趣的大神,愿意和我或者和所有开发者一起把它实现并开源,给所有被本地部署膈应的宝子们。


二、我用了哪些思路

思路一:MoE 架构——让 LLM 只做它擅长的那一步

这是 KWCode 最核心的设计决策,也是解决上面所有问题的根本思路。

传统 coding agent 的架构是:一个 LLM 扛全部——理解需求、定位代码、生成修改、验证结果,全让同一个模型做。强模型能扛,小模型扛不住,然后就开始循环、幻觉、乱说。

KWCode 用的是 MoE ( Mixture of Experts )架构:把任务切碎,每个专家只做一件事,LLM 只负责 Gate 分类和内容生成,其他步骤能不调 LLM 就不调。

用户输入
  └─► Gate ( LLM 做一次分类,判断任务类型)
        └─► Locator ( BM25 + 调用图,不调 LLM ,毫秒级定位文件和函数)
              └─► Generator ( LLM 只写需要修改的那几行代码)
                    └─► Verifier (自动跑语法检查 + pytest ,不调 LLM )
                          └─► SearchAugmentor (两次失败后自动搜索)

LLM 在这条流水线里的任务被压到了最小:Gate 做一次分类,Generator 生成几行代码。定位文件、验证结果这两件最耗推理能力的事,完全不让 LLM 做。

参考:Agentless 论文( ICSE 2025 )——确定性流水线在 SWE-bench 上同时达到最高通过率和最低成本,优于让 LLM 自主决策的复杂 agent 。原因很简单:每一步 scope 极小,小模型在小 scope 里表现稳定。


思路二:用调用图定位代码,不靠 LLM 猜

代码定位是小模型最容易失败的步骤,把它从 LLM 手里拿走,换成确定性算法。

CodeCompass ( arXiv:2602.20048 ,2026 年)做了 258 次实验,发现了一个关键结论:

真实项目里,很多 bug 的根因文件名和错误描述毫无关联,只能通过调用链追踪才能找到。对这类"隐藏依赖"任务,BM25 关键词搜索准确率只有 **76.2%**,而图遍历达到 **99.4%**,差了 23 个百分点。

KWCode 的两阶段检索:

  1. BM25 关键词召回(毫秒级,不调 LLM ):从代码库所有函数/类中,快速召回 top-20 候选
  2. AST 调用图展开(毫秒级,不调 LLM ):对每个候选函数,沿调用图向上向下各展开 2 跳,发现隐藏依赖

整个过程不调 LLM ,SQLite 持久化调用图,重启不重建。

技术栈:tree-sitter + rank-bm25 + SQLite。不需要 Neo4j ,不需要 embedding 模型,不需要额外 Docker 。


思路三:打破循环——失败时强制换策略

针对"反复踩同一个坑"和"无限循环"这两个问题:

反无限循环:MAX_RETRIES 硬编码为 3 ,没有任何路径能绕过。同时检测连续两次生成完全相同的 patch ,直接跳过不重试,告诉用户"模型卡住了,建议缩小任务范围"。

反重复失败:三次重试强制用三种不同的问题表述:

第几次 策略
第一次 正常描述需求
第二次 从错误信息出发:"直接修复这个报错,不要解释"
第三次 最小化修改:"只改这一个函数,其他代码一行不动"

第一次失败后先做 Reflection:让 LLM 一句话分析上次失败的原因,然后把这个分析注入下次的 prompt 。不是让模型自由发挥,是强制它先诊断再修。


思路四:专家飞轮,越用越懂你的项目

参考:EE-MCP ( NeurIPS 2025 )——从任务执行轨迹自动提取经验,验证可显著提升后续同类任务成功率。

KWCode 预置了 15 个专家( BugFix 、TestGen 、SpringBoot 、FastAPI 等),每个专家有独立的 system prompt 。

同类任务成功 5 次之后,飞轮自动分析轨迹,生成新专家,经过三道验证门后投产:

  • 回测门:新专家成功率必须 ≥ 原流水线
  • AB 测试门:10 次真实对比,提升超过 10% 才投产
  • 生命周期:new → mature → declining → archived ,自动淘汰变差的专家

专家可以导出成 .kwx 文件,kwcode expert install URL 一行安装别人分享的专家。


思路五:模型能力自适应

CC 不需要考虑这个,因为它只用一个模型。KWCode 需要。

自动检测当前模型的参数量,然后应用不同策略:

模型规模 自动策略
< 10B ( qwen3:8b ) 强制计划确认 · 任务范围限 2 个文件 · 第 1 次失败触发搜索
10-30B ( qwen3:14b ) 可选计划 · 4 个文件范围 · 第 2 次失败触发搜索
> 30B ( qwen3:72b ) 宽松策略 · 8 个文件 · 自动处理复杂任务

切换模型,策略自动切换。


三、现在做了什么

核心功能跑通了。282/282 单元测试通过,E2E 验收通过率 87%( 26/30 ,4 个失败是模型能力边界,不是框架问题)。

代码能力

  • BM25 + AST 调用图两阶段定位,G3 隐藏依赖准确率 99.4%(论文验证)
  • 三阶段重试 + Reflection ,不重复同样的错
  • 专家飞轮三道门(轨迹 → 模式 → AB 测试 → 投产)
  • 15 个预置专家(通用 + SpringBoot / MyBatis / FastAPI / UniApp 等)
  • Office 文档生成( Excel / PPT / Word ,有样式不是白底)

工程能力

  • KWCODE.md 项目规则文件,按任务类型分段注入,永远不忘
  • /plan 计划模式 + 风险评估( High/Medium/Low ,基于历史失败记录)
  • Checkpoint 文件快照,失败一键还原
  • 非代码文件读取( PDF / Word / Markdown ,BM25 段落匹配注入)
  • 搜索增强( SearXNG 自部署 + DDG fallback ,四级内容提取)

体验

  • Windows cmd/PowerShell 原生支持,不需要 WSL2
  • 首次引导( API 配置 + 连通性验证)
  • 执行过程只显示 spinner ,完成后输出用户可读的结果摘要
  • 支持任何 OpenAI 兼容 API (本地 Ollama / DeepSeek / 硅基流动等)

四、还差什么

说实话,有些地方还挺粗糙的:

  • AST 调用图目前只完整支持 Python ,其他语言调用图准确率还没有充分验证
  • 专家飞轮的 Gate 2 回测逻辑偏简单,还不够严格
  • Windows 上的各种边界情况( AMD 显卡、部分 Ollama 版本兼容性、中文路径)没有充分测试
  • 钉钉/飞书 webhook 没做,手机发消息触发 agent 这个场景设计了但没实现
  • 没有 IDE 插件,目前只有 CLI
  • Prompt Optimizer (用 Opus API 自动迭代优化专家 prompt )只做了框架,没有跑起来

五、为什么想让更多人一起做

我一个人做这个工具有明显的上限,不是技术上的上限,是视野上的上限。

我自己主要用 Python 和 FastAPI ,所以这方面想得细。但我不知道每天写 Spring Boot 的人最痛的点在哪,不知道搞 Rust 的人在本地模型上遇到什么问题,不知道做小程序的人需要什么。

更重要的是,这件事不应该只是一个人的工具,应该是中国开发者社区的工具。

CC 是 Anthropic 的,Cursor 是美国公司的,Hermes 是外国社区做的。我们用的工具,我们的使用习惯、技术栈偏好、本地化需求,从来都是别人顺手加进去的功能,不是第一优先级。

我想做的是反过来——把中国开发者的需求放在第一位,把本地开源模型的适配放在第一位,然后把这个工具做到能和大厂产品掰手腕。

这件事一个人做不到,但开源社区可以。

Linux 打败了 Unix ,不是因为某一个天才,而是全球开发者共同维护了几十年。VSCode 能超过那么多商业 IDE ,也是因为背后有庞大的插件和贡献生态。

KWCode 不需要你有多高的水平,只需要你在用本地模型做开发,然后把你遇到的问题、你的解法、你的改进贡献进来。多一个人,就多一个使用场景被照顾到,多一个坑被填掉。

Fork 这个项目,改进你最痛的那个点,提 PR ,我们互相借力,一起把它做好。

闭源大厂有钱有人有算力,我们有什么?我们有真实的使用场景,有对本地部署的真实需求,有不依赖海外服务的动力。这已经足够了。


六、怎么参与

项目地址github.com/val1813/kwcode

# Fork 项目,克隆到本地
git clone https://github.com/your-fork/kwcode.git
cd kwcode

# 安装开发版
pip install -e ".[dev]"

# 运行测试确认环境正常
python -m pytest kaiwu/tests/ -v

# 找一个你最想改的地方,开始动手
git checkout -b fix/your-improvement

改什么都可以:

  • 你每天用 Go 写代码,觉得 Go 的 AST 调用图支持不够好,就去改它
  • 你在用 Qwen3 发现某个场景总是触发无限循环,就去修它
  • 你有更好的 context 压缩算法,就替换掉现有的
  • 你发现 README 写错了,改一个字也算

Issues 里列了已知问题和规划中的功能,可以从那里找方向。Discussions 里可以聊技术思路,聊某个方向值不值得做。

没有什么贡献太小。


七、最后说一句

我不知道 KWCode 能不能真的超越 CC 或者 Hermes 。

但我知道,如果中国开发者一直用别人做的工具,一直把自己的需求当作"次要功能"等别人来实现,这件事永远不会有答案。

有些东西,只有自己做才知道能不能做到。

项目是 MIT 开源的,你贡献的代码永远是你的。如果 KWCode 最后做成了,这件事是所有参与的人一起做成的。


项目地址github.com/val1813/kwcode

天工开物 · KWCode · 中国开发者自己的本地 Coding Agent

64 comments by KaiWuBOSS at 21:24:51 in Local LLM


我开始使用呼吸机睡觉了

之前我妻子跟我说其实她睡眠越来越差,每晚都能听到我打呼,有的时候还有那种吸不上来气的感觉,我一下子就连联想到我的父亲和祖父,小时候和他们一起睡,就算其他房间也能听到打呼,而且经常有吸不上来气然后就像启动拖拉机似的要猛吸几口并伴随着让人心悸的声音。

没想到我也这样了。我和妻子也是坐下来聊了聊,其实这里有个第三者,gemini ,简单聊过就是要去看医生。但是苦于我在东京,日语也不好,家附近搜了几家诊所,感觉都不行。日本这边的就医体验和医生关系很大,很多医生看你不懂日语,压根不多说,就说大丈夫开始赶人。当时也没当回事,就这么放着了。

后面我自己发现,虽然我每天睡了一觉,但是早上起来依然感觉身心俱疲,这个状态持续很久了。而且打呼大概率是肥胖引起的,以前上大学的时候我 120 斤,现在已经快 150 斤了,我的妻子也说我之前是不打呼的。我不抽烟不喝酒,除了肥胖也没有其他可能了,所以开始超慢跑并且跟着一些视频教程来改善打呼的情况。

打呼这玩意,按我妻子的说法,就像是有自己的意识,她经常被我吵得起来捏住我的嘴,但是我的呼声会停止一会儿,然后又开始打,然后她在做同样的动作就没有用了。我锻炼完,第一晚信心满满,妻子也告诉我,那个晚上她睡得挺好的,但是第二晚就打回原形了。从这里开始,我逐渐焦虑,渐渐地晚上入睡也困难了。可能是我以为的入睡困难,但是妻子总是跟我说你都在打呼了,这些话我小时候不理解,我的祖父总会起来说“我没有睡着呀”,结果现在发生在我身上,但是我确实处于一个我认为的清醒状态,我感觉我并没有睡着,还能控制身体,但是确实听不见打呼的声音,仅有几次能有那种呼不上气然后发出巨大声音的感觉。

接下来是一次 1on1 和主管聊到这个事,他极力推荐我去做 sleep study ,我当时还在想这是啥,人挺好的主管还给我解释了美国做这个都是什么流程。当天我就通过 Gemini 找了一些说英语的诊所,在港区那边有一家评分很高的耳鼻喉科诊所,医生耶鲁毕业,随后我预约了并且去了。

不得不说,医生态度很好,老医生,给我做了解释并且检查了我的喉咙。顺便帮我看了我很久以来的耳朵痒的问题。日本这边 sleep study 是诊所给你寄一台机器,然后看情况戴一个或者两个晚上,再把机器寄回去。第一个晚上我就失眠了,很久才睡,毕竟鼻子上戴一个东西,手指再上个夹子,很难说舒服对吧。

过了三周我去复诊,得到化验的结果是耳朵是真菌感染不是中耳炎,当时通过他开的药就已经不痒了。睡眠的问题直接给我下了判书,我每个小时会呼吸暂停 41 次,而正常值是 5 次以下,最长的暂停时间快到 2 分钟,情况属于非常严重,介入手段就是带呼吸机。之前主管也跟我说,呼吸机 CPAP machine 其实不能治疗打呼,但是可以让自己的生活改善,每天起床至少恢复精力然后再去做其他的事。所以我也算是欣然接受并抱着期待。

日本医保会报销呼吸机的月租费用,我直接不需要花什么钱。但是我似乎选错了面罩,我目前选的是一个覆盖嘴巴的,这个东西链接的管子就很多,把自己的脑袋环绕了一圈,这半个月以来,我从来没能戴着它睡着。我目前放弃了,等着下次复诊和医生沟通换一个鼻塞式的。主管也是很关心我的这个情况,告诉我美国那边医生其实会教你如何使用。我第一晚压根儿没有戴对,面罩漏气的声音巨大无比。国内我看了基本上护士也会教,而且还会配合加湿器,我这个租的并没有配加湿器。

不过这件事也算是让我下定决心减肥了(虽然感觉这个决心下了很多次了),最近也是成功减了 1 公斤( XD ),不知道是我先适应呼吸机还是我先通过减肥根治打呼。

55 comments by quxiangxuanqxx at 16:22:25 in 生活


[源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉

  • 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍
  • 💎超低延迟,国内专线接入(稳定不掉线)
  • 💎稳定持续可用,适合长期使用与业务接入(可开发票)
  • 💎适合需要稳定渠道的客户!

V 友专属福利:$30 刀 Codex/GPT5 爽用

领取步骤

  • 1 、加入 Q 群:1090132599
  • 2 、打开 http://muskpay.top 注册账户
  • 3 、在本帖回帖,留下你的注册邮箱,将为你发放订阅

数千名用户优选,感谢大家的信任,我们一直坚持为大家提供能力范围内最佳的 AI 服务

image image

qrcode_1777304837238.jpg

54 comments by wtcoder at 23:15:56 in 推广


公司买 api 一般是官 key 还是中转? 老板体验了 claude 后拍板要把 claude 嵌入全公司工作流,让我去解决采购渠道问题,要求数据不得经过非正规公司传送,大概意思估计是买大厂 vps 自建 api 代理可以,但不能买贩子的中转站。但是先不说走什么代理的问题,国内几乎都找不到官 key 的货源啊,都是 5 刀 20 刀这种个人用的,总不能让老板去小黄鱼买吧。

问了几家能做对公的,都是中转,拍胸脯保证他们客户都是大厂,绝对稳定高质量,但那个价格感觉就像假的。

老板要求 3 天内必须给结果,老板不懂电脑,跟他没法解释

51 comments by my2492 at 15:22:41 in Claude


准备自己搭一套全屋 WiFi,方案基本确定,但在软路由和部署方式上有点纠结,想请教下有经验的朋友

标题:准备自己搭一套全屋 WiFi ,方案基本确定,但在软路由和部署方式上有点纠结,想请教下有经验的朋友

最近家里在装修,准备自己动手搭一套稳定一点的全屋 WiFi ,不想再用普通家用路由器那种“凑合能用”的方案,希望一步到位,稳定用很多年。

目前整体思路是这样的:

方案结构:

  • 一台小主机(打算用倍控 N100 )作为软路由负责拨号
  • 一个 4 口 PoE 交换机
  • 3 个 AP 负责无线覆盖(目前考虑锐捷 RG-EAP262(E),自动组网)

整体就是:

光猫 → 软路由(拨号) → PoE 交换机 → 3 个 AP (全屋覆盖)

房型是 三室两厅两卫,已经预留了网线到各个房间,所以准备全部走有线回程。


目前主要纠结几个点:

1 )倍控 N100 这种小主机的稳定性和品控问题

我看到很多人推荐用 N100 小主机做软路由,性能确实很强,也比较省电。

但我比较担心的是:

  • 小主机这种设备毕竟不是传统路由器厂商生产的
  • 品控和稳定性到底怎么样
  • 长期开机( 7×24 小时)是否可靠
  • 会不会容易死机或者硬盘出问题

如果作为 主路由,一旦挂掉,家里就直接断网了。


2 )是否应该做「旁路由」而不是「主路由」

现在看到很多人推荐:

软路由做旁路由,而不是主路由

理由是:

  • 主路由用传统路由器(更稳定)
  • 小主机只负责扩展功能
  • 就算小主机挂了,网络也不会断

但我又有点纠结:

如果我只是普通家用:

  • 不跑复杂规则
  • 不做太重的网络负载
  • 只是希望网络稳定 + 有一些功能

那到底:

软路由直接当主路由靠谱吗? 还是:

主路由 + 旁路由更适合长期使用?


3 )系统方面:准备用 iStoreOS

我比较倾向用:

iStoreOS

主要原因是:

  • 界面简单
  • 插件比较丰富
  • 可以顺便做一些影音 / NAS / 下载功能
  • 比较适合家庭场景

但也想问下:

iStoreOS 长期稳定性怎么样? 适不适合做主路由长期运行?


4 ) AP 组网方案是否合理

目前无线部分准备使用:

3 个 RG-EAP262(E) 有线回程,自动组网。

考虑这个型号主要是:

  • 价格不贵
  • 支持 PoE
  • 支持统一管理
  • 家用应该够了

但也想确认一下:

对于 三室两厅两卫 这种户型:

3 个 AP 是否合理? 还是:

2 个就够? 或者:

需要换成更强一点的型号?


5 )实际部署方面我也有点不太确定

比如:

  • 软路由应该放在弱电箱里吗
  • PoE 交换机是不是也放在弱电箱
  • AP 应该放在走廊 / 客厅 / 房间 哪些位置更合理
  • 是否需要额外买 UPS 或散热设备

这些实际落地问题,我现在还没有完全想清楚。


我的目标其实很简单:

不是追求极客玩法,也不是折腾。

只是希望:

  • 网络稳定
  • 覆盖好
  • 延迟低
  • 能用很多年
  • 后期维护简单

如果有已经自己搭过类似方案的朋友, 非常希望能听听你们的建议。

感谢大家。

49 comments by shibow at 11:49:39 in 宽带症候群


你们会孤独吗?
  • 想想毕业已经十年了,最近时常有一些感慨。

  • 我是 E 人,喜欢社交,也喜欢跟熟悉的老朋友聊天,但是在自己的某个时刻,想找一个人聊一聊天,却发现没有人。

  • 对待老朋友,我们无法再次同频,哪怕我们都有时间,也只是聊一些无关痛痒的话题。

  • 我们不在了解彼此的生活近况,无法在细微之处展开更深入和同频的话题。其实我通常能接受这一点,毕竟我们已经分别,我们不在年少,我们都有了新的圈子,在彼此不属于对方的圈子里生活。每次见面,都意味着我们人生中见面的次数正在减少,或许这就是成长带来的代价。

  • 对于新朋友,我不知道自己是不是老了,现在我对于社交,通常情况下,我比以前更克制,更礼貌,新的朋友也只是朋友,没有了太多的情感交流,我们或许聊聊工作,或许聊聊摄影,或者谈谈彼此的生活,但也只是流于表面,在我的内心中,我依然很难相信新认识的任何一个人,尽管我们可以谈笑风生。

  • 好像现在能够了解我的生活,还能够让我信任的只有我的老婆,但是有家的人都知道,不是所有的话都可以和老婆说。

  • 这让我时常感受到孤独,深深的孤独。

  • 我成长了,我已经了解了关系的本质是交换,但是依然回味那种曾经经历过但已经无法找回的纯粹关系。

  • 或者这就是成长,也意味着分别。

45 comments by Myst at 14:41:05 in 生活


机场的私有客户端, win 系统 defender 疯狂报病毒,拒下载安装,是有毒吗?

用了好几个机场,以前都是 clash 这些订阅链接,最近全部失效了,必须下载机场私有客户端

下载这些私有机场客户,win10 win11 系统 defender 安全中心疯狂爆毒,拒绝下载和安装。

虽然不涉密,但是电脑上还是有不是密钥之类的因素文件啊。这些私有 机场.exe 文件不知道真的有没有毒啊?慌的一批

老铁们,有什么测试可以检验这些 机场.exe 是不是安全的方法?

44 comments by jacketma at 10:35:24 in 信息安全

Built With ❤️ by jiacai2050/mofish.
 
Reply all
Reply to author
Forward
0 new messages