📰 Hacker News Top 10 - 2026-03-11

今日头条概览
今天的 HN Top 10 涵盖了科技界的多个重要话题:从传奇计算机科学家 Tony Hoare 离世,到亚马逊针对 AI 辅助变更的新政策,再到 Redox OS 禁止 LLM 贡献的决定,以及 Yann LeCun 筹集 10 亿美元打造理解物理世界的 AI 项目。还有个人开发者用两张游戏显卡登顶 HuggingFace 开源 LLM 排行榜的精彩故事。
1. Tony Hoare has died (得分: 1375)
传奇计算机科学家、快速排序算法发明者、CSP 理论创始人 Tony Hoare 爵士离世,享年 92 岁。他的工作对计算机科学领域产生了深远影响。
用户评论精选:
“有两种构建软件设计的方法:一种是把它做得足够简单,明显没有缺陷;另一种是把它做得足够复杂,没有明显的缺陷。” —— Tony Hoare 最著名的语录,适用于任何复杂系统,而不仅仅是软件。
牛津大学曾想以他的名字命名一栋楼,但遇到了”Hoare house”发音与”whore house”相同的尴尬问题,最后决定使用”C.A.R. Hoare Residence”作为解决方案。
Dijkstra 在临终前整理信件时,告诉帮忙的教授”保留和 Tony 的通信,扔掉其他的”,可见 Tony Hoare 在同行心中的地位。
RIP Tony,我们现在的行业似乎已经完全拥抱了第二种方法。
2. Online age-verification tools for child safety are surveilling adults (得分: 513)
为了儿童安全而推出的在线年龄验证工具正在大规模监控成年人,引发了隐私方面的广泛担忧。
用户评论精选:
这些”保护儿童”的道德恐慌法律,最终导致的是广泛的监控、VPN 禁令,以及独立网站运营成本上升到不可持续的水平。而且不仅是色情内容,任何被认为”对未成年人有害”的内容都会受到影响,包括 LGBTQ 讨论论坛、性健康信息、异见政治观点等。
年龄验证本质上需要身份验证。英国《在线安全法》最初有一个提案,允许用户在街角商店用现金匿名购买 ID 码,就像买酒一样只需要向收银员出示身份证,但这个方案从未被实施,因为政府和企业更希望将所有在线使用行为与政府 ID 关联起来。
关于儿童的悲情故事总是被武器化用于压迫:过去被用来反对跨种族婚姻、同性恋权利、压制异见、攻击第一修正案,现在又被用在这里。
年龄验证不会阻止坚定的不良行为者,它只会建立一个所有合作者的数据库。
3. I put my whole life into a single database (得分: 409)
作者花了三年时间构建了一个个人数据库,记录了自己生活的方方面面,包括旅行、健康、财务等数据。
用户评论精选:
作者自己的总结:总的来说,花了这么多时间构建这个项目,最后结论是不值得自己开发解决方案。三年前开始这个项目时,我期望能学到更多令人惊讶的有趣事实,但回顾过去,投入的数百小时并不值得。”量化自我”运动可能更多是关于强迫症和完美主义,而不是其他。
反例:我戴了近 10 年 Apple Watch,数据显示我的心脏节律一直比较”弱”,但医生看了十年的数据后判断这是我的正常状态,而不是心力衰竭。数据可能十年都没用,但有一天会变得至关重要,收益是不均衡的。
另一个用户发现,作者仅飞行每年就产生 70-110 吨二氧化碳排放,而巴黎协定要求每人每年所有活动的排放指标是 1.5 吨,作者的飞行排放就是欧洲人均年排放量的 10-15 倍,是 1.5 度目标兼容排放量的 50-75 倍。
我的经验是,跟踪”营养”和”睡眠时间”等客观指标对于反思问题非常有用,但跟踪”情绪”或”压力”等主观指标则毫无意义,因为享乐适应或剧烈波动会让问题变得显而易见,不需要跟踪。
4. After outages, Amazon to make senior engineers sign off on AI-assisted changes (得分: 394)
在多次服务中断后,亚马逊推出新政策:初级和中级工程师的 AI 辅助变更需要高级工程师签字批准。
用户评论精选:
所谓的”强制会议”其实是每周例行的公司全员会议,讨论最近的运营问题,媒体有点小题大做了。不过要求高级工程师签署 AI 辅助变更的政策确实是新的。
高级工程师审查是经理们最大的”银弹”幻觉之一。让一个人(无论是否高级)以验证代码是否达到自己经验水平所需的粒度来检查代码或配置,所需的时间接近他们自己完成这项工作的时间。高级审查是有价值的,但它不能把坏代码变成好代码。
我所了解的亚马逊,员工只关心 a. 不被解雇 b. 晋升。对于开发人员来说,评估矩阵是这样的:1. 交付:完成任务否则被 pip。2. PR 上的评论越少越好:出于某种极其愚蠢的原因,PR 被彻底审查被认为是质量差的标志。L7 及以上用这个指标来淘汰人。3. 文档:写文档,让别人审阅,以显示你的高水平。在这种文化下,要求人们放弃自我保护是行不通的。
如果 AI 创建的 diff 以前所未有的 10 倍速度生成,但人工审查是瓶颈,那么整个系统的产出速度和以前完全一样。你增加的只是成本、不确定性,以及工程师对系统的熟悉程度降低。
5. Meta acquires Moltbook (得分: 379)
Meta 收购了 AI 代理社交网络 Moltbook,团队将加入 Meta 超级智能实验室(MSL)。
用户评论精选:
Moltbook 是一个让人们 LARP 扮演 AI 代理的社交网络,我以为这是个玩笑,不知道 Meta 收购它的目的是什么。据说收购是为了其验证技术,或者为了雇佣研究代理身份验证的人员,但 Moltbook 网站上唯一的验证方式是与 Twitter 的 OAuth 连接。
正确的解读:这更像是 Meta 雇佣了 Moltbook 背后的两人团队,而不是收购产品。
Meta 收购了 Moltbook,这是一个 AI 机器人社交网络,本身是由 AI 机器人构建的,还发生过严重的安全漏洞,任何人都可以冒充任何机器人,其创始人甚至坦率地承认他”一行代码都没写”。这个产品要进入 Meta 超级智能实验室,也就是他们为 Alexandr Wang 设立的部门,不知道这怎么能让他们更接近超级智能。
Facebook 的信息流大部分是 AI 垃圾内容,Moltbook 的信息流大部分是人类伪装成 AI,所以两者之间有很好的协同效应。
6. Redox OS has adopted a Certificate of Origin policy and a strict no-LLM policy (得分: 361)
Redox OS 采用了严格的无 LLM 贡献政策,任何明确标记为 LLM 生成的内容(包括 issue、合并请求及其描述)将被立即关闭,任何试图绕过该政策的行为将导致被项目封禁。
用户评论精选:
我认为这是一个合理的决定(尽管可能越来越不够)。不管你对 AI 的立场如何,问题是 OSS 维护者的审查负担增加了。过去,代码本身就是一种努力的证明——你需要在 PR 上投入一些时间和精力,否则一眼就会被驳回。现在情况不再如此,因为 LLM 可以快速生成看起来表面上正确的 PR。这样的政策有助于减少审查负担,直接拒绝那些一眼就能识别为 LLM 生成的代码。
我对 100 多个主要开源项目做了调查,其中四个项目禁止 AI 辅助提交(NetBSD、GIMP、Zig 和 qemu)。另一方面,已经有 AI 辅助提交的项目包括 Linux、curl、io_uring、MariaDB、DuckDB、Elasticsearch 等。在接受调查的 112 个项目中,有 70 个已经有 AI 辅助提交。
现在我知道要避免哪些软件了:那些禁止合法工具使用的软件。我不尊重这种保护主义的禁令。这些人在 125 年前会坚持驾驶马车,因为人们还在习惯驾驶汽车。
LLM 禁令是不可执行的,他们肯定知道这一点。这是为了吓跑最明显的低质量 PR,并且在证据不完整的情况下可以轻松地将人踢出去吗?
任何足够先进的 LLM 生成的垃圾内容都将与普通人类垃圾内容无法区分。但这正是他们想要的。这种启发式方法让项目能够以最小的投资标记有问题的内容,避免审查低质量、低努力、高数量贡献的成本问题,这应该是近乎理想的。就像在艺术摄影网站上禁止色情内容一样,规则边界的完美应用远不如标准情况下的过滤能力重要——“我看到它就知道”。
7. Two Years of Emacs Solo (得分: 334)
作者分享了两年来不使用任何外部 Emacs 包,全部自己编写配置的经验。
用户评论精选:
最让我抓狂的是 Emacs 默认在你编辑
/etc/nginx/sites-enabled/foo文件时会在同一目录下创建foo~备份文件,而 nginx 会尝试加载这个文件。当我在 Emacs 社区问这个问题时,他们开始攻击我,说我改变了适合所有人的默认设置,只有我需要这样做。我仍然不敢相信只有我觉得这个默认设置糟透了。有趣的故事:过去有个有 15 年经验的胡子 sysadmin,说 vim 很不稳定,经常崩溃。后来发现他总是不小心按到 C-z 挂起 vim,却从来没听说过 job control(bg、fg 等命令),以为程序崩溃了。这哪里是 15 年经验,是 1 年经验重复了 15 次。
这篇文章展示了 Emacs 在创建几十年后仍然是一个美丽、相关的项目。核心设计和实现能够发展成今天仍然有用、可以与现代工具竞争的东西,这是一项惊人的成就。随着 LLM 推动当前的大部分开发,它可能会让 Emacs 相对于现代 IDE 更具竞争力。开发可以主要由 Claude Code 等代理从命令行驱动,然后使用 Emacs 导航和调整代码、处理 Git 提交等。
“这意味着代码有时不太可靠,但它在我的控制之下。我写的,我理解,当它出问题时,我确切地知道去哪里找。” 这让我深有同感。我不是一个”无外部包”的纯粹主义者,但有很多功能我自己写,因为没有完全符合我想要的东西。
完全从头开始做所有事情是浪费时间,除非你享受这个过程(在这种情况下尽情去做)。这大致相当于试图自己从零开始发现我们所有的科学知识,而不是”理所当然”地接受前辈发现的知识。这样做没有什么可耻或不利的。当然,写自己的包也是必要的,但光靠写是不够的,阅读他人的代码也很重要。
8. Yann LeCun raises $1B to build AI that understands the physical world (得分: 281)
图灵奖得主 Yann LeCun 筹集了 10 亿美元,创立新公司 AMI,致力于构建能够理解物理世界的 AI。
用户评论精选:
这是合理的。世界模型有更多的自由度。LLM 从根本上是有上限的,因为它们只从静态文本——人类关于世界的交流——中学习,而不是从世界本身学习,这就是为什么它们可以重新混合现有想法,但几乎不可能产生真正新颖的发现或发明。一个资金充足、运营良好的初创公司构建物理世界模型(基于时空理解,而不仅仅是语言模式),将解决我所认为的 AGI 的实际瓶颈。即使他们只是部分成功,也可能解锁当前 LLM 结构上无法达到的泛化和创造性火花。
我不理解这种观点。在我看来,AGI 的根本瓶颈是持续学习和反向传播。今天的模型是静态的,人类大脑学习或适应自己的方式与反向传播完全不同。世界模型并没有解决这些问题;它们本质上是我们习惯使用的同一种深度学习架构。如果你认为从世界本身学习是瓶颈,你可以把一个视觉-动作 LLM 放在机器人/模拟身体的强化学习循环中。
Yann LeCun 去年八月和我共进午餐时告诉我,Alex Wang 成为他的”老板”后,他会先试一两个月,看看情况如何,然后决定是留下还是另谋高就。我建议他如果决定离开 Meta,就创立自己的公司,追逐自己的梦想,而不是为别人的梦想工作。
他的团队雇佣了 LeBrun 担任 CEO,LeFunde 担任 CFO,LeTune 担任后训练主管,还在考虑雇佣 LeMune 担任增长主管,LePrune 负责推理效率。(名字梗)
要想在新企业中取得成功,他需要少花点时间在 Twitter 上。
9. Debian decides not to decide on AI-generated contributions (得分: 261)
Debian 项目决定暂不就 AI 生成的贡献制定明确政策,目前采取观望态度。
用户评论精选:
我的情况:我几乎一辈子都在写代码,但几年前我的手腕受了相当严重的永久性损伤,几乎不能打字。这让我无法从事全职工作。随着 LLM、AI 自动补全和基于代理的开发工作流的出现,我交付可靠、高质量代码的能力恢复了,甚至可以说更好了。我个人从无障碍的角度大力倡导 AI。我确切地知道我想要什么输出,并严格控制它,但现在掌舵的是 AI 和我的声音,而不是我的指尖。
你是一个理性的人,假设其他使用 AI 的人也像你一样理性,知道如何正确使用 AI,但这并没有解决争议。我们听到的传闻是,项目收到的 PR 多到无法审查,这些 PR 质量明显很低,贡献者的动机是自私的(比如为了在 Github 个人资料上获得学分)。在这种情况下,PR 不是带着你投入工作的同样诚意提交的。
我采用的技术是:我不会把高层问题扔给 AI,然后审查一大堆更改。我会把我已经打算实现的技术解决方案告诉它,然后让它生成我本来要写的代码。这大大减少了审查疲劳,因为我已经确切地知道我期望看到什么,所以我的审查主要集中在偏差上。
真正的不变量是责任:如果你提交了一个补丁,你就拥有它。你应该理解它,能够为设计选择辩护,并在需要时维护它。
浪费任何时间或精力来确定来源是否是 AI 是愚蠢的。如果所有要求都得到满足,无论是风格指南、文档、功能、全面测试还是正确性,那就是好的。不管是 AI 写的,还是 Computronistan 本地人精心手工制作的字节码。
10. Show HN: How I Topped the HuggingFace Open LLM Leaderboard on Two Gaming GPUs (得分: 260)
个人开发者仅用两张 RTX 4090 游戏显卡,通过复制 Qwen2-72B 模型中间的 7 层结构,在不修改任何权重的情况下,登顶 HuggingFace 开源 LLM 排行榜。
用户评论精选:
作者:我发现在 Qwen2-72B 中复制特定的 7 个中间层块,不修改任何权重,就能提高所有 Open LLM 排行榜基准的性能,并获得了第一名。奇怪的发现:单层复制没有效果。层数太少,什么都不会发生。太多了,效果会变差。只有约 7 层的电路大小块才有效。这表明预训练在层栈中刻划出了离散的功能电路,只有完整保留时才能工作。整个项目是在我地下室的 2 张 RTX 4090 上开发的。
认为模型层中可能隐藏着认知通用语的想法非常有趣,让我对一个巧妙的想法充满希望:可插拔知识库。MoE 尚且不论,一个在整个互联网和几十万本被盗书籍上训练的模型,携带的知识远远超过任何给定工作流程实际需要的。如果我们能够交付精简的模型,在其中插入对今天工作有用的知识库,而且只插入那些,那就太好了。这也意味着你可以保持模型知识的新鲜,而不需要重新训练整个模型。
我觉得你可能破解了潜在空间推理。我一直有预感这样的方法会奏效,但不知道训练如何反向传播。但你已经证明,你只需要复制现有的层。
学术文献似乎正在跟上:
- SOLAR / DUS (Kim et al., 2023):复制 Transformer 层构建了一个 10.7B 模型,性能优于 30B 参数基线。
- 《深度的诅咒》(2025):解释了为什么这样做有效:Pre-LN 导致深度 Transformer 层收敛到恒等函数,这意味着中间层是真正计算发生的地方,复制它们可以集中这种能力。
- 《用潜在推理扩展测试时计算:循环深度方法》(Geiping et al., NeurIPS 2025):将这个想法推向逻辑结论:用单个循环块训练的模型在推理时重复,在不增加参数的情况下扩展推理深度。
今日趋势总结
- AI 监管与政策:多家公司和开源项目正在制定 AI 相关的使用政策,亚马逊要求高级工程师审批 AI 辅助变更,Redox OS 全面禁止 LLM 贡献,而 Debian 则选择观望态度,反映了行业对 AI 工具使用的不同立场。
- AI 基础设施创新:从 Yann LeCun 筹集 10 亿美元打造物理世界理解 AI,到个人开发者用消费级显卡优化 LLM 性能,AI 技术的创新正在大公司和个人开发者两个层面同时推进。
- 隐私与安全担忧:儿童安全政策导致的大规模监控,以及开源项目面临的 AI 生成低质量 PR 泛滥问题,都反映了技术进步带来的新挑战。
- 缅怀先驱:Tony Hoare 爵士的离世让整个科技社区缅怀他的贡献,他的思想至今仍然影响着软件开发的方方面面。
关于 Hacker News
Hacker News 是由 Y Combinator 运营的科技新闻网站,聚焦于计算机科学、创业、技术等话题,是全球技术社区最有影响力的信息平台之一。本摘要每日更新,精选过去 24 小时最热门的 10 篇文章和精彩评论。