Skip to the content.

From 48 items, 22 important content pieces were selected


  1. Arm 将首次销售自研芯片,Meta 成首个主要客户、台积电代工 ⭐️ 9.0/10
  2. Swift 6.3 正式发布,提供官方 Android SDK,支持用 Swift 开发原生 Android 应用。 ⭐️ 9.0/10
  3. Google Research 推出 TurboQuant,将大模型 KV 缓存压缩至 3 比特 ⭐️ 9.0/10
  4. 苹果与谷歌宣布达成多年合作:Gemini AI 将为下一代 Siri 提供支持 ⭐️ 9.0/10
  5. 使用事故车拆解零件成功在桌面上运行特斯拉 Model 3 计算机 ⭐️ 8.0/10
  6. ARC-AGI-3 技术报告发布,采用交互式解谜基准评估通用人工智能 ⭐️ 8.0/10
  7. 欧盟不顾近期挫折,继续推动延长私人消息扫描法规 ⭐️ 8.0/10
  8. LiteLLM 攻击事件:46 分钟内 PyPI 上 47,000 次恶意包下载 ⭐️ 8.0/10
  9. LeCun 为 Logical Intelligence 筹集 10 亿美元种子轮,质疑自回归大语言模型在形式推理上的局限。 ⭐️ 8.0/10
  10. 深度求索员工暗示将推出超越 DeepSeek V3.2 的’大规模’新模型 ⭐️ 8.0/10
  11. OpenAI 计划停用 Sora AI 视频生成器,关闭 API 并逐步结束迪士尼合作 ⭐️ 8.0/10
  12. NASA 暂停月球轨道空间站,转向 2029 年前重返月球建基地目标,并加速火星核动力任务。 ⭐️ 8.0/10
  13. Apifox 桌面端遭供应链投毒:CDN 脚本被篡改窃取敏感凭证 ⭐️ 8.0/10
  14. 中国计算机学会反对 NeurIPS 2026 限制受美制裁机构投稿,呼吁抵制。 ⭐️ 8.0/10
  15. 苹果要求用户验证 bug 未修复,否则将关闭 bug 报告 ⭐️ 7.0/10
  16. 最高法院在盗版音乐版权案中支持 Cox 通信公司 ⭐️ 7.0/10
  17. 对 AI 代理速度的批判:倡导纪律优先于代码输出 ⭐️ 7.0/10
  18. Linux 内核补丁集通过从直接映射中移除页面来提升安全性 ⭐️ 7.0/10
  19. 英特尔将推出 949 美元 32GB 显存 GPU,面向本地 AI 工作负载 ⭐️ 7.0/10
  20. LiteLLM 供应链攻击引发开源替代方案评估 ⭐️ 7.0/10
  21. Claude Code 推出自动模式:AI 自主决策权限,内置安全审查 ⭐️ 7.0/10
  22. 腾讯撤销 AI Lab,引入字节 Seed 骨干推进混元模型升级 ⭐️ 7.0/10

Arm 将首次销售自研芯片,Meta 成首个主要客户、台积电代工 ⭐️ 9.0/10

Arm Holdings 宣布将首次销售其自研芯片 Arm AGI CPU,Meta 成为首个主要客户,台积电负责制造。该芯片最高可配置 136 个核心,功耗 300 瓦,设计用于与英伟达等公司的加速器芯片协同工作。 这标志着 Arm 从其传统的纯授权模式向直接参与数据中心 CPU 市场竞争的重大战略转变,可能打破英特尔和 AMD 在该领域的垄断地位。此举瞄准快速增长的人工智能基础设施市场,其中能效和性能密度对于大规模部署至关重要。 Arm AGI CPU 基于 Neoverse V3 架构构建,声称在能效方面优于英特尔和 AMD 的传统 CPU 设计。包括 OpenAI、Cerebras 和 SK Telecom 在内的其他公司也计划部署该芯片,广达电脑和超微电脑已推出基于该芯片的现成系统,预计 2026 年下半年将扩大供货量。

telegram · zaihuapd · Mar 25, 02:45

背景: Arm Holdings 历史上主要开发指令集架构并授权给其他公司制造物理处理器,而非自行设计和销售芯片。该公司的架构广泛应用于移动设备,并正扩展到数据中心领域,特别是在能效至关重要的人工智能工作负载中。台积电是全球领先的半导体代工厂,使用其 3 纳米等先进工艺为众多公司制造芯片。

参考链接

标签: #Semiconductors, #AI Hardware, #Arm, #Data Centers, #Industry News


Swift 6.3 正式发布,提供官方 Android SDK,支持用 Swift 开发原生 Android 应用。 ⭐️ 9.0/10

Swift 6.3 于 2026 年 3 月 25 日正式发布,首次推出了官方的 Swift SDK for Android,使开发者能够使用 Swift 编写原生 Android 程序。该版本还提供了 Swift Java 插件,用于将 Swift 代码集成到现有的 Kotlin 或 Java 应用中。 这标志着跨平台开发的重大突破,将 Swift 的生态系统扩展到苹果平台之外,通过支持在 iOS 和 Android 之间重用代码,可能重塑移动开发工作流。它有望加速创新并减少移动应用行业的碎片化。 Swift SDK for Android 是 Swift.org 项目的官方工具,由苹果的开源团队支持,可通过 Windows 安装程序捆绑获取或单独下载用于 Linux 和 macOS。开发者可以用它完全用 Swift 构建完整的原生 Android 活动,例如带有 OpenGL ES 渲染的应用。

telegram · zaihuapd · Mar 25, 03:45

背景: Swift 是苹果公司开发的编程语言,主要用于构建 iOS、macOS、watchOS 和 tvOS 应用。原生 Android 开发传统上依赖 Java 或 Kotlin 等语言,而 Flutter 或 React Native 等跨平台工具提供了替代方案,但通常存在性能折衷。Swift SDK for Android 是一项官方努力,旨在连接这些生态系统,使 Swift 能够直接为 Android 编译,无需依赖第三方工具。

参考链接

标签: #Swift, #Android, #Cross-Platform Development, #Mobile Development, #Programming Languages


Google Research 推出 TurboQuant,将大模型 KV 缓存压缩至 3 比特 ⭐️ 9.0/10

Google Research 推出了向量量化算法 TurboQuant,该算法无需训练或微调即可将大语言模型的 KV 缓存量化至 3 比特。实验结果显示,它至少将内存占用压缩了 6 倍,并在 H100 GPU 上将 attention logits 的计算速度最高提升了 8 倍,同时保持了下游任务的准确性。 这一突破解决了大语言模型推理中的关键内存瓶颈问题,通过降低硬件成本和能耗,可能使大型模型更易于普及。它有望加速 AI 应用在资源受限环境中的部署,并提升向量搜索系统的可扩展性。 TurboQuant 结合了两种方法:PolarQuant 通过随机旋转数据向量实现高质量压缩,以及 Quantized Johnson-Lindenstrauss (QJL) 用于降维。该算法在长上下文“大海捞针”测试中实现了零精度损失,并在高维向量搜索的召回率上优于 PQ 和 RabbiQ 等现有方法。

telegram · zaihuapd · Mar 25, 05:15

背景: KV 缓存在大语言模型推理过程中存储先前 token 的键值对,以避免重复计算,但它会消耗大量内存,尤其是在处理长序列时。向量量化通过减少高维向量的比特表示来实现压缩,但传统方法通常会引入额外开销,从而限制效率。TurboQuant 通过最小化内存开销同时保持压缩质量来解决这一问题。

参考链接

标签: #AI Efficiency, #Model Compression, #KV Cache, #Vector Quantization, #Google Research


苹果与谷歌宣布达成多年合作:Gemini AI 将为下一代 Siri 提供支持 ⭐️ 9.0/10

苹果与谷歌宣布达成多年合作协议,谷歌的 Gemini AI 模型将被集成到苹果的 Foundation Models 中,用于增强今年推出的 Siri 及其他苹果智能功能。苹果确认这些功能将通过设备端和私有云计算基础设施运行,以维持现有的隐私标准。 这一合作代表了科技巨头之间的重要协作,可能显著重塑 AI 助手格局,并加速 AI 在苹果庞大用户群中的普及。谷歌先进的 Gemini 模型与苹果注重隐私的架构相结合,可能为消费设备中平衡 AI 能力与用户隐私设定新标准。 该合作具体涉及谷歌的 Gemini 模型为苹果的 Foundation Models 提供支持,同时苹果维持其混合处理方式,即同时使用设备端模型(约 30 亿参数)和私有云计算中的服务器模型。这表明苹果将在保留其隐私架构的同时利用 Gemini 的能力,而非简单替换现有系统。

telegram · zaihuapd · Mar 25, 16:32

背景: 谷歌的 Gemini AI 模型包括三个变体:Gemini Ultra 用于复杂任务,Gemini Pro 用于通用任务,Gemini Nano 用于设备端应用。苹果的 Foundation Models 包括一个针对 Apple 芯片优化的紧凑型设备端模型和一个为私有云计算设计的服务器模型,两者都支持多语言能力。设备端 AI 处理在本地设备上运行,以实现低延迟和隐私保护,而私有云计算则使用具有增强安全控制的专用服务器来处理更复杂的任务。

参考链接

标签: #AI Integration, #Tech Partnerships, #Voice Assistants, #Privacy, #Cloud Computing


使用事故车拆解零件成功在桌面上运行特斯拉 Model 3 计算机 ⭐️ 8.0/10

一名开发者使用从事故车辆中拆解的零件,成功在桌面上逆向工程并启动了特斯拉 Model 3 的计算机系统,详细记录了技术挑战和解决方案。该项目涉及识别并连接必要的电源、通信和显示接口,使汽车计算机在其原始车辆环境之外得以运行。 这展示了现代汽车嵌入式系统的实际逆向工程,对安全研究、售后诊断和理解专有车辆架构具有重要意义。它为了解特斯拉计算机系统如何独立运行提供了宝贵见解,可能推动汽车黑客技术、维修工具和嵌入式系统教育的进一步发展。 该项目需要处理特斯拉的媒体控制单元硬件,可能是搭载英特尔 Atom 或 AMD Ryzen 处理器的 MCU 2 或 MCU 3 变体,并处理汽车专用的线束而非单独电缆。关键技术障碍包括提供正确的 12V 直流电源、通过诊断接口建立通信,以及使用 LVDS 协议连接显示输出,该协议常见于汽车和笔记本电脑显示应用。

hackernews · driesdep · Mar 25, 21:11

背景: 现代车辆如特斯拉 Model 3 严重依赖嵌入式计算机系统,特别是媒体控制单元,它处理信息娱乐、显示和各种车辆功能。特斯拉已迭代其 MCU 硬件,MCU 2 使用英特尔 Atom 处理器,MCU 3 配备 AMD Ryzen 芯片,两者都代表先进的汽车级计算平台。逆向工程此类系统涉及分析硬件和软件以理解其运行方式,而无需官方文档,这是安全研究和嵌入式开发中的常见做法。

参考链接

社区讨论: 社区评论突出了技术见解和行业观点,一位用户指出对发现汽车布线使用捆绑线束而非单独电缆感到惊讶,而另一位用户将此设置与标准汽车开发测试台进行比较。其他讨论点包括 LVDS 在汽车以外的应用,以及对教育环境中电源安全功能的回忆。

标签: #embedded-systems, #reverse-engineering, #automotive, #hardware-hacking, #tesla


ARC-AGI-3 技术报告发布,采用交互式解谜基准评估通用人工智能 ⭐️ 8.0/10

ARC-AGI-3 技术报告正式发布,推出了一个包含 150 多个环境、超过 1000 个关卡的交互式推理基准,旨在衡量 AI 的人类级智能水平。该基准将于 2026 年 3 月 25 日启动,其评分方法将 AI 表现与人类基线进行比较,该基线被定义为按操作次数计算的次优首次运行人类表现。 这很重要,因为 ARC-AGI-3 是首个专门通过需要探索、学习、规划和适应的解谜任务来评估通用人工智能的交互式推理基准。它提供了比较人类与 AI 技能获取效率的正式衡量标准,解决了超越传统大语言模型基准的 AGI 评估关键缺口。 该基准包含一种基于图的探索策略,在预览挑战中已显示出良好结果,解决了 52 个关卡中的中位数 30 个,显著优于前沿的基于大语言模型的智能体。然而,其评分方法因使用非常规的人类基线(次优首次运行人类)而非平均人类表现而受到批评,且报告未明确说明模型完成了多少关卡。

hackernews · lairv · Mar 25, 18:16

背景: ARC-AGI 是由 ARC Prize 组织开发的一系列用于评估通用人工智能(AGI)的基准,AGI 指的是在几乎所有认知任务上匹配或超越人类能力的 AI 系统。先前版本包括包含 800 个基于网格的视觉推理谜题的 ARC-AGI-1 和包含更复杂任务的 ARC-AGI-2,两者都设计为少样本学习评估,其中任务对人类来说微不足道但对机器具有挑战性。ARC Prize 是一项超过 100 万美元的非营利竞赛,旨在击败并开源这些基准的解决方案。

参考链接

社区讨论: 社区讨论显示出复杂情绪,一些人称赞 ARC-AGI-3 是对 AGI 的有价值评估,为人类和 AI 提供了平等输入,而另一些人则批评其方法,特别是非常规的人类基线定义。值得注意的观点包括对评分未清晰显示模型完成多少关卡的担忧、关于 AGI 是否应针对类人学习过程进行测量的辩论,以及观察到当前 AI 表现远未达到人类在构建心理模型和快速完善想法方面的效率。

标签: #AGI, #AI Benchmarking, #Machine Learning, #Technical Evaluation, #Research Methodology


欧盟不顾近期挫折,继续推动延长私人消息扫描法规 ⭐️ 8.0/10

尽管欧洲议会在 3 月 11 日投票决定用针对嫌疑人的定向监控取代全面大规模监控,但欧盟仍在考虑延长允许自愿扫描私人消息和照片的(EU) 2021/1232 号法规。这一延期将维持当前的’聊天控制 1.0’框架,该框架在三方谈判失败后原本即将失效。 这一进展之所以重要,是因为它代表了欧盟对大规模监控能力的持续推动,这可能破坏整个欧洲的加密和数字隐私权,影响数百万公民的私人通信。其结果将为政府在数字时代如何平衡安全关切与基本权利设定重要先例。 相关法规是自 2021 年起生效的(EU) 2021/1232 号法规,该法规允许服务提供商对私人通信进行’自愿扫描’。欧洲议会 3 月 11 日的立场倾向于在司法监督下进行定向监控而非全面监控,这导致与欧盟理事会形成立法僵局,阻碍了妥协方案的达成。

hackernews · MrBruh · Mar 25, 20:27

背景: 聊天控制指的是欧盟提出的《预防和打击儿童性虐待条例》(CSAR),通常被称为聊天控制法规,该法规于 2022 年 5 月首次提出。该法规旨在强制扫描私人通信以检测儿童性虐待材料,但遭到了隐私倡导者的强烈反对,他们认为这会破坏端到端加密并实现大规模监控。现行的临时法规(EU) 2021/1232 自 2021 年起允许自愿扫描,而永久性立法仍在辩论中。

参考链接

社区讨论: 社区评论显示出对近期立法进展的怀疑态度,一些用户指出 3 月 11 日的’胜利’为时过早,监控支持者仍在推动他们的议程。其他人质疑为什么隐私倡导者没有提出保障通信隐私权的反制立法,而一位用户建议将匈牙利的立场作为判断欧盟法规好坏的参考指标。Fight Chat Control 的创建者提供了立法时间表和僵局的背景信息。

标签: #privacy, #surveillance, #EU-regulation, #chat-control, #digital-rights


LiteLLM 攻击事件:46 分钟内 PyPI 上 47,000 次恶意包下载 ⭐️ 8.0/10

Daniel Hnyk 利用 BigQuery PyPI 数据集发现,在 PyPI 上的一次 46 分钟攻击期间,两个恶意 LiteLLM 包版本(1.82.7 和 1.82.8)被下载了 46,996 次。此外,分析显示,在 2,337 个依赖 LiteLLM 的包中,88% 缺乏正确的版本锁定,使其易受恶意版本影响。 这一事件凸显了 Python 包管理中的关键供应链漏洞,展示了恶意包传播的速度之快以及依赖管理安全实践的普遍缺失。它强调了改进版本锁定和监控的必要性,以防范未来的类似攻击。 攻击涉及 LiteLLM 的特定版本 1.82.7 和 1.82.8,这些版本仅在 PyPI 上存活了 46 分钟,却获得了近 47,000 次下载。分析基于公开的 BigQuery PyPI 数据集,该数据集提供了 PyPI 包的详细下载统计信息。

rss · Simon Willison · Mar 25, 17:21

背景: LiteLLM 是一个开源 Python 库,为各种大型语言模型(LLM)提供统一的 API,简化了不同提供商之间的集成。PyPI(Python 包索引)是 Python 包的官方仓库,开发者在此发布和安装软件,但如果依赖管理不当,它可能面临供应链攻击的风险。版本锁定是一种在需求文件中指定确切包版本的做法,以防止自动更新到可能被攻击的版本,通常使用 pip-tools 等工具来安全地管理依赖。

参考链接

标签: #security, #python, #packaging, #supply-chain, #pypi


LeCun 为 Logical Intelligence 筹集 10 亿美元种子轮,质疑自回归大语言模型在形式推理上的局限。 ⭐️ 8.0/10

Yann LeCun 的初创公司 Logical Intelligence 筹集了 10 亿美元种子轮资金,旨在使用基于能量的模型开发数学验证的代码生成技术,以绕过 Transformer 和自回归大语言模型。此举表明,在形式推理等高风险任务中,可能正在从下一个词预测模型转向新范式。 这很重要,因为它挑战了自回归大语言模型的主导范式,表明它们在规划和形式验证方面可能存在固有局限,可能影响应用安全和关键基础设施等可靠性至关重要的领域。如果成功,可能推动行业向更稳健的人工智能推理方法广泛转型。 Logical Intelligence 将逻辑约束视为能量最小化问题而非概率猜测,但基于能量的模型以训练和稳定困难而闻名,且将连续能量景观映射到离散代码输出在推理时可能计算成本高昂。该方法旨在生成数学验证的代码,以防止关键应用中的幻觉。

reddit · r/MachineLearning · Fun-Information78 · Mar 25, 18:32

背景: 自回归大语言模型(如 GPT 模型)预测序列中的下一个词元,广泛用于文本生成,但在需要严格逻辑一致性的形式推理任务中可能表现不佳。基于能量的模型是一类机器学习模型,为配置分配能量值,较低能量表示更可能的状态,可应用于规划和推理等任务。形式推理涉及数学严谨的过程,如代码验证,在安全和基础设施等领域,错误可能带来严重后果。

参考链接

社区讨论: 社区情绪复杂,一些人赞扬其在高风险应用中生成安全代码的理论潜力,而另一些人则对训练基于能量模型的实践挑战及其计算成本表示担忧。存在争论,认为这究竟是真正的范式转变,还是可能被未来大语言模型与符号求解器结合超越的风险实验。

标签: #AI Research, #Machine Learning, #Formal Verification, #Energy-Based Models, #LLM Limitations


深度求索员工暗示将推出超越 DeepSeek V3.2 的’大规模’新模型 ⭐️ 8.0/10

深度求索的一名员工在社交媒体上暗示,公司正在开发一款超越 DeepSeek V3.2 性能的’大规模’新模型,但该帖子很快被删除,表明这可能是一次过早的信息泄露。 这很重要,因为深度求索是领先的开源人工智能研究实验室,其模型与顶尖的闭源替代品竞争,一次显著的性能飞跃可能重塑竞争格局,并加速人工智能在各应用领域的能力发展。 该员工的帖子在发布后很快被删除,表明这可能是一次未经授权的披露,虽然没有透露具体的技术细节,但’大规模’一词暗示了与 V3.2 相比,在参数或架构上将有大幅度的扩展。

reddit · r/LocalLLaMA · External_Mood4719 · Mar 25, 12:14

背景: 深度求索是一家专注于开发开源大语言模型(LLM)的人工智能研究实验室,其当前的旗舰模型 DeepSeek V3.2 采用了混合专家(MoE)架构和多头潜在注意力机制,以实现高效推理。该公司作为高飞资本旗下的独立研究实体运营,强调创新而非即时商业化,这使其能够在应对监管环境的同时推进人工智能能力。深度求索的模型在评估推理、编码、数学等关键指标性能的排行榜上与其他大语言模型进行基准测试。

参考链接

标签: #AI, #DeepSeek, #LLM, #Machine Learning, #Research


OpenAI 计划停用 Sora AI 视频生成器,关闭 API 并逐步结束迪士尼合作 ⭐️ 8.0/10

OpenAI 计划停用其 Sora AI 视频生成产品,关闭 Sora 开发者 API,并逐步结束与迪士尼的合作,这距离 Sora 高调独立应用上线仅约六个月。此次调整是公司战略转向的一部分,旨在将资源重新分配到 AI 智能体和代号为 Spud 的新模型上,同时重组部分安全与保障团队。 这一决定标志着 OpenAI 的重大战略转向,从独立的视频生成产品转向专注于 AI 智能体和下一代模型等新兴领域,这可能重塑其在 AI 行业的竞争地位。停用 Sora 影响了基于其 API 进行开发的开发者,并结束了与迪士尼的高调合作,反映了 AI 产品向整合和专业化发展的更广泛行业趋势。 Sora 产品作为独立应用推出仅约六个月,表明这款 AI 视频生成工具的生命周期相对较短。OpenAI 的转向不仅包括产品停用,还涉及内部重组,安全与保障团队将被更紧密地整合到开发流程中。

telegram · zaihuapd · Mar 25, 00:30

背景: Sora 是 OpenAI 开发的 AI 视频生成产品,能够根据文本提示创建视频,类似于 DALL-E 根据文本描述生成图像。AI 智能体,如 OpenAI 的 Operator,是能够在接受指令后自主执行任务的 AI 系统,代表了从生成式模型向更具交互性和任务导向的 AI 应用的转变。代号为 Spud 的新模型代表了 OpenAI 的下一个主要 AI 开发努力,尽管其具体技术细节尚未公开。

参考链接

标签: #OpenAI, #AI Video Generation, #Product Strategy, #Developer Tools, #Industry News


NASA 暂停月球轨道空间站,转向 2029 年前重返月球建基地目标,并加速火星核动力任务。 ⭐️ 8.0/10

NASA 宣布战略调整,暂停 Gateway 月球轨道站,重点转向在 2029 年前建立永久月球基地,计划每年至少执行一次月面着陆,并增加商业合作。同时,NASA 计划在 2028 年前发射核动力飞船 Space Reactor-1 Freedom 前往火星,以验证核电力推进技术。 这一调整加速了人类在地球以外的探索,专注于可持续的月球存在以支持未来火星任务,并推进核动力技术以实现更快的深空旅行。它反映了太空政策向商业参与和长期基础设施发展的更广泛趋势。 新计划包括在 Artemis V 任务后引入更多商业采购和可重复使用硬件,目标每六个月执行一次载人登月任务,并加速商业月球载荷服务,预计从 2027 年起实施 30 次机器人着陆。Space Reactor-1 Freedom 任务将使用核电力推进(NEP)与氙离子推进器,而非核热推进(NTP)。

telegram · zaihuapd · Mar 25, 04:30

背景: Gateway 月球轨道站,前身为 Lunar Orbital Platform-Gateway,是 NASA 提出的一个项目,旨在支持宇航员在月球轨道的长期存在,作为 Artemis 计划的一部分。Artemis 计划于 2017 年启动,目标是让人类重返月球并建立永久基地,例如 Artemis V 任务计划向 Gateway 运送硬件。核电力推进(NEP)利用反应堆发电来驱动离子推进器,相比传统化学火箭,能实现更高效的深空旅行。

参考链接

标签: #space-exploration, #NASA, #lunar-missions, #Mars-exploration, #space-technology


Apifox 桌面端遭供应链投毒:CDN 脚本被篡改窃取敏感凭证 ⭐️ 8.0/10

Apifox 桌面端遭受供应链攻击,攻击者篡改了其 CDN 上的事件统计脚本,注入恶意代码以窃取受害主机的 SSH 密钥、Git 凭证、Shell 历史记录及进程列表等敏感信息。该攻击自 3 月 4 日起活跃,影响 Windows、macOS 和 Linux 三平台用户,安全研究者 phith0n 已独立还原并分析了恶意载荷。 此次攻击凸显了软件供应链(特别是通过 CDN 依赖)的重大安全风险,可能泄露开发者凭证并导致网络横向渗透。由于 Apifox 是广泛使用的 API 开发工具,此次漏洞可能影响大量开发团队和组织,强调了在 DevOps 工具中实施严格安全措施的必要性。 恶意代码专门针对 SSH 密钥和 Git 凭证等敏感数据,可通过检查 Network Persistent State 文件中是否包含’apifox.it.com’域名或 LevelDB 中的相关键值来检测。缓解措施包括封禁 apifox.it.com、cdn.openroute.dev 和 upgrade.feishu.it.com 等可疑域名,并重新安装最新版 Apifox(该版本已不再请求恶意域名)。

telegram · zaihuapd · Mar 25, 11:10

背景: 供应链攻击是指通过入侵受信任的组件(如 CDN 脚本)来向下游用户分发恶意软件。CDN 脚本常用于应用程序中加载外部资源,但若被篡改,可能注入恶意代码。SSH 密钥和 Git 凭证是安全访问服务器和版本控制系统的关键,一旦被盗可能导致未授权访问和数据泄露。LevelDB 是一种键值存储系统,被 Chromium 和 Electron 等应用程序用于持久化数据,包括网络状态信息。

参考链接

标签: #security, #supply-chain-attack, #apifox, #malware, #devops


中国计算机学会反对 NeurIPS 2026 限制受美制裁机构投稿,呼吁抵制。 ⭐️ 8.0/10

中国计算机学会于 2026 年 3 月 25 日发表声明,坚决反对 NeurIPS 2026 在其投稿指南中禁止受美国制裁机构投稿的做法。学会呼吁中国学者抵制该会议,并表示若不及时纠正,将考虑将 NeurIPS 移出《中国计算机学会推荐国际学术会议和期刊目录》。 这一争议凸显了学术会议日益政治化的趋势,可能分裂全球人工智能研究合作,并为其他会议设置类似限制开创先例。它可能严重影响 NeurIPS 的国际声誉,并影响学术界如何在科学交流中应对地缘政治紧张局势。 NeurIPS 2026 计划在澳大利亚悉尼举行,其投稿指南明确禁止美国制裁名单上的机构投稿。中国计算机学会的推荐目录在中国对学术贡献评估具有影响力,移除 NeurIPS 可能减少中国学者在该会议的参与。

telegram · zaihuapd · Mar 25, 14:07

背景: NeurIPS(神经信息处理系统会议)是顶级的人工智能/机器学习年度会议,以推动神经网络和机器学习研究而闻名。中国计算机学会是中国主要的专业组织,发布推荐国际学术会议和期刊目录以指导学术评估。美国政府制裁对被视为威胁国家安全或外交政策利益的实体实施金融和贸易限制,这可能延伸到学术合作领域。

参考链接

标签: #AI/ML Conferences, #Academic Politics, #International Collaboration, #Research Ethics, #NeurIPS


苹果要求用户验证 bug 未修复,否则将关闭 bug 报告 ⭐️ 7.0/10

据报道,苹果公司实施了一项政策:除非用户验证 bug 在最新软件版本中仍然存在,否则将自动关闭 bug 报告。这一做法在开发者社区中引发了批评,被认为效率低下且给提交 bug 报告的用户带来了挫败感。 这一做法之所以重要,是因为它影响了软件 bug 的追踪和解决方式,可能导致苹果生态系统中未解决的问题持续存在。它突显了行业面临的更广泛挑战:公司可能优先考虑减少 bug 积压,而非确保问题得到彻底解决,这会影响软件质量和用户信任。 验证要求似乎是苹果 bug 分类工作流程的一部分,如果用户不回应,无法复现的 bug 可能会被标记为无效或超出范围而关闭。这种做法并非苹果独有,开源项目中也有类似做法,即在一定时间后自动关闭陈旧的 bug。

hackernews · zdw · Mar 25, 19:14

背景: Bug 报告是软件开发中的标准流程,用户向开发者提交问题以供解决。Bugzilla 等 bug 追踪系统通过分类、优先级排序和解决等工作流程来管理这些报告。在许多项目中,无法复现或信息不足的 bug 可能会被关闭以管理积压,但这可能让期望彻底调查的用户感到沮丧。

参考链接

社区讨论: 社区评论对苹果的做法表示不满,用户将其描述为一种”经典伎俩”,即在不付出实际开发努力的情况下推卸 bug 报告责任。一些人指出开源项目中也有类似做法,即自动关闭陈旧的 bug。另一些人承认开发者在复现 bug 方面面临挑战,但批评将验证问题的负担转嫁给用户。

标签: #software-engineering, #bug-reporting, #apple, #open-source, #quality-assurance


最高法院在盗版音乐版权案中支持 Cox 通信公司 ⭐️ 7.0/10

美国最高法院在 Cox 通信公司诉索尼音乐案(2026 年)中做出了有利于 Cox 通信公司的裁决,限制了互联网服务提供商对其用户盗版音乐版权侵权行为的责任。该裁决推翻了此前下级法院认定 Cox 对其用户侵权活动负有责任的判决。 这一裁决为互联网服务提供商的责任确立了重要的法律边界,防止版权持有者自动追究服务提供商对用户侵权行为的责任。它保护了互联网服务提供商免受过度监控要求的困扰,并维持了索尼诉环球案(Betamax 案)等先前案例所确立的版权执法与互联网创新之间的平衡。 法院引用了 1984 年索尼诉环球案的判决,强调《版权法》并未明确规定对他人实施的侵权行为追究责任。该裁决澄清了互联网服务提供商不会自动承担责任,除非他们具有促进侵权的特定意图,这类似于 Betamax 制造商不对用户录制受版权保护的电视节目承担责任的情况。

hackernews · oj2828 · Mar 25, 15:02

背景: 美国的互联网服务提供商通常通过《数字千年版权法》(DMCA)的“安全港”条款免于承担版权责任。DMCA 建立了通知-删除流程,版权持有者可以要求删除侵权内容,而遵守该流程的服务提供商可以避免责任。次级版权侵权责任指的是追究其他方对他人实施的侵权行为负责,通常通过辅助侵权或替代侵权理论来实现。

参考链接

社区讨论: 社区评论显示出多样化的观点,一些人庆祝这一裁决通过减少互联网服务提供商的监控动机来保护隐私,而另一些人则批评版权期限过长。一些评论提供了历史背景,指出法院引用了 Betamax 案,用户还将这一裁决类比为制造商对产品滥用的责任。

标签: #copyright-law, #internet-policy, #supreme-court, #isp-liability, #digital-rights


对 AI 代理速度的批判:倡导纪律优先于代码输出 ⭐️ 7.0/10

OpenClaw 使用的 Pi 代理框架创建者 Mario Zechner 发表了一篇批判文章,认为 AI 代理趋势以牺牲软件工程纪律和质量为代价,优先考虑最大化代码输出。他警告说,在没有人工监督的情况下,代理生成的错误会迅速累积,造成不可持续的复杂性。 这一批判凸显了代理工程中生产力提升与代码质量之间的关键矛盾,影响着采用 AI 代理的开发者和组织。随着自主系统在编码工作流程中日益普及,它提出了关于可持续软件开发实践的重要问题。 Zechner 特别建议根据审查能力设置代理生成代码的每日限制,并手动编写 API 等架构组件。作者 Simon Willison 认同关于认知债务的核心担忧,但质疑手动编写是否是最佳解决方案。

rss · Simon Willison · Mar 25, 21:47

背景: 代理工程是一门新兴学科,专注于设计能够规划、采取行动并以最少人工管理完成复杂任务的自主 AI 代理。Pi 代理框架是用于创建此类代理的开发环境,而 OpenClaw 是一个开源自主 AI 代理,使用大型语言模型通过消息平台执行任务。这些技术能够快速生成代码,但也引发了关于监督和质量控制的担忧。

参考链接

标签: #AI Agents, #Software Engineering, #Code Quality, #Productivity, #Ethics


Linux 内核补丁集通过从直接映射中移除页面来提升安全性 ⭐️ 7.0/10

2026 年 3 月 25 日,Jonathan Corbet 报道了正在讨论中的两个补丁集,它们能够更高效地从内核的直接映射中移除页面,特别关注虚拟机的 guest_memfd 页面。这些补丁引入了一个新的 GUEST_MEMFD_NO_DIRECT_MAP 标志,可以在保持性能的同时将客户机内存从直接映射中移除。 这很重要,因为从直接映射中移除内存能显著增强内核安全性,防止攻击者通过野指针或推测执行攻击访问敏感数据。对于在同一主机上运行多个潜在敌对客户机的虚拟化环境,这提供了客户机与主机系统之间的关键隔离。 这些补丁集通过优化已移除页面的内存管理,解决了之前阻碍直接映射移除更广泛采用的性能问题。在没有硬件内存加密的系统上,将 guest_memfd 页面从直接映射中移除仍然能提供针对基于主机的攻击和推测执行漏洞的实质性安全优势。

rss · LWN.net · Mar 25, 14:32

背景: Linux 内核的直接映射为内核模式代码提供了对 64 位系统上所有物理内存的直接访问,这简化了开发但带来了安全漏洞。直接映射中的内存容易受到攻击,野指针或推测执行可能访问或修改系统中的任何数据。之前的努力如 memfd_secret()系统调用已将特定内存从直接映射中移除,但由于性能问题,更广泛的采用一直受到限制。

参考链接

标签: #linux-kernel, #memory-management, #security, #kernel-development, #systems-programming


英特尔将推出 949 美元 32GB 显存 GPU,面向本地 AI 工作负载 ⭐️ 7.0/10

英特尔将于 3 月 31 日推出一款配备 32GB 显存的 GPU,直接售价为 949 美元。该 GPU 拥有 608 GB/s 的带宽和 290W 功耗,专门针对本地 AI 应用,如运行量化的大型语言模型。 这款 GPU 为本地 AI 推理提供了比英伟达产品更实惠的选择,可能使更多人能够获得运行大型语言模型的硬件。32GB 显存容量对于运行像 Qwen 3.5 27B 这样的 4 位量化模型特别重要,这种量化技术能在保持性能的同时减少内存需求。 该 GPU 的 608 GB/s 带宽略低于英伟达 5070 型号,这可能影响内存密集型任务的性能。290W 的功耗意味着用户需要足够的散热和电源解决方案来确保稳定运行。

reddit · r/LocalLLaMA · happybydefault · Mar 25, 15:38

背景: 量化是一种将模型权重从 32 位或 16 位浮点数降低到 4 位等低位表示的技术,能显著减少内存需求同时保持可接受的精度。像 Qwen 3.5 27B 这样的大型语言模型是拥有数十亿参数的 AI 模型,能执行各种语言任务,4 位量化使它们能在具有足够显存的消费级硬件上运行。本地 AI 指的是在个人计算机而非云服务器上运行 AI 模型,能提供隐私优势并消除持续的服务费用。

参考链接

标签: #GPU, #Local AI, #Hardware, #Intel, #VRAM


LiteLLM 供应链攻击引发开源替代方案评估 ⭐️ 7.0/10

PyPI 上的 LiteLLM Python 包版本 1.82.7 和 1.82.8 被植入窃取凭证的恶意软件,这促使人们评估三个开源替代方案:Bifrost(基于 Go,速度快 50 倍)、Kosong(来自 Kimi 的面向代理方案)和 Helicone(功能丰富的可观测性平台)。 这一事件凸显了广泛使用的 AI 基础设施库中关键的供应链安全风险,迫使开发者重新考虑依赖管理和迁移策略,同时评估具有不同技术权衡的替代解决方案。 Bifrost 提供了从 LiteLLM 的一行代码迁移路径,采用 Apache 2.0 许可证并支持 20 多个提供商;而 Kosong 专注于具有统一消息结构的面向代理工作流;Helicone 则提供支持 100 多个提供商的广泛分析能力。

reddit · r/LocalLLaMA · KissWild · Mar 25, 07:26

背景: LiteLLM 是一个流行的 Python 库,为 OpenAI、Anthropic 和 Google 等多个大型语言模型(LLM)提供商提供统一接口。供应链攻击涉及在 PyPI 等公共存储库中植入恶意软件包,以向下游用户分发恶意软件。LLM 抽象层帮助开发者在不同 AI 提供商之间切换,而无需重写应用程序代码。

参考链接

标签: #supply-chain-security, #llm-libraries, #open-source-alternatives, #python-security, #ai-infrastructure


Claude Code 推出自动模式:AI 自主决策权限,内置安全审查 ⭐️ 7.0/10

Claude Code 发布了自动模式(Auto Mode),允许 AI 在任务执行中自主决定权限,通过分类器在每次工具调用前审查操作,自动放行安全动作并拦截批量删文件、敏感数据外泄等高风险行为。该功能目前以研究预览形式向 Team 计划用户开放,未来数日将覆盖 Enterprise 及 API 用户,支持 Claude Sonnet 4.6 与 Opus 4.6 模型。 这一进展具有重要意义,因为它平衡了 AI 工具中的自动化与安全性,减少了开发人员的手动中断,同时降低了完全跳过权限带来的风险,可能提升软件工程和 AI/ML 应用中的工作流效率。这反映了 AI 系统向更自主化、内置安全措施的趋势发展,影响了开发者在编码和其他任务中与 AI 助手的交互方式。 开发者可通过命令行执行 claude --enable-auto-mode 启用自动模式,Desktop 与 VS Code 用户可在设置中开启,但该模式并非零风险,建议在隔离环境中使用,且可能轻微增加 Token 消耗与延迟。它比 --dangerously-skip-permissions 参数更安全,但仍需谨慎,因为它处于研究预览阶段,安全评估仍在进行中。

telegram · zaihuapd · Mar 25, 01:15

背景: Claude Code 是由 Anthropic 开发的 AI 驱动编码助手,旨在帮助开发者进行代码生成、调试和自动化等任务。Claude Sonnet 4.6 和 Opus 4.6 是 Anthropic 近期发布的模型升级,其中 Sonnet 4.6 提升了编码能力并支持 100 万 Token 上下文,而 Opus 4.6 增强了智能体规划和并行任务执行能力。自动模式基于 Claude Code 现有的权限系统构建,该系统之前需要手动批准某些操作,以减少中断同时保持安全性。

参考链接

标签: #AI, #Software Engineering, #Security, #Automation, #Claude


腾讯撤销 AI Lab,引入字节 Seed 骨干推进混元模型升级 ⭐️ 7.0/10

腾讯近期撤销了其 AI Lab,重组了大模型研发体系,并密集引入了多位原字节 Seed 团队的技术骨干,例如肖学锋担任 AI Infra 部助理负责人,黄启负责训练 Infra 组。公司计划于 2026 年 4 月发布新一代混元模型。 此举表明腾讯正将战略重心从传统 AI 研究转向大语言模型开发,加剧了中国 AI 行业的竞争,可能推动多模态 AI 技术的创新。这反映了科技巨头在生成式 AI 竞赛中,通过人才引进和组织重组来获取优势的普遍趋势。 重组涉及由姚顺雨负责的 AI Infra 部,其 RL Infra 组和 RL 算法组的负责人同样来自原字节 Seed 团队。混元团队自 2025 年下半年起已全面重组组织架构和研发流程。

telegram · zaihuapd · Mar 25, 03:00

背景: 腾讯的混元是一个大语言模型系列,用于文本到 3D 和图像生成等应用,其版本如 Hunyuan3D 和 HunyuanImage-3.0 可在 GitHub 和腾讯云等平台获取。字节的 Seed 团队是一个以研究为重点的团队,以 Top Seed 人才计划和多模态技术(如豆包大模型语音团队)而闻名。AI Infra 指支持 AI 开发的基础设施,如计算资源和软件框架。

参考链接

标签: #AI Research, #Tech Industry, #Organizational Changes, #Large Language Models, #Tencent