Skip to the content.

From 32 items, 9 important content pieces were selected


  1. 大语言模型现可为关键开源软件生成高质量安全漏洞报告 ⭐️ 8.0/10
  2. 小型本地 LLM 在漏洞检测方面与 Mythos 模型表现相当 ⭐️ 8.0/10
  3. Llama.cpp 合并了后端无关的张量并行功能,实现多 GPU 加速 ⭐️ 8.0/10
  4. 字节跳动发布原生全双工语音模型 Seeduplex,豆包 App 已全面上线 ⭐️ 8.0/10
  5. FBI 从 iPhone 通知数据库中提取已删除的 Signal 消息 ⭐️ 8.0/10
  6. 批评:Anthropic 对 Claude Mythos Preview 的安全声明掩盖了高昂的计算成本。 ⭐️ 7.0/10
  7. Hugging Face 推出新仓库类型 Kernels,用于优化计算内核。 ⭐️ 7.0/10
  8. OpenWork 将部分组件从 MIT 许可证静默更改为商业许可证 ⭐️ 7.0/10
  9. macOS 被曝存在 49.7 天网络故障漏洞,当前需重启修复 ⭐️ 7.0/10

大语言模型现可为关键开源软件生成高质量安全漏洞报告 ⭐️ 8.0/10

Anthropic 的 Claude Opus 4.6 模型已证明能够以最少的辅助框架发现 Linux 内核等关键开源软件中的真实漏洞,该公司于 2026 年 4 月 7 日宣布了一个更优的实验模型。包括 Daniel Stenberg(curl)、Greg Kroah-Hartman 和 Willy Tarreau 在内的开源维护者证实,近期 LLM 生成的安全报告质量显著提升,导致有用发现激增。 这标志着 AI 在网络安全应用中的质变,可能加速关键基础设施中的漏洞发现,同时也给被报告数量淹没的维护者带来新挑战。这一趋势可能重塑开源安全管理方式,迫使项目调整流程,并可能缩短漏洞未被发现的时间。 Linux 内核安全团队不得不增加维护者来处理有用报告数量的激增,2026 年 3 月所有软件共发布了创纪录的 6,243 个新 CVE,仅内核就有 171 个。虽然早期 LLM 生成的报告经常出错,但 Claude Opus 4.6 等近期模型所需的辅助框架远少于谷歌 2024 年的 Project Naptime 实验,表明技术取得实质性进展。

rss · LWN.net · Apr 9, 13:28

背景: 大语言模型(LLMs)是在海量文本数据上训练的 AI 系统,能够生成类人文本和代码。谷歌的 Project Zero 是一个安全研究团队,此前曾研究使用 LLMs 进行漏洞发现,但发现它们需要大量辅助框架和人工指导。Claude Opus 4.6 是 Anthropic 的旗舰 LLM,具有处理复杂编码任务的高级推理能力,而 Linux 基金会是一个支持 Linux 内核等开源项目的非营利组织。

参考链接

标签: #AI/ML, #Cybersecurity, #LLMs, #Open Source, #Software Engineering


小型本地 LLM 在漏洞检测方面与 Mythos 模型表现相当 ⭐️ 8.0/10

最新研究表明,小型本地大语言模型(LLM)能够识别出与大型 Mythos 模型相同的漏洞,Mythos 是 Anthropic 开发的一款强大 AI 系统。这一发现突显了 AI 驱动网络安全领域的进展,表明更小、更易获取的模型在漏洞检测任务中可以达到相当的性能。 这很重要,因为它表明组织可以利用经济高效的本地 AI 工具进行网络安全防护,而无需依赖大型集中式模型,从而可能普及先进威胁检测技术的使用。通过使强大工具更易获取并减少对基于云或专有系统的依赖,它可以加速 AI 在网络安全领域的应用。 该研究采用了一种基于提示的框架来检测 Python 3.7+代码中的循环漏洞,如 2026 年 arXiv 论文所述。然而,该研究在推广到其他类型漏洞或编程语言时可能存在局限性,且本地 LLM 的性能可能因模型大小和训练数据而异。

reddit · r/LocalLLaMA · CyberAttacked · Apr 9, 14:36

背景: 大语言模型(LLM)是在海量数据集上训练的 AI 系统,用于理解和生成类人文本,越来越多地应用于网络安全任务,如漏洞检测。Mythos 模型是 Anthropic 开发的一款高性能 AI,在一次草稿博客文章意外泄露中被描述为优于其 Opus 模型。本地 LLM 指在设备上或私有环境中运行的较小 AI 模型,在数据隐私和成本方面具有优势,但通常被认为不如大规模模型强大。

参考链接

标签: #AI, #Cybersecurity, #LLMs, #Vulnerability Detection, #Machine Learning


Llama.cpp 合并了后端无关的张量并行功能,实现多 GPU 加速 ⭐️ 8.0/10

Llama.cpp 在拉取请求 #19378 中合并了后端无关的张量并行功能,引入了新的 ‘-sm tensor’ 选项,使模型能够在不需要 CUDA 的情况下在多个 GPU 上更快运行。这个实验性功能让拥有多个 GPU 的用户可能为大型语言模型实现显著的性能提升。 这一进展很重要,因为它通过在不同硬件后端(不仅仅是配备 CUDA 的 NVIDIA GPU)上实现张量并行,使高性能 LLM 推理更加普及。它显著提高了 llama.cpp 在配备多个 GPU 的消费级硬件上运行大型模型的可扩展性,符合让强大 AI 模型在本地更易获取的日益增长趋势。 该实现是实验性的,结果可能因模型而异,文档警告在某些情况下性能可能较差。’-sm tensor’ 选项代表新的张量并行模式,而 ‘-sm layer’ 仍作为默认行为以保持向后兼容性。

reddit · r/LocalLLaMA · jacek2023 · Apr 9, 14:46

背景: 张量并行是一种模型并行技术,将张量沿特定维度分割到多个设备上,每个设备只处理张量的一部分以分配计算负载。Llama.cpp 是一个开源 C/C++ 库,专注于以最小设置要求在不同硬件上实现高效的 LLM 推理。后端无关架构指的是设计为与多种底层技术协同工作,而不强依赖于任何特定技术的系统,从而降低供应商锁定风险。

参考链接

标签: #llama.cpp, #tensor-parallelism, #multi-GPU, #machine-learning, #open-source


字节跳动发布原生全双工语音模型 Seeduplex,豆包 App 已全面上线 ⭐️ 8.0/10

字节跳动正式推出原生全双工语音大模型 Seeduplex,目前已在豆包 App 全面上线。这标志着全双工技术首次在行业内实现大规模落地应用,为数亿用户提供实时、高质量的语音交互体验。 这标志着语音 AI 技术的重大进步,因为全双工模型通过实现同时听说的能力,能够支持更自然、更接近人类对话的交互体验。在拥有海量用户的豆包 App 中部署,可能加速实时语音接口在各种应用中的普及,并为对话式 AI 设定新的行业标准。 Seeduplex 通过语音预训练与强化学习技术实现了真正的’边听边说’能力,在保持极速响应的基础上实现了精准的干扰抑制和动态端点检测。与传统需要轮流说话的半双工系统不同,该模型能够处理重叠语音和打断,实现更流畅的对话。

telegram · zaihuapd · Apr 9, 05:35

背景: 全双工语音模型相比传统的半双工系统(参与者必须轮流说话和聆听)是一个技术进步。这些模型支持同时双向通信,能够实现打断、附和等自然对话模式。动态端点检测是一种语音处理技术,用于确定说话者何时结束讲话,现代方法使用基于回归的技术根据上下文调整检测行为。语音 AI 系统中的强化学习通过从交互中进行试错学习,帮助优化对话策略。

参考链接

标签: #voice AI, #full-duplex, #ByteDance, #reinforcement learning, #real-time systems


FBI 从 iPhone 通知数据库中提取已删除的 Signal 消息 ⭐️ 8.0/10

在得克萨斯州 Prairieland 拘留中心的庭审中,FBI 通过嫌疑人 iPhone 的系统通知数据库,提取出了已从 Signal 应用中删除的传入消息。取证恢复之所以可能,是因为当锁屏预览功能开启时,消息内容被保存在苹果的通知系统中。 这一发现揭示了一个重大的隐私漏洞:本应安全且短暂的 Signal 消息可能通过通知缓存持久保存在设备上,这可能会削弱端到端加密的实际安全性。该案件具有现实的法律影响,展示了执法部门如何通过对系统数据库的取证分析来绕过应用级别的删除。 根据庭审证词和笔记,仅从通知数据库中恢复了传入消息,而非传出消息。Signal 于 3 月 12 日确认收到了置评请求,但未进一步回复;而苹果对此取证方法未作回应。

telegram · zaihuapd · Apr 9, 14:05

背景: Signal 是一款加密通讯应用,以其强大的端到端加密和隐私功能(包括消失消息)而闻名。在 iOS 设备上,通知由苹果系统管理,并可能存储在一个名为 KnowledgeC.db 的数据库中,该数据库包含应用的元数据,有时还包括内容。当锁屏通知预览功能开启时,即使消息已从应用本身删除,其内容也可能缓存在此数据库中,从而创造了取证恢复的机会。

参考链接

标签: #privacy, #forensics, #Signal, #iPhone, #encryption


批评:Anthropic 对 Claude Mythos Preview 的安全声明掩盖了高昂的计算成本。 ⭐️ 7.0/10

一项批判性分析认为,Anthropic 将 Claude Mythos Preview 描述为因能在 OpenBSD 中发现零日漏洞而“过于危险”无法发布,这主要是基于其系统文档,掩盖了高昂的计算成本。分析指出,该模型报告的成功发现漏洞涉及使用未经审查的检查点、移除防护措施、延长思考时间、特定领域工具,以及每次运行约 50 美元、数千次的暴力破解。 这一批评很重要,因为它挑战了 AI 公司在证明模型限制方面的透明度,可能影响行业关于伦理 AI 部署和成本效益分析的讨论。如果安全担忧被误用来隐藏计算效率低下,可能会削弱对 AI 安全叙事的信任,并将焦点转向更高效实现类似能力的开源替代方案。 分析指出,Claude Mythos Preview 单次运行发现漏洞的概率可能仅为百分之几,表明该模型并非天生危险,而是由于高计算需求而不可扩展。这与 GLM-5.1 和 Kimi 2.5 等开源模型形成对比,后者已通过本地迭代循环和并行工具调用实现代理扩展,表明类似能力无需高昂成本即可实现。

reddit · r/LocalLLaMA · GWGSYT · Apr 9, 13:00

背景: Claude Mythos Preview 是 Anthropic 开发的大型语言模型,被描述为其迄今为止最强大的前沿模型,在编码基准测试和安全评估方面具有先进性能。未经审查的检查点指的是移除了安全过滤器或内容限制的 AI 模型版本,常用于测试中以探索无伦理约束的原始能力。零日漏洞是软件中开发者未知的安全缺陷,可在修复前被攻击者利用,是网络安全中的关键问题。

参考链接

标签: #AI Safety, #Compute Costs, #Anthropic, #Model Transparency, #Critical Analysis


Hugging Face 推出新仓库类型 Kernels,用于优化计算内核。 ⭐️ 7.0/10

Hugging Face 在其 Hub 上推出了名为 Kernels 的新仓库类型,旨在托管和管理用于 AI/ML 开发的优化计算内核。通过博客文章宣布的这一发布,旨在简化如自定义 CUDA 内核等性能关键代码的共享和重用。 这很重要,因为它通过为高性能内核提供集中式平台,增强了 AI/ML 开发工作流,可能加速模型训练和推理。它反映了开源 ML 生态系统中更好协作工具的趋势,使从事优化硬件级代码的开发者和研究人员受益。 Kernels 仓库类型专注于优化代码,如自定义 CUDA 内核,这对于最大化 ML 任务的性能至关重要。它与 Hugging Face Hub 集成,允许用户直接从平台加载内核,但可能需要构建系统和硬件优化方面的专业知识。

reddit · r/LocalLLaMA · clem59480 · Apr 9, 13:49

背景: Hugging Face 是 AI/ML 领域的领先平台,以托管模型、数据集和应用程序而闻名,其 Hub 作为开源 ML 资源的中央仓库。计算内核是针对特定硬件(如 GPU)优化的低级代码段,用于加速机器学习流水线中的操作。Kernels 的推出基于 Hugging Face 支持高级开发工具的努力,类似于 GitHub 等平台管理代码仓库以促进协作的方式。

参考链接

标签: #AI/ML, #Hugging Face, #Developer Tools, #Open Source, #Machine Learning


OpenWork 将部分组件从 MIT 许可证静默更改为商业许可证 ⭐️ 7.0/10

作为 Claude Cowork 的 MIT 许可证开源替代品推出的 AI 代理框架 OpenWork,已静默地将部分组件重新授权为商业许可证,并修改了整体项目的 MIT 许可证以限制其适用范围。这些更改未在任何地方公告,且提交描述中省略了许可证变更。 这在开源 AI 社区中引发了关于透明度和许可证伦理的重大担忧,可能影响依赖该项目开源性质的用户和开发者。它突显了开发者获取可持续收入与通过清晰的许可证实践维持信任之间的紧张关系。 许可证变更通过 GitHub 问题(https://github.com/different-ai/openwork/issues/1412)被发现,且提交描述(https://github.com/different-ai/openwork/commit/2b91b4d777431d74d21d88dbbc96f2d5fee5441a)可能由 AI 生成,省略了这些变更。作者承认可持续收入的必要性,但批评了缺乏透明度。

reddit · r/LocalLLaMA · lrq3000 · Apr 9, 12:05

背景: OpenWork 是一个本地托管的 AI 代理框架,作为 Claude Cowork 的开源替代品,后者是 Anthropic 开发的 AI 驱动应用程序,旨在提高生产力。MIT 许可证是一种宽松的软件许可证,对重用限制很少,而商业许可证通常施加更多限制,如使用费或再分发限制。代理框架是围绕大语言模型构建的基础设施,将其转变为功能代理,结合模型智能与系统控制。

参考链接

标签: #open-source, #licensing, #AI-agents, #community-ethics, #software-governance


macOS 被曝存在 49.7 天网络故障漏洞,当前需重启修复 ⭐️ 7.0/10

研究人员发现,macOS 设备连续运行 49 天 17 小时 2 分 47 秒后,可能因 XNU 内核中 tcp_now 计时器的 32 位无符号整数溢出而导致新的网络连接建立失败。目前唯一的缓解方法是重启系统,不过替代解决方案正在研究中。 这个内核级漏洞会影响长时间运行的 macOS 系统的网络稳定性,可能干扰服务器、开发环境和依赖持续网络连接的常开设备。它凸显了操作系统内核中正确处理计时器的重要性,并可能影响苹果在系统可靠性方面的声誉。 该漏洞特别影响处于 TIME_WAIT 状态的已关闭 TCP 连接的清理过程,导致连接堆积并耗尽临时端口。据报道,苹果的实现违反了 RFC 7323 中关于处理时间戳计时器溢出的指导原则,该标准规定了时间戳达到最大值时的正确行为。

telegram · zaihuapd · Apr 9, 12:16

背景: XNU 是苹果开发的混合内核,构成了 macOS、iOS 和 iPadOS 的核心。TCP 时间戳是 RFC 7323 中定义的扩展,通过为数据包排序和往返时间测量提供时间信息来提高高带宽网络中的性能。TIME_WAIT 状态是 TCP 连接终止的正常部分,确保在端口释放回可用池之前正确处理来自先前连接的延迟数据包。

参考链接

标签: #macOS, #Network Security, #Kernel Bug, #TCP/IP, #System Administration