From 45 items, 17 important content pieces were selected
- Bun 从 Zig 重写为 Rust,百万行代码合并 ⭐️ 9.0/10
- Anthropic 与 SpaceX 合作获取 Colossus 算力 ⭐️ 9.0/10
- NGINX 曝 18 年远程代码执行漏洞 CVE-2026-42945 ⭐️ 9.0/10
- DeepSeek 会话隔离漏洞:未闭合的 ‘<think’ 泄露对话 ⭐️ 9.0/10
- vLLM v0.21.0 发布:重大变更与新功能 ⭐️ 8.0/10
- 移除 2024 款 RAV4 混动版调制解调器和 GPS ⭐️ 8.0/10
- 首个针对苹果 M5 的公开 macOS 内核利用漏洞 ⭐️ 8.0/10
- RTX 5090 外置显卡与 M4 MacBook Air:游戏与 LLM 突破 ⭐️ 8.0/10
- Nginx 漏洞针对重写指令 ⭐️ 8.0/10
- arXiv 对虚假引用实施一年禁令 ⭐️ 8.0/10
- MIT 校长谈资金与人才管道挑战 ⭐️ 8.0/10
- AI 依赖可能降低开发者技能 ⭐️ 8.0/10
- LSFMM+BPF 2026 讨论原子缓冲写入 ⭐️ 8.0/10
- 提出 COW 上下文替代匿名反向映射 ⭐️ 8.0/10
- 综合研究表明:KV 缓存量化中 FP8 仍是最佳选择 ⭐️ 8.0/10
- 美国批准向中国科技巨头出售 H200 芯片 ⭐️ 8.0/10
- 京东上线 AI 硬件自营专区,恢复上架受制裁 NVIDIA GPU ⭐️ 8.0/10
Bun 从 Zig 重写为 Rust,百万行代码合并 ⭐️ 9.0/10
Bun 的代码库已从 Zig 完全重写为 Rust,超过 100 万行 Rust 代码现已合并到主分支。该重写大约在一周内完成,借助了一份详细的移植指南,将 Zig 惯用法映射到 Rust。 这一突破性的重写从底层改变了 Bun 的架构,可能在利用 Rust 生态系统的同时提升性能和内存安全性。它还展示了一种大规模、借助 LLM 辅助的代码库翻译的可行方法,对软件复杂性管理具有启示意义。 Rust 代码库在 736 个文件中包含超过 10,000 个 unsafe 块,表明这是一次机械式翻译,保留了许多 Zig 特有的模式。代码总量接近 Rust 编译器本身,约 100 万行 Rust 代码,而原始 Zig 代码约为 70 万行。
hackernews · Chaoses · May 14, 08:15 · 社区讨论
背景: Bun 是一个快速的全能 JavaScript 运行时的工具包,最初用 Zig 构建,以其速度和与 Node.js 的兼容性而闻名。Zig 是一种系统编程语言,旨在作为 C 语言的现代替代品,而 Rust 是一种内存安全的系统语言,拥有强大的生态系统。重写工作遵循了一份详细的移植文档,将 Zig 结构映射到 Rust,并使用了内部已经与 Rust 等价物对应的智能指针类型。
参考链接
社区讨论: 讨论中既有惊叹也有技术上的好奇。一些评论者注意到了令人印象深刻的准备工作——一份详细的移植指南,并质疑为何没有自动化翻译。其他人指出大量的 unsafe 块,并认为 Bun 的复杂性正成为 LLM 时代软件工程的一个测试案例。
标签: #Bun, #Rust, #Zig, #Software Engineering, #Rewrite
Anthropic 与 SpaceX 合作获取 Colossus 算力 ⭐️ 9.0/10
Anthropic 宣布与 SpaceX 达成合作,将使用其 Colossus 1 数据中心全部算力,获得超过 300 兆瓦新增容量和逾 22 万块 NVIDIA GPU,即日起生效。 这次大规模基础设施扩展大幅提升了 Claude 的计算资源,将 Claude Code 的速率限制翻倍,并取消 Pro/Max 用户的高峰期限制,直接惠及依赖 Anthropic AI 的开发者和企业。 合作涉及来自 SpaceX 的 Colossus 1 数据中心的逾 22 万块 NVIDIA GPU 和 300 兆瓦新增容量;Claude Code 的 5 小时速率限制翻倍,Pro/Max 用户的高峰期限制取消,Claude Opus 的 API 速率限制也已显著提高。
telegram · zaihuapd · May 14, 00:57
背景: Colossus 1 是由 xAI(埃隆·马斯克的人工智能公司)在田纳西州孟菲斯建造的超级计算机,最初用于训练 AI 模型并支持 X 和 SpaceX 等项目。它拥有大规模的 NVIDIA GPU 集群,已扩展至超过 300 兆瓦容量。Anthropic(Claude AI 助手的开发商)现在租用其全部算力以满足对模型日益增长的需求。
参考链接
标签: #AI, #Anthropic, #SpaceX, #compute infrastructure, #Claude
NGINX 曝 18 年远程代码执行漏洞 CVE-2026-42945 ⭐️ 9.0/10
2026 年 5 月 13 日,depthfirst 与 F5 披露了编号 CVE-2026-42945 的严重漏洞,它是 NGINX rewrite 模块中的堆缓冲区溢出漏洞,允许未经身份验证的远程代码执行。该漏洞自 2008 年起就存在于 NGINX 代码中,影响 0.6.27 至 1.30.0 版本,现已发布补丁。 该漏洞影响全球数十亿台服务器,包括 NGINX 开源版、NGINX Plus 及众多企业产品,对基础设施安全构成严重威胁。强烈建议立即打补丁,以防止潜在的大规模攻击。 该漏洞是堆缓冲区溢出,源于两遍执行引擎在 rewrite 指令包含问号时的状态不一致,导致内存损坏。利用需要特定的 rewrite 配置模式,成功攻击可在 NGINX worker 进程中执行代码。
telegram · zaihuapd · May 14, 02:41
背景: NGINX 是一种广泛使用的 Web 服务器和反向代理,尤其在云原生环境中。其 rewrite 模块通过两遍执行处理 URI 重写:先计算缓冲区长度,再写入结果。一个标志位不一致导致第二遍写入的数据超过分配的缓冲区,从而引发溢出。
参考链接
标签: #nginx, #vulnerability, #rce, #CVE-2026-42945, #security
DeepSeek 会话隔离漏洞:未闭合的 ‘<think’ 泄露对话 ⭐️ 9.0/10
DeepSeek 对话系统被披露存在会话隔离漏洞,攻击者在全新的空对话中仅发送未闭合的 ‘<think’ 字符串,模型即返回其他用户的对话历史片段,可能包含代码、密钥等敏感信息。该漏洞由研究人员 cancat2024 于 2026 年 5 月 11 日以负责任的方式报告。 该漏洞允许未经授权访问其他用户的对话数据,包括潜在的机密或专有信息,构成了严重的隐私风险。由于 DeepSeek API 和网页界面的广泛使用,一旦被利用可能导致大规模数据泄露。 该漏洞具体发生在用户发送未闭合的 ‘<think’ 字符串(缺少闭合标签)时,导致模型错误地输出其他会话的片段。研究人员还指出,第三方部署也存在此问题,表明这可能是模型架构本身的问题,而非简单的 Web 服务器漏洞。
telegram · zaihuapd · May 14, 13:15
背景: DeepSeek 对话系统使用特殊的 ‘<think’ 标记来指示推理步骤,常用于思维链提示。该标记通常与闭合的 ‘ 响应配对,以标记内部推理过程。在此漏洞中,未闭合的 ‘<think’ 标签会混淆模型的会话处理机制,导致其从其他用户的对话中检索数据,而非隔离每个会话。
参考链接
社区讨论: 在 GitHub 问题中,社区成员注意到第三方部署也存在此漏洞,表明这是模型本身的问题而非简单的 API 错误。有人猜测模型可能是在“幻觉”数据,而其他人确认实际用户数据正在被泄露,引发了严重的隐私担忧。
标签: #security, #vulnerability, #deepseek, #AI safety, #data leakage
vLLM v0.21.0 发布:重大变更与新功能 ⭐️ 8.0/10
vLLM v0.21.0 引入了破坏性构建变更,包括弃用 transformers v4 和要求 C++20 编译器,同时新增了混合内存分配器的 KV 卸载、带思考预算的推测解码,以及针对 Blackwell GPU 的 TOKENSPEED_MLA 注意力后端。 此版本强制迁移至 transformers v5 并要求更新编译器,从而对 LLM 推理生态系统产生重大影响,同时提升了内存效率和解码性能,尤其适用于 NVIDIA Blackwell GPU 上的推理模型。 该版本包含 202 位贡献者的 367 次提交,支持 MiMo-V2.5 和 Cohere Eagle 等新模型架构,并进行了性能优化,例如默认启用 FlashInfer top-p 采样器,以及 AllPool.forward 速度提升 51%。
github · khluu · May 14, 23:15
背景: vLLM 是一个用于快速 LLM 推理和服务的开源库。KV 缓存卸载将键值张量移动到 CPU 内存以降低 GPU 内存使用,而混合内存分配器管理 GPU 和 CPU 内存池。推测解码使用草稿模型预测多个 token,然后进行验证,从而加速推理。TOKENSPEED_MLA 后端是针对 MLA(多潜在注意力)的专用注意力实现,用于 DeepSeek 等模型,并针对 Blackwell GPU 进行了优化。
参考链接
标签: #vllm, #LLM inference, #breaking change, #GPU, #transformers
移除 2024 款 RAV4 混动版调制解调器和 GPS ⭐️ 8.0/10
发布了一份详细指南,介绍如何物理移除 2024 款丰田 RAV4 混动版的蜂窝调制解调器和 GPS 模块,以阻止车辆收集遥测数据。 该指南回应了日益增长的车辆遥测数据收集隐私担忧(数据可能被分享给保险公司或第三方),并让车主能够掌控自己的数据。 即使移除调制解调器,通过蓝牙连接手机仍可能通过手机网络传输遥测数据,但使用有线 USB 连接可避免此问题。移除调制解调器可能会禁用丰田 Safety Connect 等安全功能。
hackernews · arkadiyt · May 14, 17:08 · 社区讨论
背景: 现代车辆配备有远程信息处理控制单元(TCU),用于收集内部系统数据并与云服务通信。丰田的 Safety Connect 是一项基于订阅的远程信息处理系统,提供远程诊断和紧急援助等服务。隐私倡导者警告称,此类数据可能未经明确同意被分享给保险公司。
社区讨论: 评论者指出,福特 Maverick 车型的远程信息处理单元有一个单独的保险丝,可无错误地拔除,提供了更简单的替代方案。还有人分享了丰田 GPS 罗盘航向错误以及制造商缺乏支持的个人问题,这促使他们进行硬件移除。
标签: #privacy, #vehicle telemetry, #hardware mod, #Toyota, #data collection
首个针对苹果 M5 的公开 macOS 内核利用漏洞 ⭐️ 8.0/10
安全研究团队 Calif 公开了首个专门针对苹果 M5 芯片的 macOS 内核内存损坏利用漏洞,展示了内核中的一个关键漏洞。 这标志着 Apple 安全研究的一个重要里程碑,因为它暴露了最新 M5 架构中先前未知的漏洞,可能影响数百万台设备,并对 M5 的安全增强声明提出了挑战。 该利用漏洞涉及内核内存损坏,研究报告长达 55 页。社区评论指出,该漏洞在 MTE(内存标记扩展)存在的情况下仍然存在,这引起了人们的好奇。
hackernews · quadrige · May 14, 18:25 · 社区讨论
背景: 苹果 M5 芯片是 Apple Silicon 系列的一部分,设计有先进的安全功能,包括 MTE(内存标记扩展)和神经加速器。内核内存损坏利用漏洞是最严重的漏洞之一,允许攻击者获得系统的完全控制。这是针对 M5 的首个此类公开利用漏洞。
参考链接
社区讨论: 社区评论表达了兴奋和怀疑的混合情绪。一些用户指出缺乏技术细节,而另一些用户则讨论潜在的赏金价值(10 万至 150 万美元)。还有用户讽刺地猜测漏洞是捏造的,一位用户因 MIE(Mythos Integrity Engine?)而后悔购买了 M5。
标签: #security, #macOS, #kernel, #exploit, #Apple M5
RTX 5090 外置显卡与 M4 MacBook Air:游戏与 LLM 突破 ⭐️ 8.0/10
一名开发者成功演示了将 RTX 5090 作为外置显卡(eGPU)连接到 M4 MacBook Air,从而在 macOS 上实现了可玩的游戏性能和大幅提升的 LLM 推理速度。 这之所以重要,是因为 Apple Silicon Mac 官方不支持 eGPU,限制了其图形和 AI 能力。这一破解为 macOS 游戏和本地 AI 工作负载开辟了新可能,并可能影响苹果未来的决策。 该方案可能利用带 GPU 直通的虚拟机或自定义驱动程序绕过 macOS 的限制,因为苹果仅支持 Intel Mac 搭配 AMD GPU 使用 eGPU。演示包括游戏基准测试和 LLM 推理改进,在提示处理速度方面有显著提升。
hackernews · allenleee · May 14, 15:47 · 社区讨论
背景: 外置显卡(eGPU)通过 Thunderbolt 或 USB-C 连接到计算机以提供额外图形性能。然而,与基于 Intel 的 Mac 不同,Apple Silicon Mac 从未官方支持 eGPU 进行图形加速,限制了 macOS 游戏和 AI 性能。这一破解展示了使用 RTX 5090(英伟达最强大的消费级 GPU 之一)的变通方案。
参考链接
社区讨论: 评论者表达了兴奋和惊讶,许多人称赞这一工程壮举。一些人讨论了在 Apple Silicon 上实现 VM GPU 直通的长期诉求,而另一些人则强调了相比游戏,LLM 推理的实际收益。少数人指出苹果官方立场仍不支持,但该破解代表了重要进展。
标签: #eGPU, #Apple Silicon, #gaming, #LLM, #hack
Nginx 漏洞针对重写指令 ⭐️ 8.0/10
一个名为 Nginx-Rift 的新 Nginx 漏洞被披露,它针对使用特定重写指令和未命名捕获组的服务器。F5 已发布 1.31.0 和 1.30.1 版本补丁来修复此漏洞。 此漏洞非常重要,因为 Nginx 是全球使用最广泛的 Web 服务器之一,成功利用可能在特定条件下导致远程代码执行。社区的高度关注(267 个点赞,59 条评论)凸显了其技术重要性和实际影响。 利用前提条件包括在替换字符串中带有问号的 ‘rewrite’ 指令,随后是引用正则表达式捕获组的 ‘set’ 指令。公开的概念验证假设 ASLR 已禁用,但披露声称存在可靠的 ASLR 绕过方法。F5 建议使用命名捕获组代替未命名捕获组作为缓解措施。
hackernews · hetsaraiya · May 14, 17:17 · 社区讨论
背景: Nginx 使用重写指令基于正则表达式修改请求 URI,用于 URL 重定向和访问控制。ASLR(地址空间布局随机化)是一种纵深防御技术,通过随机化内存地址来增加利用难度;绕过它允许攻击者可靠地劫持执行流程。该漏洞结合了 Nginx 重写处理中的内存损坏漏洞和绕过 ASLR 的技术,大大增加了其严重性。
社区讨论: 评论者担心,尽管公开的漏洞利用需要禁用 ASLR,但披露声称可以绕过 ASLR,这使得漏洞比最初认为的更严重。一些人强调了特定的前提条件,并指出 F5 的缓解措施(使用命名捕获组)是有效的。其他人则讨论使用内存安全语言编写的替代 Web 服务器(如 Caddy 和 Jetty)是否本质上更安全。
标签: #security, #nginx, #exploit, #vulnerability, #aslr
arXiv 对虚假引用实施一年禁令 ⭐️ 8.0/10
arXiv 宣布了一项新政策:如果提交的论文中含有虚假引用,作者将被禁止在 arXiv 上提交论文一年,解禁后需先在知名同行评审期刊上发表论文才能再次提交。 该政策旨在遏制学术文献中日益严重的 AI 生成“垃圾内容”问题,维护科学出版的诚信。它为其他预印本库和期刊树立了榜样。 据报道,该禁令尚未正式生效,仍在计划中;arXiv 的政策页面尚未明确列出相关细节。无论是否故意,只要出现虚假引用就会受到处罚,这引发了关于无意中引入虚假引用的担忧。
hackernews · gjuggler · May 14, 20:39 · 社区讨论
背景: 虚假引用是由 AI 语言模型生成的虚假或不存在的引文,已在包括 NeurIPS 在内的许多学术论文中被发现。这一现象是更广泛的 AI 幻觉问题的一部分,即 AI 产生事实不正确的输出。《自然》杂志的一项分析表明,2025 年可能有数万篇出版物包含 AI 生成的无效引用。
参考链接
社区讨论: 社区评论对该政策表示强烈支持,用户强调 arXiv 是一种特权而非权利。部分用户呼吁谨慎审查以避免惩罚意外错误,而另一些用户则分享了同事被抓到使用 AI 垃圾内容并收到修改要求的轶事。
标签: #arXiv, #academic integrity, #AI hallucination, #scientific publishing
MIT 校长谈资金与人才管道挑战 ⭐️ 8.0/10
MIT 校长莎莉·科恩布鲁斯发布视频讲话,谈论研究资金和人才管道面临的挑战,引发了对美国学术界和科学政策现状的广泛讨论。 这一讨论反映了美国研究资金、影响人才流动的移民政策以及学术界职业日益幻灭的深层次系统性问题,可能削弱美国在科学与技术上的长期竞争力。 这条消息发布于资助成功率下降和行政负担加重的背景下,社区评论指出,未获得资助的学生接受录取的可能性较低,而且许多博士毕业生正离开学术界转向工业界。
hackernews · dmayo · May 14, 14:51 · 社区讨论
背景: 美国研究生态系统高度依赖联邦资金以及来自国内和国际学生的稳定人才流入。对人才管道的担忧通常集中在资金短缺、签证限制以及学术职业相对于工业界的吸引力上。围绕科恩布鲁斯校长讲话的讨论触及了这些问题,反映了对美国科学未来的广泛焦虑。
社区讨论: 社区评论意见分歧很大:许多人抱怨学术界薪酬低、前景差,有评论者指出认识的近期博士毕业生中有 80%想要离开。其他人则强调行政干预和学位成本高昂,而一些来自海外的评论者认为博士流向工业界是正常现象,并非危机。
标签: #academia, #research funding, #talent pipeline, #US science policy
AI 依赖可能降低开发者技能 ⭐️ 8.0/10
一位开发者分享了个人反思:过度依赖 AI 编码助手正在削弱其批判性思维和编程能力,这在软件工程社区引发了讨论。 这场辩论突显了一个日益增长的担忧:AI 在提高生产力的同时,也可能导致技能退化,尤其是初级开发者,并促使行业寻找 AI 辅助编码的平衡方法。 该帖子获得了高度参与(388 个赞,236 条评论),评论者分享了截然不同的体验——有些人感到需要不断验证 AI 输出,而另一些人则认为在苏格拉底式使用下 AI 能激发智力。原始帖子未提供具体技术细节。
hackernews · Eighth · May 14, 18:19 · 社区讨论
背景: AI 编码助手(如 GitHub Copilot 和 Claude)能根据自然语言提示生成代码,实现了“随兴编码”(vibe coding),即开发者快速生成可用应用。然而,有人担心这可能会阻碍深度学习与解决问题的能力,尤其是对新手而言。’Vibe coding’指依赖 AI 生成代码而几乎不理解底层逻辑。
社区讨论: 评论显示意见分歧:一些开发者对盲目信任 AI 感到不安,总是验证其输出;而另一些人报告称,与 AI 进行苏格拉底式互动能增进学习。一位初级开发者指出,过度依赖生成代码拖慢了他们的入职适应速度。
标签: #AI, #software engineering, #programming productivity, #cognitive skills, #developer experience
LSFMM+BPF 2026 讨论原子缓冲写入 ⭐️ 8.0/10
在 2026 年 Linux 存储、文件系统、内存管理和 BPF 峰会(LSFMM+BPF)上,开发者讨论了 Linux 内核的原子缓冲写入功能。会上介绍了 PostgreSQL 对 8KB 原子写入的需求以及一种基于写透(writethrough)的新方法。 该功能可以通过消除预写日志(WAL)中的全页写入需求,降低写放大并提高事务吞吐量,从而显著提升 PostgreSQL 等数据库的性能。同时,它也推动了 Linux 内核文件系统对现代 NVMe 存储的支持。 PostgreSQL 目前使用 WAL 中的全页写入来防止 8KB 页面撕裂,导致 WAL 大小增加 14 倍并降低事务速率。提出的写透方法直接将数据写入磁盘,而非依赖页缓存回写,从而为缓冲 I/O 提供原子性保证。
rss · LWN.net · May 14, 14:54
背景: 原子写入确保写操作要么完全提交到磁盘,要么完全不提交,从而防止撕裂写入。对于缓冲 I/O,Linux 内核通常使用带延迟回写的页缓存,这与原子性保证不兼容。写透缓存策略将数据立即写入底层存储,绕过了缓存的延迟回写机制。
参考链接
标签: #Linux kernel, #filesystem, #storage, #database, #atomic writes
提出 COW 上下文替代匿名反向映射 ⭐️ 8.0/10
Lorenzo Stoakes 在 2026 年 Linux 存储、文件系统、内存管理和 BPF 峰会上提出了一个“COW 上下文”替换方案,用于替代内核的匿名反向映射,旨在降低复杂度并提升性能。 该提案解决了核心内核子系统中长期存在的性能问题和代码复杂性,有望提升所有 Linux 系统的可扩展性和可维护性。 COW 上下文在 mm_struct(每进程)级别跟踪匿名映射,而不是在每个 VMA 级别,从而减少了对象数量并降低了 fork 操作期间的锁竞争。
rss · LWN.net · May 14, 13:14
背景: 反向映射用于查找指向给定物理页的页表条目,这是内存管理所需要的。匿名页目前使用复杂的每 VMA 机制,存在高锁竞争和内存开销问题。Stoakes 的 COW 上下文旨在通过使用每 mm_struct 结构来简化这一过程,该结构可以比进程存活更久。
标签: #Linux kernel, #memory management, #reverse mapping, #COW, #performance
综合研究表明:KV 缓存量化中 FP8 仍是最佳选择 ⭐️ 8.0/10
vLLM 发布了一项关于 TurboQuant KV 缓存量化变体的综合基准研究,结论是 FP8 仍然是最佳默认选择,提供 2 倍容量且精度损失可忽略不计。TurboQuant 4bit-nc 是最实用的变体,但在精度和性能方面存在权衡。 这项研究为选择 KV 缓存量化方法的从业者提供了清晰、实用的指导,影响内存受限环境中 LLM 推理的部署决策。它强调,虽然高压缩比很吸引人,但通常要付出显著的精度和延迟成本。 TurboQuant k8v4 提供 2.4 倍压缩(FP8 为 2 倍),但会损害吞吐量和延迟。TurboQuant 3bit-nc 和 k3v4-nc 在推理任务上表现出明显的精度下降,而 4bit-nc 对于内存受限的边缘部署是可以接受的。
reddit · r/LocalLLaMA · MajorZesty · May 14, 20:59 · 社区讨论
背景: KV 缓存量化在 LLM 推理期间减少键值缓存的内存消耗,从而支持更长的上下文长度。FP8 是一种常用的 8 位浮点量化格式。TurboQuant 是谷歌的先进 KV 缓存压缩算法,通过非均匀量化和权重共享等技术实现高达 6 倍的压缩。
参考链接
社区讨论: 社区意见不一:一些用户批评缺少与 Q4 量化的比较,而另一些用户则认为 4bit-nc 在内存受限场景中有用。一位用户报告在 Gemma 4 上使用 TurboQuant 2-3 处理长上下文成功,而另一位用户确认 FP8 的数字明显比未量化时差。
标签: #KV-cache quantization, #TurboQuant, #LLM inference, #FP8, #performance benchmarks
美国批准向中国科技巨头出售 H200 芯片 ⭐️ 8.0/10
美国商务部已批准向大约 10 家中国企业出售英伟达 H200 AI 芯片,包括阿里巴巴、腾讯和字节跳动,但由于中方持谨慎态度,目前尚未完成任何交付。 这标志着美国对华芯片出口管制的部分放松,可能使中国 AI 企业获得用于 AI 负载的先进硬件,同时凸显了持续的贸易紧张局势以及中国推动国产替代的努力。 每个客户最多可购买 7.5 万颗 H200 芯片,联想和富士康等分销商也已获得许可。H200 比英伟达的 Blackwell 处理器落后一代,后者仍被禁止对华销售。
telegram · zaihuapd · May 14, 08:57
背景: H200 是一款面向 AI 和高性能计算负载的高端 GPU,与前代相比具有增强的内存和带宽。自 2022 年以来,美国限制向中国出售尖端芯片,英伟达主导 AI 芯片市场,但受限于出口管制。中国政府鼓励发展国产 AI 芯片以减少对外国技术的依赖。
参考链接
标签: #AI chips, #geopolitics, #NVIDIA, #US-China trade, #H200
京东上线 AI 硬件自营专区,恢复上架受制裁 NVIDIA GPU ⭐️ 8.0/10
京东开设了“AI 硬件京东自营专区”,首批上架了此前受出口制裁影响的 NVIDIA GeForce RTX 5090 32G 涡轮版、RTX PRO 6000 Blackwell 服务器版以及 H100 等硬件。 这一进展表明,尽管存在地缘政治紧张局势,高端 AI GPU 在中国可能通过替代供应渠道恢复供应,直接影响 AI 算力的可获取性及整个科技行业。 RTX 5090 涡轮版确认采用无阉割全球统一规格;H100 此前因制裁而暂停对华出口;店铺还包含面向专业渲染与数据中心的 RTX PRO 6000。
telegram · zaihuapd · May 14, 15:15
背景: NVIDIA 的 Blackwell 架构(用于 RTX PRO 6000)是一种专为 AI 和加速计算设计的 GPU 微架构。基于 Hopper 架构的 H100 是大型 AI 训练所必需的数据中心 GPU。两者均受到美国对华先进 AI 硬件出口限制的影响。
标签: #AI hardware, #NVIDIA, #export controls, #e-commerce, #China