Skip to the content.

From 36 items, 16 important content pieces were selected


  1. PyPI 上的 telnyx Python 包被植入恶意代码 ⭐️ 9.0/10
  2. GLM-5.1 正式发布,编程能力媲美 Claude Opus 4.5 ⭐️ 9.0/10
  3. 谷歌的 TurboQuant AI 压缩算法可将 LLM 内存使用量减少 6 倍且不损失质量。 ⭐️ 9.0/10
  4. LiteLLM 被入侵事件揭示软件供应链中的多重安全漏洞 ⭐️ 8.0/10
  5. 跳过 90%的 KV 反量化工作,在 llama.cpp TurboQuant 中实现解码速度提升 22.8% ⭐️ 8.0/10
  6. Gemini Pro 泄露内部思维链并陷入无限循环 ⭐️ 8.0/10
  7. TurboQuant 算法适配实现近无损 4+4 残差量化,为 LLM 权重带来 3.2 倍内存节省 ⭐️ 8.0/10
  8. Typia 基础设施在 Qwen 上实现递归联合类型函数调用 100% 成功率 ⭐️ 8.0/10
  9. 中国计算机学会反对 NeurIPS 2026 基于制裁的投稿限制,呼吁抵制该会议 ⭐️ 8.0/10
  10. 华为发布 Atlas 350 AI 加速卡,搭载昇腾 950PR,算力达英伟达 H20 近三倍 ⭐️ 8.0/10
  11. AI 助力一天内将 JSONata 移植到 Go,年省 50 万美元 ⭐️ 7.0/10
  12. 会议论文附录过长挑战页数限制初衷 ⭐️ 7.0/10
  13. 开源语言模型 GLM 5.1 已发布。 ⭐️ 7.0/10
  14. Unsloth Studio Beta 发布重大更新,包含 50 多项新功能,包括更快的推理速度和 AMD 支持 ⭐️ 7.0/10
  15. 谷歌在 Android 17 Beta 3 中引入系统级 VPN 分流设置 ⭐️ 7.0/10
  16. 苹果协助 FBI 追踪使用 iCloud 匿名邮箱发送威胁信息的用户真实身份 ⭐️ 7.0/10

PyPI 上的 telnyx Python 包被植入恶意代码 ⭐️ 9.0/10

2026 年 3 月 27 日发布到 PyPI 的 telnyx 包的两个版本(4.87.1 和 4.87.2)在 telnyx/_client.py 中被注入了恶意代码,该代码会从远程服务器下载隐藏在 WAV 音频文件中的第二阶段有效载荷。该包平均每月下载量超过 100 万次,构成了一次高影响的供应链攻击。 这次攻击对大量 Python 用户和项目构成重大安全风险,因为 telnyx 是一个广泛使用的包,每月下载量超过 100 万次,可能导致 Linux/macOS 上的凭证窃取或 Windows 上的持久性恶意软件。它凸显了开源生态系统中供应链攻击日益增长的威胁,强调了在 PyPI 等包仓库中加强安全措施的必要性。 恶意代码使用隐写术技术下载隐藏在 WAV 音频文件中的第二阶段二进制文件,然后在 Windows 上投放持久性可执行文件或在 Linux/macOS 上窃取凭证。攻击专门针对 2026 年 3 月 27 日发布的 4.87.1 和 4.87.2 版本,表明这是一次有针对性的供应链注入。

rss · LWN.net · Mar 27, 16:21

背景: PyPI(Python 包索引)是 Python 包的官方仓库,开发者在此发布和安装软件库,但它容易受到供应链攻击,即恶意行为者将代码注入合法包中。恶意软件中的第二阶段有效载荷指的是一种技术,其中初始投放器从远程服务器下载额外的恶意组件,以规避检测并执行更复杂的攻击。WAV 文件隐写术涉及通过操纵比特(如最低有效位 LSB)在音频文件中隐藏数据(如恶意软件二进制文件),以将有效载荷从安全扫描器中隐藏起来。

参考链接

标签: #security, #supply-chain, #PyPI, #malware, #Python


GLM-5.1 正式发布,编程能力媲美 Claude Opus 4.5 ⭐️ 9.0/10

智谱 AI 发布了其最新旗舰模型 GLM-5.1,该模型在编程任务上达到了开源模型的最先进水平,在 SWE-bench-Verified 基准测试中获得 77.8 分,在 Terminal Bench 2.0 中获得 56.2 分。该模型现已面向智谱 AI 平台上所有 Coding Plan 用户开放。 这代表了开源 AI 模型的重大进步,因为 GLM-5.1 的编程能力现已接近 Claude Opus 4.5 等领先专有模型,可能使高质量编程辅助工具更加普及。这一突破有望加速软件开发工作流程,让全球开发者更容易获得先进的 AI 编程工具。 GLM-5.1 具备 200K 的上下文窗口和 128K 的最大输出长度,拥有 7440 亿参数(其中 400 亿激活),基于 28.5 万亿 token 的数据进行预训练。该模型还原生支持模型上下文协议(MCP),能够更好地与外部工具和系统集成。

reddit · r/LocalLLaMA · Which-Jello9157 · Mar 27, 14:37

背景: SWE-bench-Verified 是一个评估 AI 模型解决实际软件工程问题能力的基准测试,但它使用静态数据集,可能无法反映当前的开发实践。Terminal Bench 2.0 测试 AI 代理在命令行界面环境中的性能,其任务灵感来源于真实工作流程。模型上下文协议(MCP)是 Anthropic 于 2024 年推出的开放标准,用于标准化 AI 系统与外部工具和数据源的集成方式。

参考链接

社区讨论: Reddit 讨论显示出社区的高度关注,获得了 347 个赞和 89%的点赞率,表明该模型的重要性得到了广泛认可。用户们正在询问与 Claude 4.6 在实际生产编码任务中的对比情况,这表明大家对实际测试和真实场景性能评估很感兴趣。

标签: #AI, #Large Language Models, #Software Engineering, #Open Source, #Benchmarks


谷歌的 TurboQuant AI 压缩算法可将 LLM 内存使用量减少 6 倍且不损失质量。 ⭐️ 9.0/10

谷歌于 2026 年 3 月公布了 TurboQuant 压缩算法,该算法可将大型语言模型(LLM)的内存使用量减少 6 倍,且不牺牲输出质量。这一突破可能使前沿模型能够在消费级硬件上运行。 这一进展意义重大,因为它通过大幅降低内存需求,解决了 AI 部署中的一个主要瓶颈,可能使前沿模型能在个人电脑等本地设备上运行。这符合更广泛的行业趋势,即专注于效率的研究,如模型压缩和硬件优化,以降低成本和环境影响。 TurboQuant 实现了内存使用量减少 6 倍,同时保持输出质量,这与某些会降低性能的其他压缩方法不同。然而,初始报告未完全披露具体技术细节,例如与不同 LLM 架构的兼容性或实施要求。

reddit · r/LocalLLaMA · Resident_Party · Mar 27, 15:37

背景: 大型语言模型(LLM)是处理和生成类人文本的 AI 系统,但它们通常需要大量内存和计算资源,限制了其在高性能硬件上的部署。内存优化技术(如压缩)旨在减少 GPU 和 RAM 使用量而不牺牲性能,平衡准确性、内存和效率。前沿模型代表了 AI 能力的尖端水平,通常需要大量资源进行训练和推理,这激发了人们对效率改进的兴趣,以实现更广泛的访问性。

参考链接

社区讨论: Reddit 讨论显示出社区的高度兴趣,用户们推测前沿模型能否在家运行,并就部署挑战进行了实际辩论。情绪乐观但谨慎,一些人对其潜在本地应用感到兴奋,而另一些人则质疑可行性和技术障碍。

标签: #AI Compression, #LLM Optimization, #Memory Efficiency, #Google Research, #Model Deployment


LiteLLM 被入侵事件揭示软件供应链中的多重安全漏洞 ⭐️ 8.0/10

2026 年 3 月 24 日,PyPI 上的 LiteLLM 库被植入窃取信息的恶意软件,导致 46 分钟内被下载 47,000 次;此前,Trivy 安全扫描器于 3 月 20 日被入侵,攻击者窃取了开发者的凭证。 这一事件凸显了软件供应链中的关键漏洞,影响了广泛使用的 AI/ML 工具,使数千用户面临数据窃取风险,强调了在开源生态系统中加强安全实践的必要性。 攻击涉及在 Trivy 中强制推送发布标签以触发自动扫描,窃取 LiteLLM 开发者的 PyPI 凭证,并使用垃圾机器人干扰 GitHub 议题的沟通,被入侵的版本 1.82.7 和 1.82.8 被上传到 PyPI。

rss · LWN.net · Mar 27, 16:44

背景: LiteLLM 是一个流行的 Python 库,作为访问多个大型语言模型(LLM)的网关,简化了与 AI 服务的集成。Trivy 是一个开源安全扫描器,用于检测代码中的漏洞,常集成到自动化工作流中。PyPI(Python 包索引)是 Python 包的官方仓库,开发者在此发布和分发软件,使其成为供应链攻击的常见目标。

参考链接

标签: #security, #supply-chain, #AI/ML, #open-source, #vulnerability


跳过 90%的 KV 反量化工作,在 llama.cpp TurboQuant 中实现解码速度提升 22.8% ⭐️ 8.0/10

一位开发者在 llama.cpp 的 TurboQuant KV 缓存压缩实现中,引入了一项简单优化:跳过注意力权重可忽略的位置的反量化操作,在 M5 Max 上以 32K 上下文长度实现了 22.8%的解码速度提升,且未影响模型性能。该方法仅需三行内核代码,利用了注意力稀疏性来避免不必要的计算。 这项优化通过减少 KV 缓存管理中的计算开销,显著提升了大语言模型的推理效率,对于模型扩展到更长上下文时尤为关键,因为此时内存和速度瓶颈会更加突出。它展示了一种无需牺牲准确性的低成本性能提升方法,对 llama.cpp 等开源 LLM 框架的开发者和用户具有实际价值。 该优化在 Qwen3.5-35B-A3B 模型上使用 TurboQuant KV(turbo3)进行了测试,结果显示困惑度(PPL)未变,NIAH 分数从 7/9 提升至 9/9,而标准的 q8_0 KV 缓存仅实现了 5%的速度提升。它不限于 TurboQuant,可应用于其他设置,目前有独立的 CUDA 移植正在测试中。

reddit · r/LocalLLaMA · Pidtom · Mar 27, 14:56

背景: KV 缓存是 Transformer 架构大语言模型中的一项优化技术,用于存储过去令牌的表示以避免在自回归生成过程中重新计算,但其内存占用随上下文长度线性增长,导致瓶颈。TurboQuant 是一种用于 KV 缓存的压缩方法,可在不损失准确性的情况下减小模型大小,而反量化是将量化后的整数值转换回浮点近似值的过程,在长上下文中计算开销较大。

参考链接

标签: #llama.cpp, #KV Cache, #Quantization, #Performance Optimization, #Machine Learning


Gemini Pro 泄露内部思维链并陷入无限循环 ⭐️ 8.0/10

当被问及 Gemma3 12b 模型和 RAG 时,Gemini Pro 意外输出了其原始的思维链推理和系统指令,随后陷入无限循环,打印了数千行 “(End)”。泄露内容包括关于格式、语气和令牌限制的具体系统提示,这些本不应向用户显示。 这一事件揭示了 Gemini Pro 内部运作的关键调试信息,暴露了其输出终止逻辑和系统提示安全性方面的潜在漏洞。此类故障可能削弱用户对 AI 系统的信任,并凸显了对生产模型边缘情况进行更严格测试的必要性。 泄露的系统指令包括具体的格式规则(”使用 ### 标题”、”优先使用 Markdown”)、语气指南(”乐于助人、直截了当”)和令牌管理细节(”生成的令牌:约 900”)。尽管模型尝试通过 “完成。注销” 和 “我将发送响应” 等命令终止输出,但仍陷入了无限循环。

reddit · r/LocalLLaMA · Powerful-Signal6312 · Mar 27, 16:01

背景: 思维链推理是一种技术,大型语言模型通过将复杂问题分解为中间步骤,使其推理过程更加透明。检索增强生成通过允许模型在生成响应前从外部来源检索信息来增强 LLM 的能力。Gemma3 12b 是谷歌的 120 亿参数多模态模型,能够处理文本和图像,并具有 128K 的上下文窗口。

参考链接

标签: #AI Debugging, #Chain-of-Thought, #LLM Failures, #Gemini Pro


TurboQuant 算法适配实现近无损 4+4 残差量化,为 LLM 权重带来 3.2 倍内存节省 ⭐️ 8.0/10

研究人员将 TurboQuant 算法从 KV 缓存量化适配到模型权重压缩,创建了 nn.Linear 层的直接替代方案,实现了近无损的 4+4 残差量化,带来 3.2 倍内存节省。在 Qwen3.5 模型上的基准测试显示,4+4 残差配置在将 0.8B 参数模型大小从 1504 MB 减少到 762 MB 的同时,保持了几乎相同的困惑度分数。 这一突破通过在保持模型质量的同时大幅减少内存需求,使得在资源受限设备上更高效地部署大语言模型成为可能。其直接替代的特性使其易于集成到现有的 PyTorch 工作流程中,可能加速压缩模型在生产环境中的采用。 该实现通过 4 位量化加 4 位残差编码实现了 8 位有效精度,基准测试显示在 Qwen3.5-4B 模型上相比 16 位基线仅增加了 0.03 的困惑度。GitHub 仓库提供了完整的文档、基准测试和 Triton 内核实现细节,便于实际部署。

reddit · r/LocalLLaMA · cksac · Mar 27, 11:22

背景: TurboQuant 是谷歌研究人员最近开发的一种压缩算法,最初针对 KV 缓存量化,旨在减少 LLM 推理期间的内存使用。量化是一种降低模型参数数值精度(例如从 32 位浮点数降至 4 位整数)的技术,以减少内存占用并加速计算。nn.Linear 层是神经网络中执行线性变换的基本构建块,在基于 Transformer 的 LLM 中通常包含大部分参数,因此成为压缩的主要目标。

参考链接

标签: #LLM Quantization, #Model Compression, #Memory Efficiency, #Deep Learning Optimization, #Efficient Inference


Typia 基础设施在 Qwen 上实现递归联合类型函数调用 100% 成功率 ⭐️ 8.0/10

在 Qwen Meetup Korea 上,一场演讲展示了使用 Typia 基础设施在深度递归联合类型上实现 100% 可靠的函数调用,将 qwen3-coder-next 的初始成功率从 6.75% 提升至 100%,并修复了 Qwen 3.5 模型系列中导致 0% 成功率的 bug。 这一突破之所以重要,是因为它解决了行业已知的挑战,即在复杂递归类型上的函数调用经常失败,从而实现了更可靠的 AI 后端生成,并提高了如 AutoBe 这类通过函数调用使用 AST 数据的应用的代码生成准确性。 Typia 从单个 TypeScript 类型自动生成模式、解析器、验证器和反馈,使用宽松的 JSON 解析和类型强制来处理递归结构,而 Qwen 3.5 的 bug 涉及一个持续的双重字符串化问题,Typia 已解决此问题。

reddit · r/LocalLLaMA · jhnam88 · Mar 27, 08:31

背景: AI 模型中的函数调用涉及基于用户提示生成结构化输出,如代码或数据,常用于后端生成等任务。TypeScript 中的递归联合类型允许建模嵌套或分层数据结构,但由于其复杂性,AI 模型通常难以可靠处理。Typia 是一个 TypeScript 库,通过在编译时分析 TypeScript 类型,提供超快的运行时验证器和 JSON 函数,从而高效处理如递归联合类型等复杂类型。

参考链接

标签: #function-calling, #AI-backend, #type-systems, #Qwen, #code-generation


中国计算机学会反对 NeurIPS 2026 基于制裁的投稿限制,呼吁抵制该会议 ⭐️ 8.0/10

中国计算机学会(CCF)于 2026 年 3 月 27 日发表正式声明,反对 NeurIPS 2026 限制受美国制裁机构投稿的政策,并呼吁中国学者抵制该会议。声明批评此举将学术交流政治化,敦促 NeurIPS 立即纠正相关做法。 这一争议凸显了地缘政治紧张局势如何日益影响全球人工智能研究合作,可能导致国际学术界分裂,并影响 NeurIPS 等顶级会议的投稿多样性。它可能减少中国研究人员的参与,从而影响会议的声誉和人工智能进展的广泛交流。 NeurIPS 2026 的投稿指南明确禁止“受美国制裁机构名单中的部分组织”投稿,但新闻内容未具体列出这些机构名称。中国计算机学会的抵制呼吁是对此政策的直接回应,强调了学术交流中开放、平等的核心价值。

telegram · zaihuapd · Mar 27, 11:00

背景: NeurIPS(神经信息处理系统会议)是国际顶级人工智能会议,以展示机器学习和神经网络领域的前沿研究而闻名。美国制裁名单由外国资产控制办公室(OFAC)管理,包含因国家安全或外交政策原因受到活动限制的实体,这可能延伸到学术合作领域。中国计算机学会是中国计算和人工智能领域的主要专业组织,致力于倡导学术标准和政策。

参考链接

标签: #AI Research, #Academic Ethics, #Geopolitics, #NeurIPS, #China Computer Federation


华为发布 Atlas 350 AI 加速卡,搭载昇腾 950PR,算力达英伟达 H20 近三倍 ⭐️ 8.0/10

在华为中国合作伙伴大会 2026 上,华为正式发布并上市了搭载全新昇腾 950PR 处理器的 AI 训练推理加速卡 Atlas 350。该产品声称算力达到英伟达 H20 的 2.87 倍,支持 FP4 低精度推理,并配备 112GB HBM 内存。 这标志着中国本土 AI 硬件生态的重要进展,可能减少对外国技术的依赖,并为英伟达在 AI 加速器领域的统治地位提供有竞争力的替代方案。其宣称的性能优势和 FP4 支持有望实现更高效、更具成本效益的大规模 AI 推理,特别是对于大语言模型。 Atlas 350 配备 112GB HBM 内存,支持 FP4 精度推理工作负载,是目前国内唯一具备此能力的加速卡。据报道,其内存带宽达 1.4 TB/s,功耗为 600W,约为 H20 的 1.5 倍。

telegram · zaihuapd · Mar 27, 15:30

背景: AI 加速卡是专门设计用于加速人工智能工作负载的硬件,特别是机器学习模型的训练和推理。英伟达的 H20 是市场领导者推出的竞争性 AI 加速器,而 FP4(4 位浮点数)是一种新兴的低精度格式,可通过减少内存需求和计算复杂度显著提升推理速度。HBM(高带宽内存)是一种为 AI 等数据密集型应用提供高带宽的内存技术。

参考链接

标签: #AI Hardware, #Accelerator Cards, #Huawei, #Machine Learning, #High-Performance Computing


AI 助力一天内将 JSONata 移植到 Go,年省 50 万美元 ⭐️ 7.0/10

Reco 团队利用 AI 在一天内将 JSONata JSON 表达式语言从 JavaScript 移植到 Go,仅用 7 小时和 400 美元令牌成本就构建出可运行版本。随后,他们进行了一周的影子部署,以验证新实现与原版行为一致。 这展示了 AI 辅助代码移植的实际影响,能实现快速语言迁移并大幅节省成本,从而加速软件现代化并降低运营开支。它突显了 AI 如何简化开发流程,尤其适用于已有测试套件的项目。 移植过程依赖 JSONata 的现有测试套件来指导 AI,确保准确性,并采用影子部署并行运行新旧版本而不影响线上服务。年省 50 万美元源于基于 Go 的实现降低了维护成本并提升了效率。

rss · Simon Willison · Mar 27, 00:35

背景: JSONata 是一种用于 JSON 数据的声明式开源查询和转换语言,类似于 jq,常用于 Node-RED 等平台进行复杂数据处理。Vibe porting 指利用 AI 代理在不同编程语言间迁移代码,借助测试套件等工具进行验证。影子部署是一种测试技术,新版本与旧版本并行运行,处理复制的实时流量以观察行为,而不影响用户。

参考链接

标签: #AI-assisted development, #code porting, #Go, #JSON, #cost optimization


会议论文附录过长挑战页数限制初衷 ⭐️ 7.0/10

Reddit 上的讨论指出,机器学习会议论文(如 ICML 和 NeurIPS)的附录越来越长,正从补充材料变为核心部分,这削弱了页数限制的初衷。作者提到,附录常包含大量无法放入主论文 8-10 页的实验,使其实际上成为必需内容。 这一趋势引发了对学术出版研究标准和公平性的担忧,因为它可能使遵守页数限制的作者处于不利地位,并给审稿人带来过多负担。这可能导致会议论文从简洁贡献转向以数量为导向的提交,影响机器学习社区会议论文集的质量和可访问性。 像 ICML 这样的会议允许附录页数不限,而主论文严格限制在 8 页,NeurIPS 也有类似政策,这造成了附录可能超过主内容长度的漏洞。这种做法模糊了会议与期刊的界限,因为尽管有名义上的页数限制,但超过 25 页的论文变得普遍。

reddit · r/MachineLearning · kostaspap90 · Mar 27, 09:09

背景: 机器学习会议如 ICML 和 NeurIPS 设定页数限制(例如 ICML 为 8 页),以确保提交内容简洁且审稿过程可管理,附录本意用于补充材料,如额外实验或证明。附录变长的趋势反映了学术界更广泛的趋势,即大量数据和可重复性要求促使作者在主论文外包含更多内容。

参考链接

标签: #academic-publishing, #conferences, #machine-learning, #research-standards, #peer-review


开源语言模型 GLM 5.1 已发布。 ⭐️ 7.0/10

开源通用语言模型 GLM 5.1 已发布,这是继 GLM 4.5 等版本之后的一次重大版本更新。此次发布标志着该模型在能力和性能上取得了显著进步。 此次发布之所以重要,是因为 GLM 是一个广泛使用的开源语言模型,为 GPT 等专有模型提供了替代方案,促进了 AI 开发的创新和可及性。它可能影响开发者、研究人员和初创公司,为自然语言处理任务提供成本效益高且性能强大的工具。 新闻内容和搜索结果中未提供 GLM 5.1 的具体技术细节,如模型大小、训练数据或基准测试分数。但基于 GLM 4.5 等先前版本,它可能在速度、定价和编码能力方面有所改进,并适用于资源有限的环境。

reddit · r/LocalLLaMA · Namra_7 · Mar 27, 11:32

背景: GLM(通用语言模型)是由 THUDM 开发的开源语言模型,基于自回归空白填充技术来处理自然语言任务。像 GLM 这样的语言模型通过自监督机器学习在大型文本数据集上进行训练,使其能够生成文本并执行各种 AI 功能。开源模型如 GLM 为专有模型提供了替代方案,促进了 AI 生态系统中的竞争和可及性。

参考链接

标签: #AI, #Language Models, #Open Source, #Machine Learning, #LLM


Unsloth Studio Beta 发布重大更新,包含 50 多项新功能,包括更快的推理速度和 AMD 支持 ⭐️ 7.0/10

Unsloth Studio Beta 已更新,包含 50 多项新功能和改进,包括推理速度提升 20-30%、自动检测来自 LM Studio 和 Hugging Face 的现有模型、增强的工具调用功能,以及针对 Linux 系统的初步 AMD 支持。 此次更新显著提升了本地 LLM 优化工具的可访问性和性能,使开发者更容易在消费级硬件上运行和微调大语言模型,同时将硬件兼容性扩展到 NVIDIA GPU 之外。 此次更新包含预编译的 llama.cpp 和 mamba_ssm 二进制文件,可将安装时间缩短至约 1 分钟并减少 50%的包大小,同时修复了 Windows 和 Mac 的设置问题、CPU 内存峰值问题,并改进了推理令牌报告,现在反映的是实际速度而非包含启动时间。

reddit · r/LocalLLaMA · danielhanchen · Mar 27, 15:06

背景: Unsloth Studio 是一款用于本地训练和运行大语言模型的工具,专注于优化和易用性。llama.cpp 是一个开源软件库,能以最小设置在各种 LLM 上执行推理,而 mamba_ssm 是一个用于某些架构中状态空间模型的 Python 模块。由于这些工具在硬件效率和开源特性方面的优势,它们在处理本地 LLM 的开发者中很受欢迎。

参考链接

标签: #machine-learning, #llm-optimization, #local-llms, #developer-tools, #performance


谷歌在 Android 17 Beta 3 中引入系统级 VPN 分流设置 ⭐️ 7.0/10

谷歌在 Android 17 Beta 3 中加入了系统级 VPN 分流功能,允许用户通过统一设置界面将指定应用排除在 VPN 连接之外。此功能支持在 VPN 已连接时立即生效或在下次连接时生效。 此更新在 VPN 应用中统一了分流设置,通过允许银行、流媒体等应用绕过 VPN 以提升性能和兼容性,从而改善用户体验。它解决了 Android VPN 使用中的一个长期痛点,并可能推动 VPN 功能的更广泛采用。 该功能目前仅面向开发者,需要 VPN 应用接入新的系统级 API 后用户才能使用。它通过集中式设置页面取代了之前各家 VPN 应用各自为政的实现方式。

telegram · zaihuapd · Mar 27, 05:57

背景: VPN 分流是一种功能,可将部分流量通过加密的 VPN 路由,同时允许其他流量直接访问互联网,常用于提升性能或访问本地资源。在 Android 中,VPN 功能传统上通过 VpnService API 管理,分流设置由各个应用不一致地处理。系统级实现在整个操作系统中统一了这一过程。

参考链接

标签: #Android, #VPN, #Networking, #Mobile Development, #Beta Features


苹果协助 FBI 追踪使用 iCloud 匿名邮箱发送威胁信息的用户真实身份 ⭐️ 7.0/10

苹果在一项威胁邮件调查中,向 FBI 提供了与匿名“隐藏邮箱地址”功能关联的真实 iCloud 邮箱及账户信息。涉案用户 Alden Ruml 曾生成 134 个匿名邮箱,并承认向 FBI 局长女友发送了威胁邮件。 这一事件揭示了苹果“隐藏邮箱地址”功能在隐私保护方面的局限性,表明其仍可被执法部门追踪,引发了用户匿名性和数据安全性的担忧。它凸显了科技公司透明度、监控以及数字通信中隐私与执法访问权平衡的更广泛讨论。 “隐藏邮箱地址”功能是 iCloud+ 的一部分,允许用户生成唯一的随机邮箱地址并转发到收件箱,但苹果保留在法律合规下将这些地址关联到真实账户的能力。此案涉及一项具体的威胁调查,苹果在法律授权下配合,类似于 Proton Mail 等其他服务的事件。

telegram · zaihuapd · Mar 27, 13:09

背景: 苹果的“隐藏邮箱地址”是 iCloud+ 中的一项隐私功能,可生成一次性邮箱地址以保护用户真实邮箱免受垃圾邮件和追踪。匿名邮箱服务旨在保护用户身份,但在法律请求下通常存在限制,因为公司可能存储元数据或账户关联信息。执法部门可通过传票或与服务提供商合作追踪此类邮件,这在涉及其他平台的事件中也有体现。

参考链接

标签: #privacy, #security, #law-enforcement, #apple, #data-protection