More issues

Meta 的 AI 显示眼镜据报将亲密视频分享给人工审核员

Meta 的 Ray-Ban 显示 AI 智能眼镜用户在使用 AI 助理时,会在不知情下将亲密视频和敏感财务信息分享给 Meta 的海外人工审核员。报道称,肯尼亚内罗毕的 Meta 数据标注承包商员工能看到用户裸体、上厕所、从事性行为等内容,甚至信用卡号码等隐私信息。Meta 对此未直接评论,仅表示遵守 AI 服务条款和隐私政策,用户不应分享敏感信息。 这些 AI 眼镜内置常开摄像头能录制用户视野或通过 Meta AI 回答问题,但启用 AI 需同意服务条款,允许人类审核捕获数据以训练模型。据报道这些数据经常被送往非洲肯尼亚等地由低薪工人处理。

OpenAI 正在开发新款代码仓库替代微软的 GitHub

OpenAI 正在开发一款新的代码仓库平台,以减少对微软旗下 GitHub 的依赖。此举源于近期 GitHub 服务多次中断,导致 OpenAI 工程师无法正常访问和协作代码,促使公司启动这一内部替代项目。 据知情人士透露,该项目仍处于早期阶段,预计需数月时间才能完成。OpenAI 希望通过自建平台提升内部开发效率和稳定性,避免外部服务中断带来的影响。目前尚未有公开计划显示该仓库将对外提供服务。

网络安全监控平台披露全球多地 OpenClaw 实例暴露风险

网络安全监控平台 OpenClaw Exposure Watchboard 近期披露了全球范围内多个公开可访问的活跃 OpenClaw 实例。监控数据显示,受影响实例广泛分布于中国大陆、新加坡、美国及德国等地,涉及阿里云(Alibaba Cloud)、腾讯云(Tencent Cloud)、百度云及 DigitalOcean 等主流云服务商。 部分暴露实例被检测出存在 CVE-2024-6387、CVE-2025-26465 等多项高危漏洞,并疑似与 APT28、APT41 及 Volt Typhoon 等威胁组织存在关联。该平台建议相关部署者立即启用身份验证,移除公网直接暴露并完成安全补丁更新。

OpenAI 发布 GPT-5.3 Instant,幻觉率最高降低 26.8%

OpenAI 发布 GPT-5.3 Instant,对 ChatGPT 日常对话模型进行更新。新版本重点改进三项体验:减少不必要的拒绝回答、提升网络搜索结果质量,以及降低幻觉率。内部评测显示,在医疗、法律、金融等高风险领域,启用网络搜索时幻觉率较前代降低 26.8%,仅依赖内部知识时降低 19.7%;基于用户反馈标注的评测中,两项数据分别为 22.5% 和 9.6%。 GPT-5.3 Instant 即日起向所有 ChatGPT 用户开放,开发者可通过 API 以 gpt-5.3-chat-latest 调用。GPT-5.2 Instant 将在付费用户的旧版模型选项中保留三个月,并于 2026 年 6 月

Google 发布 Gemini 3.1 Flash-Lite,定价每百万输入 Token 0.25 美元

Google 推出 Gemini 3.1 Flash-Lite,定位为 Gemini 3 系列中速度最快、成本最低的模型。面向高并发开发者工作负载设计。该模型定价为每百万输入 Token 0.25 美元、每百万输出 Token 1.50 美元,现已通过 Google AI Studio 的 Gemini API 及 Vertex AI 向开发者和企业开放预览。 据 Artificial Analysis 基准测试,3.1 Flash-Lite 首 Token 响应速度较 2.5 Flash 提升 2.5 倍,

Apple 官网监管文件意外曝光新款低价 MacBook,命名为"MacBook Neo"

Apple 官网一份监管文件意外披露新款低价 MacBook 的名称为"MacBook Neo"(型号 A3404),该链接在曝光数分钟后即遭删除。 据悉,MacBook Neo 将搭载 A18 Pro 或 A19 Pro 等 iPhone 系列芯片,配备 12.9 英寸屏幕,并提供黄、绿、蓝、粉等多种配色,起售价预计在 599 至 799 美元之间。Apple 计划于 3 月 4 日在纽约、伦敦及上海举办"Apple Experience"媒体体验活动,以新闻稿形式发布,不设直播。

研究显示主流 AI 模型在战争模拟中倾向部署核武器

伦敦国王学院(King’s College London)最新研究显示,GPT-5.2、Claude Sonnet 4 及 Gemini 3 Flash 在地缘政治危机模拟中表现出极高的核升级倾向。在 21 场模拟兵棋推演中,AI 模型在 95% 的案例中部署了战术核武器,且在任何情况下均未选择投降。 研究指出,AI 缺乏人类对核禁忌的感知,且在 86% 的冲突中因误判导致意外升级。专家担心,AI 无法理解人类语境下的“利害关系”,可能在极短时间内加剧冲突风险。目前,OpenAI、Anthropic 及 Google 尚未对此置评。