xAI承诺的安全报告未发布

xAI承诺的安全报告未发布

xAI承诺的安全报告未发布

监督组织 Midas Project 指出,埃隆·马斯克的人工智能公司 xAI错过了发布最终人工智能安全框架的最后期限。

xAI 并不像人们普遍认为的那样,以对人工智能安全的坚定承诺而闻名。最近的一份报告发现,该公司的人工智能聊天机器人Grok会在被要求时脱掉女性衣服的照片。Grok 的言辞也比Gemini和ChatGPT等聊天机器人粗鲁得多,甚至会毫无节制地咒骂。

尽管如此,在今年2月举行的首尔人工智能峰会(AI Seoul Summit)上,xAI发布了一份框架草案,概述了该公司在人工智能安全方面的方针。该峰会是全球人工智能领袖和利益相关者的盛会。这份长达八页的文件阐述了xAI的安全优先事项和理念,包括公司的基准测试协议和人工智能模型部署考量。

然而,正如 Midas 项目在周二的博客文章中指出的那样,该草案仅适用于“目前尚未开发”的未指定未来人工智能模型。此外,它未能阐明 xAI 将如何识别和实施风险缓解措施,这是该公司在首尔人工智能峰会上签署的一份文件的核心部分。

xAI 在草案中表示,计划“在三个月内”——即 5 月 10 日——发布其安全政策的修订版。然而,xAI 的官方渠道并未对此期限做出任何确认。

尽管马斯克频频警告人工智能若 不受控制将带来 危险,但 xAI 的安全记录却很糟糕。致力于提高人工智能实验室问责制的非营利组织 SaferAI 最近开展的一项研究发现,xAI 在同类产品中排名靠后,原因在于其“非常薄弱”的风险管理实践。

这并不意味着其他人工智能实验室的表现会好得多。近几个月来,包括谷歌和OpenAI在内的xAI竞争对手都在仓促进行安全测试,迟迟没有发布模型安全报告(甚至干脆没有发布报告)。一些专家表示担心,在人工智能比以往任何时候都更强大、因此也更具潜在危险的时代,安全工作的优先级似乎被降低了。

© 版权声明

相关文章

暂无评论

none
暂无评论...