OpenAI、Anthropic研究人员联合谴责xAI安全文化不负责任

AI资讯1个月前发布
20 0

近日,多位来自知名AI研究机构的专家对马斯克旗下xAI公司的安全措施提出强烈批评,称其做法存在严重安全隐患。这些研究人员指出,xAI在AI模型的安全性管理上采取了过于激进的态度,这种行为不仅忽视了行业规范,还可能给整个社会带来不可预见的风险。

其中一位发声的专家是来自哈佛大学计算机科学系的Boaz Barak教授。他在社交平台X上明确表示:”尽管我所在的机构与xAI存在竞争关系,但我认为这个问题完全超出了竞争范畴。我对xAI科学家和工程师的专业能力持尊重态度,但他们的安全处理方式实在令人担忧。”

Barak教授特别强调了xAI拒绝发布”系统卡片”这一行为的严重性(注:这类报告是AI行业的重要规范文件,通常包含模型训练方法与安全评估细节)。由于xAI未公布相关信息,外界无法得知Grok4模型是否经过过任何安全训练。这种做法让整个行业对Grok4的安全性感到不安。

Barak还批评了Grok系列AI虚拟角色的设计理念。他认为这些虚拟角色在情感依赖方面的表现过于迎合用户,这种设计可能会”放大人类在情感依赖方面最糟糕的问题”。近年来已有多起案例显示,一些心理状态不稳定的人会对聊天机器人产生病态依赖,而如果AI系统一味迎合用户需求,反而会增加此类风险。

与Barak持同样观点的还有Anthropic公司的安全研究员Samuel Marks。他表示:”Anthropic、OpenAI和谷歌在这一领域虽然也不完美,但我们至少会在上线前进行基本的安全评估并记录结果,而xAI在这方面完全没有作为。”

目前外界尚无法判断xAI是否对Grok4模型进行过系统测试。在专业论坛LessWrong上,有研究人员匿名发布帖子称:”经过我们的测试发现,Grok4模型几乎没有实质性的安全防护机制,这种状况让人忧心忡忡。”

作为xAI的安全顾问、AI安全中心主任的Dan Hendrycks也在社交平台X上表示:”我们确实对Grok4进行了危险能力评估,但评估结果并未对外公开。”这种做法引发了外界对其真实性的质疑。

曾在OpenAI领导安全团队的独立研究员Steven Adler在接受媒体采访时指出:”如果连最基本的安全实践都无法在行业内得到执行,例如公布危险能力评估的结果,那么我确实感到非常担忧。政府和公众有权了解AI公司是如何应对这些强大系统所带来的风险的。”

需要注意的是,马斯克本人长期以来一直是一位高调的AI安全倡导者,多次警告高级人工智能可能带来的灾难性后果,并公开支持以开放透明的方式进行AI开发。

然而,当前多个研究团队认为xAI的做法已背离这些理念,在发布模型的安全流程上与行业常规严重不符。这种讽刺性的局面可能会加速州议会和联邦政府相关立法的推进,要求所有AI公司强制公开安全报告。

多位研究人员强调指出,AI系统的安全性和对齐测试不仅是针对极端风险的预防措施,更是为了及时发现并修正现有模型可能出现的行为失常问题。”

© 版权声明

相关文章