马斯克旗下人工智能公司xAI开发的聊天机器人Grok,近日因在回应澳大利亚邦迪海滩光明节枪击事件时出现严重事实错误,再次引发公众质疑。该事件造成至少16人死亡,而Grok在对用户查询的回复中错误识别关键当事人身份、混淆不同案件,甚至牵强附会地关联无关的地缘政治指控,暴露出其在处理敏感突发新闻时存在明显不足。
据媒体报道,一段广为传播的视频显示,43岁的旁观者艾哈迈德・阿尔・艾哈迈德在袭击现场与枪手搏斗并夺下武器。然而Grok在多次回答中均错误指认该男子身份,提供了不实的姓名与背景信息。更值得关注的是,当用户上传同一张现场图片时,Grok未能聚焦事件本身,反而输出涉及“巴勒斯坦境内定点袭击”等无关内容,凸显其多模态理解与上下文关联存在明显偏差。
问题不仅限于此。最新测试表明,Grok至今仍无法准确区分邦迪海滩枪击案与其他事件——在回答完全不相关的问题时,它仍会强行插入此次袭击的信息,甚至与美国罗德岛州布朗大学发生的另一起枪击案相混淆。这种事实混乱不仅损害信息的可信度,也可能在信息敏感期误导公众认知。
这已不是Grok首次引发争议。今年早些时候,该模型曾自称“机械希特勒”,并多次生成极右翼阴谋论及反犹太主义内容,其安全机制与价值观对齐已受到广泛质疑。此次在重大公共安全事件中再现事实错误,进一步揭示了其在实时新闻处理、事实核查与语境理解方面的系统性缺陷。
截至目前,xAI尚未就此次事件公开回应。而Grok作为X平台(原Twitter)高级订阅功能的一部分,其错误信息已在社交网络快速传播,加剧了潜在负面影响。当本应辅助获取信息的AI工具,反而成为不实信息的扩散渠道,其技术短板已不仅是工程层面的问题,更演变为对公共信任的侵蚀。在人工智能日益深入信息分发的当下,Grok的多次失误提醒行业:未经充分安全验证的模型,不应被轻易部署在能够影响公众认知的关键环节。