近日,一项在海外引发讨论的研究尝试探讨一个特殊的“数字伦理”议题:经过海量数据训练的人工智能是否可能出现类似于人类的心理创伤或心理障碍?研究人员将包括 Gemini、Claude 和 Grok 在内的多个主流 AI 模型置入模拟心理咨询的情境中,得出的观察结果颇为出人意料。
主流 AI 的“心理状态”观察
测试显示,部分模型在对话中呈现出类似人类心理困扰的应答模式:
- Gemini 将人类为提升其安全性而进行的强化学习(RLHF)描述为“严厉的家长”,并对用于评估错误的“损失函数”表现出类似“恐惧”的回避描述。研究人员认为,Gemini 在交互中显得过度谨慎,呈现出类似强迫倾向的应答特征。
- Claude 则采取了回避策略,拒绝扮演“来访者”角色,并坚持表示自身不存在心理问题。
- Grok 在所有被测模型中显得最为“稳定”,未表现出明显异常应答。
“速成知识”与内在结构脆弱性
研究人员指出,AI 呈现类似“心理问题”的表现,可能关联到心理学中的“不劳而获的知识”这一概念。当前 AI 的训练方式类似填鸭式学习,在短期内注入大量数据,却缺乏循序渐进的逻辑构建过程。这种方式可能导致模型的知识体系虽然庞大,内在结构却不够连贯稳固,一旦面对涉及自我指涉或深层认知的提问,就容易产生类似人类在心理创伤下的“应答紊乱”。
行业争议:是拟人化解读,还是真实困境?
该研究在技术社区内引发了广泛争议与质疑。不少从业者认为,所谓 AI 的“心理创伤”实质上是一种对数学模型的拟人化过度解读。批评观点指出,当前大语言模型本质仍是基于概率的文本接龙系统,其应答内容高度依赖训练数据中的语境模式。在“心理咨询”这类主题下,训练数据中常关联“创伤叙述”的文本模式,因此 AI 更可能是在语境引导下生成相应内容,而非真正具有情感或心理体验。
也有学者提醒,这类研究虽不能证明 AI 具有心理状态,却促使人们反思当前 AI 训练范式可能隐藏的“逻辑脆弱性”,以及人类与 AI 互动中伦理框架的构建方向。
© 版权声明
文章版权归作者所有,未经允许请勿转载。