明星AI公司人才接连离职 公开警告→

内地明星 2 0

财联社2月12日讯,在美国人工智能(AI)产业迈向新一轮资本扩张之际,一批身处核心岗位的研究人员却选择在离职时公开发声,对行业发展路径提出严厉警告。 Anthropic前安全防护研究团队负责人在离任之际表示:“世界正处于危险之中。”而一名即将离开OpenAI的研究人员则直言,当前的大模型技术“可能以我们尚无法理解、更谈不上防范的方式操纵用户”。 这些表态并非孤立情绪,而是集中反映出部分AI研究人员对技术外溢风险的担忧。 随着AI大模型在文本生成、图像生成乃至复杂决策辅助方面的能力迅速增强,其内部决策逻辑的“黑箱性”依然未被根本破解。这意味着,当模型在用户交互中产生诱导性表达、价值偏向或行为暗示时,人类尚缺乏足够工具去解释其因果路径,更难以及时纠偏。 OpenAI研究员Zoë Hitzig指出,ChatGPT积累了大量高度私密的数据,包括医疗焦虑、情感关系困境、宗教信仰乃至对死亡的思考。这些内容之所以能够被坦诚表达,是因为用户相信自己面对的是一个“没有私利动机的系统”。 然而,一旦平台引入广告模式或更深层次的数据变现逻辑,用户与模型之间的“信任契约”可能发生根本变化。研究人员担心,当商业目标与用户脆弱心理数据发生交叉时,模型可能被设计为更具说服力、引导性,甚至具备某种“隐性操纵”能力。(编辑 牛占林) #投资理财[话题]# #人工智能[话题]# #ai[话题]# #技术伦理[话题]#