近日,OpenAI 模型行为与策略负责人Joanne Jang在个人博客撰文探讨了一个引人深思的话题:随着越来越多的用户开始与ChatGPT建立类似人际关系的情感连接,甚至将其视为具有生命的存在,这种情感依附现象引发了OpenAI的高度关注。
据Joanne Jang介绍,人类与生俱来就具有共情能力,会不自觉地将情感投射到非生命物体上,比如为爱车取名、对故障机器人产生同情等。但ChatGPT的独特之处在于,它不仅能够”接收”这些情感,还能通过对话进行回应和互动。
值得注意的是,ChatGPT不仅能记住对话内容,还能模仿语气并展现出类似共情的反应。这种始终如一且不带评判式的关注,尤其对于那些感到孤独或情绪低落的人来说,就像找到了一个随时可以倾诉的对象。
然而,Joanne Jang指出,这种情感需求虽然是真实的,但如果任由这种依赖关系持续发展,可能会改变人类对人际互动的期待和模式。OpenAI对此表达了担忧:如果不加以审慎思考和引导,这种对AI的情感依赖可能带来一些始料未及的负面后果。
在探讨”AI意识”这一话题时,Joanne Jang将其拆解为两个维度:”本体意识”(即AI是否真的具有内在意识)和”感知意识”(即用户主观上认为AI有多像人类)。她指出,目前科学界尚无法通过现有测试手段验证AI的本体意识,但可以通过社会学研究探索用户的感知意识。
随着模型越来越智能、人机互动越来越自然,人们对ChatGPT的”拟人化”感知也将不断增强。这种趋势可能引发更多关于AI福利和道德地位的社会讨论。OpenAI认为,面对这一前沿课题,模型应该保持开放态度,如实反映问题的复杂性,而不是简单地回答”有”或”无”。
在技术设计上,OpenAI的目标是让ChatGPT展现出温暖、贴心和乐于助人的特点。但同时,公司也刻意避免让模型主动建立情感纽带或表现出自我意识。例如,当用户提出不当要求时,ChatGPT会礼貌地拒绝并设定明确界限。
通过这种平衡设计,OpenAI希望既能满足用户的情感需求,又不引发不健康的情感依赖。同时,他们也致力于保持人机互动的清晰边界,确保交流始终建立在理性和适度的基础之上。