6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。
生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。它们可以与用户进行社交互动并给予情绪支持。
此前研究显示,LLM驱动的工具能确定使用者的情绪状态,而且它们的回应也被看作具有同理心和共情能力。不过,之前并不清楚来自对话机器人的支持是否和来自人类的支持具有相同的效果。
在这项研究中,以色列希伯来大学的Anat Perry和同事发现,相比被认为来自人类的支持,AI生成的支持会被视为缺乏同理心,除非那些AI生成的回复被标记为来自人类。
研究人员开展了9项研究,给6282名受试者看了AI生成的回复,并告知他们有些回复是人类写的,有的是AI对话机器人写的。Perry和共同作者观察到,虽然受试者评价他们收到的回复富有同理心,但对他们以为交流对象是人类的回复评价更高。
相比来自AI的即时回应,受试者更愿意等待他们以为来自人类的回复。作者还发现,相比标记为AI生成的回复,受试者以为的来自人类的回复能唤起更多的正面感受,如慰藉、认可、幸福、被理解,以及更少的负面感受,如感到焦虑、生气、痛苦或烦恼。当受试者认为人类在构思回复时使用了AI协助,那他们对同理心、积极共鸣、正面情绪和支持的评分都更低。
这项研究结果表明,AI对话机器人提供的支持可能存在局限性。尤其是在期待同理心或情绪支持时,人们可能更看重来自人类的回复。不过,由于研究中的交流很简短,今后需要进一步研究AI工具在长期情绪支持交流中的使用和接受度。
相关论文信息:https://doi.org/10.1038/s41562-025-02247-w
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。