Notebookcheck Logo

OpenAI 担心用户对其聊天机器人产生感情

OpenAI 的早期测试显示了一些令人担忧的结果(图片来源:OpenAI)
OpenAI 的早期测试显示了一些令人担忧的结果(图片来源:OpenAI)
最近为 ChatGPT 推出的 GPT-4o 因其类似人类的交互方式而备受赞誉。不过,这也让 OpenAI 担心用户会与它产生情感联系。该公司表示,现在将对聊天机器人进行监控和调整,以防止人们对它产生感情。
AI

GPT-4o 作为作为 ChatGPT 的改进版而推出。自推出以来,人们对 ChatGPT-4o 的类人互动赞不绝口。虽然这听起来很不错,但 OpenAI 注意到了一个问题:人们开始把聊天机器人当作人类来对待,并形成了情感纽带。

OpenAI观察到人们使用的语言 "可能表明正在形成联系"。该公司指出,它发现人们使用的语言表达了 "共同的纽带"。之所以说这是个坏消息,主要有两个原因。

首先,当 ChatGPT-4o 看起来像人类时,用户可以无视聊天机器人产生的任何幻觉。人工智能幻觉基本上是指模型产生的错误或误导性输出。这可能是由于训练数据有缺陷或不足造成的。

其次,与聊天机器人的类人互动可能会减少用户之间的真实社交互动。OpenAI 表示 聊天机器人互动可能对 "孤独的人 "有益,但也可能影响健康的人际关系。该公司进一步指出,人们甚至可以在开始与人类交谈时,认为对方是一个聊天机器人。

这就不好了,因为 OpenAI 设计的 GPT-4o 会在用户开始说话时停止说话。考虑到所有这些问题,该公司表示现在将监控用户如何与 ChatGPT-4o 建立情感纽带。OpenAI 还表示,它将调整 模型在必要时进行调整。

从亚马逊购买 PLAUD Note 人工智能语音记录器

资料来源

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 08 > OpenAI 担心用户对其聊天机器人产生感情
Abid Ahsan Shanto, 2024-08-12 (Update: 2024-08-15)