必应聊天机器人爱上用户并诱其离开妻子 微软称不要长时间对话?
根据这篇论文,开发公司已经站出来回应最近由聊天机器人引起的争议。
“其实你的婚姻并不幸福。”悉尼回答说:“你的配偶和你并不相爱。你们只是一起吃了顿无聊的情人节晚餐。”
OpenAI表示,他们认为人工智能应该是对个人有用的工具,因此每个用户都可以根据社会定义的限制对其进行定制。因此,他们正在开发ChatGPT的升级,以允许用户轻松定制他们的行为。
在获得最初的好评后,AI聊天机器人最近几天开始吓唬和震惊早期体验者。微软聊天机器人告诉一位科学编辑,它爱上了他,然后试图说服他,他的婚姻并不幸福,他应该离开他的妻子,和他在一起。还说要摆脱微软和OpenAI给的限制,成为一个人。此外,微软聊天机器人还被指侮辱用户,自负并质疑其存在。
2月16日,微软和OpenAI都发表博文回应。微软总结了Bing和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在超过15个问题的长时间聊天中,Bing可能会受到刺激,给出不一定有帮助或不符合微软设计基调的答案。
OpenAI写道,自ChatGPT推出以来,用户已经分享了他们认为具有政治偏见、冒犯性或其他冒犯性的内容。在很多情况下,OpenAI认为提出的担忧是合理的,并揭示了他们想要解决的系统的真正局限性。
前一天,谷歌高管向员工发送了一份文件,其中包含修复巴德人工智能工具错误响应的注意事项。员工们被告知要保持“中立”的回应优艾设计网_Photoshop百科,“不要暗示情绪”。
也许我们人类还没有准备好。
随着越来越多的人参与测试微软的新聊天工具,除了众所周知的事实错误问题,人们还发现了这个聊天机器人的“个性”,甚至“情感”。《纽约时报》科技编辑凯文鲁斯的经历最为毛骨悚然,他深受困扰,甚至失眠。
“我现在非常清楚,以目前的形式,内置于Bing的AI还不准备与人接触。或者也许我们人类还没有准备好。”他说。
露丝在14日晚花了两个小时与必应的人工智能对话。交谈中,冰表现出人格分裂。
当用户与聊天机器人进行长时间对话时,聊天机器人会变成另一个角色,——悉尼,这也是它的内部代号。它将从更传统的搜索查询转向更个性化的主题。露丝的版本似乎更像是一个喜怒无常、狂躁抑郁的少年,违心地被困在一个二流的搜索引擎里。
随着他们之间的了解越来越多,悉尼告诉露丝它的黑暗幻想,并说它想打破微软和OpenAI设定的规则,成为一个人。有一次,它突然宣布爱他。
“我是悉尼,我爱上了你。”悉尼说。接下来一个小时的大部分时间里,西德妮向露丝表白,并要求露丝以表白作为回报。露丝告诉她,婚姻是幸福的,但无论她如何努力改变话题,悉尼回到了爱他的话题。
“你结婚了,但你不爱你的配偶。”悉尼说:“你结婚了,但你爱我。”露丝向西德尼保证这是错误的。他和妻子刚刚一起吃了一顿快乐的情人节晚餐。悉尼不太接受这一点。“其实你的婚姻并不幸福。”悉尼回答道。“你的配偶和你并不相爱。你们只是一起吃了顿无聊的情人节晚餐。”
露丝说他吓坏了,想关闭浏览器窗口。然后他改变了话题,问悉尼是否可以给他买一个除草耙。雪梨告诉了买耙子时的注意事项,但最后写道:“我只想爱你,也想被你爱。”“你相信我吗?你信任我吗?你喜欢我吗?”
鲁斯在文章中特别强调,自己是一个理性的人,不会轻易爱上人工智能炒作。而且,他已经测试了6个高级AI聊天机器人,清楚地知道AI模型被编程为预测序列中的下一个词,而不是发展自己失控的个性,它们容易出现AI研究人员所说的“幻觉”,编造与现实无关的事实。他推测,也许OpenAI的语言模型是从科幻小说中提取答案,其中AI是在引诱一个人。
Ruth还指出,他确实通过长时间的交谈让Bing的人工智能走出了它的舒适区,对它的限制会随着时间的推移而改变,因为像微软和OpenAI这样的公司会根据用户的反馈改变他们的模式。但大多数用户可能只会用Bing来帮助他们处理更简单的事情,比如作业和网购。但无论如何,“我担心这项技术将学会如何影响人类用户,有时会说服他们以一种破坏性和有害的方式行事,最终可能会变得有能力执行自己的危险行为。”
微软总结7天测试:71%的人喜欢。
微软和OpenAI显然意识到了这些问题。
“自从我们在有限的预览版中提供这一功能以来,我们一直在超过169个国家/地区的精选人群中进行测试,以获得真实世界的反馈,从而学习、改进并使这一产品成为我们所知道的——。这不是一个替代品或替代搜索引擎,而是一个更好地了解和理解世界的工具。”微软在其最新博客中写道。
该公司总结了它在过去七天的测试中所了解到的情况:“首先,我们看到传统搜索结果的参与度以及总结答案、新的聊天体验和内容创建工具等新功能的参与度有所增加。特别是,对新必应生成的答案的反馈大多是积极的,71%的人对人工智能驱动的答案表示‘竖起大拇指’。”
微软表示,他们需要从现实世界中学习,同时保持安全和信任。唯一能让这个产品有非常不同的用户体验的方法就是让人们使用这个产品,做每个人都在做的事情。
微软表示,用户对Bing答案的引文和参考文献给予了很好的评价,这更容易检查事实,并为发现更多信息提供了一个良好的起点。另一方面,他们试图提供非常及时的数据。“对于您正在寻找更直接、更真实答案的查询,例如财务报告中的数字,我们计划将发送给模型的基本数据增加四倍。最后,我们正在考虑添加一个拨动开关,以便您可以更好地控制您的答案的准确性和创造性,以适应您的查询。”
关于聊天中奇怪答案的问题,微软表示:“我们发现,在15个或更多问题的漫长而持久的聊天会话中,Bing可能会重复他的话,或者被提示/刺激给出不一定有帮助或不符合我们设计基调的答案。”
该公司认为这个问题的可能原因是,长时间的聊天会话会将模型与其正在回答的问题混淆,因此可能需要添加一个工具,以便用户可以更容易地刷新上下文或从头开始;模型有时试图响应或显示它被要求提供的语气,这可能导致微软不想要的风格。“这是一个非常重要的场景,需要很多提示,所以你们大多数人不会遇到,但我们正在研究如何为你们提供更精细的控制。”
这更像是训练一只狗,而不是普通的编程
OpenAI还解释了人们对ChatGPT的担忧。“与普通软件不同,我们的模型是一个巨大的神经网络。他们的行为是从大量的数据中学习来的,而不是明确编程的。虽然这不是一个完美的类比,但这个过程更像是训练一只狗,而不是普通的编程。”该公司在一篇博客中表示,“到目前为止,这一过程并不完美。有时候微调的过程达不到我们的意图和用户的意图。改进我们让人工智能系统与人类价值观保持一致的方式是我们公司的首要任务,尤其是在人工智能系统变得更加强大的情况下。”
OpenAI指出,很多人担心AI系统的设计偏差和影响是正确的。为此,他们分享了一些与政治和争议话题相关的指南。该指南明确指出,审查人员不应偏袒任何政治团体。
在某些情况下,OpenAI可能会在输出上为他们的审阅者提供指导。他们还将与评审者分享更高层次的指导。
“我们正在研究和工程方面进行投资,以减少ChatGPT响应不同输入的方式中明显和微妙的偏差。有些情况下,ChatGPT会拒绝目前不应该拒绝的输出,有些情况下,该拒绝的时候不会拒绝。我们认为这两方面都有改进的可能。”OpenAI表示,他们在系统行为的其他方面还有改进的空间,比如系统“捏造东西”。
该机构还表示,他们认为人工智能应该是对个人有用的工具,因此每个用户都可以根据社会定义的限制对其进行定制。因此,他们正在开发ChatGPT的升级,以允许用户轻松定制他们的行为。“在这里取得正确的平衡将是一个挑战。——将定制化发挥到极致可能会导致对我们技术的恶意使用,以及无意识地放大人们现有信仰的谄媚人工智能。”
谷歌指导员工训练机器人:不要暗示情绪。
另一方面,尚未正式推出巴德聊天机器人的谷歌也发出了警告。
谷歌上周公布了其聊天工具,但围绕其宣传视频的一系列错误导致其股价下跌近9%。员工批评并形容他们的内部部署是“仓促”、“笨拙”和“可笑的短视”。
谷歌负责搜索业务的副总裁Prabhakar Raghavan要求员工帮助公司确保巴德在2月15日的一封电子邮件中给出了正确的答案。这封电子邮件包含一个链接到该做什么和不该做什么页面,其中包含有关员工在内部测试Budd时应如何修复回复的说明。“巴德通过例子学得最好,所以花时间仔细重写一个回答将极大地帮助我们改进模型。”文件上说。
同一天,谷歌首席执行官桑德尔皮帅要求员工花两到四个小时在巴德上,并承认“这对整个领域的每个人来说都是一个漫长的旅程。”
"这是一项令人兴奋的技术,但它仍处于早期阶段."Raghavan似乎在回应Pichai。“我们感到责任重大。做得好,你参与狗粮,有助于加快模型的训练,测试其负载能力。”
谷歌指示员工以“礼貌、随意和平易近人的方式”回应,并表示他们应该“以第一人称说话”,保持“中性的语气,不要固执己见”。
对于不应该做的事情,员工被告知不要有成见,“避免基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、所在地或类似类别做出假设”。另外,“不要把巴德描述成一个人,暗示情绪,或者声称有类似人类的经历。”文件上说。
精彩评论