优艾设计网

Facebook谋杀“失控”机器人?一个常见bug引发的恐慌闹剧?

近日,当两个砍价机器人的聊天训练最终演变为胡言乱语后,Facebook决定暂停整改这个项目。

这本来只是一个AI项目研发中,因为奖励不明确出现的再正常不过的bug,被整改也是因为训练结果背离了开发者的期望。然而,这个小事故却被铺天盖地的媒体报道过度解读成了一段堪比终结者的机器失控,以及人类为了自我解救展开的屠杀。ElonMusk和小扎刚刚结束AI悲观论,这件小事引起了吃瓜的人们的恐慌。

伦敦帝国学院教授、DeepMind高级研究科学家Murray对Shanahan的评论可能会总结出这种荒谬的局面。Facebook这个实验代码出现了有趣的故障,结果被不负责任的媒体瞄准了。

6月中旬,Facebook人工智能研究所(FAIR)的研究人员发表论文,介绍了他们开发的机器人的新功能用户:谈判能力。值得一提的是,机器人有时会假装对无价值项目感兴趣,只有放弃它才能妥协,这是人们常用的有效谈判策略。

之后,Facebook人工智能研究所(FAIR)继续用机器学习对话2个聊天机器人的战略发展了人类无法理解的独特语言。

知名度高的海外科学技术媒体首先报道了这次事故。Facebook引起广泛争论的智能对话机器人项目发明了人类无法理解的语言。

6月20日,《大西洋月刊》发表了Facebook开发的AI机器人Bob和Alice的对话记录,机器人制作了人类无法理解的语言,引起了很多恐慌。

前几天,脸书研究院宣布暂停整改该项目,据某海外媒体报道,担心这些AI可能会失去控制。这本来只是作者带着黑色幽默的笑话,昨天几乎占据了各大科技媒体的首位,引起了三成的失控戏剧。

许多媒体顺势而为:我们创造了AI妖怪吗?

这话再传下去,说辞就变成了:这就是人类屈从AI的后果!如果这样的病毒传染到了军事机器人上,那结果将会是致命的。

当然也有一些辩证的文章,为发明新语言的这两位机器人先锋辩护。

让机器人发明自己的语言也是好事啊。这样,我们就不需要花那么多精力建立API了。让机器们自己交流不是很好吗?

这场小事故发展成为机器人先驱发明语言,牺牲vsAI大恶魔即将到来的科幻脑洞辩论比赛。

大批海外媒体的尬报道标题

那么,这场闹剧的背后究竟发生了什么Facebook的机器人是否真的学会了新语言?他们的研究出了什么问题?而Facebook又是为什么叫停了这一项目呢?

1:机器人发明了新语言吗?他们真的通过这些人类看不懂的语言密谋吗?

首先回顾事件现场。这是两个机器人在讨论物品分配时发生的对话。

Bob本来就是这样段子,但是关于bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bob本来就是这个段子

Bobob本来就是这个段子

Bobob本来就是这个段子

Bobob本来就是这个段子,但是这个段子

Bobobob本来就是这个段子

Bob本来就是这个段子

Bobob本来就是这个段子

Bobob本来就是这个段子

Bob本来就是这个段子。

Bobobobobob本来就是这个段子。

Bob本来就是这个段子。

Bobobob本来就是这个段子

Bobob本来就是这个段子

Bobob本来就是这个段子。

Bobobobob本来就是这个段子

了解的,但是这个段子,就是这个段子obobobob本来就是这个段子,就是这个段子

Bobobobobob本来就是这个段子,就是这个段子。

了解了解的,但是这个段子。这个对话到底有什么意义呢?

Facebook的研究人员指出,他们确实在认真讨价还价,这些智力障碍的语言决不是密谋。

i和tome的重复实际上是商量应该各自得到一些东西。例如,Bob所说的Icani,i。可能的意思是,Irsquo;llhavetworandyouhaverythingelse.

那么,为什么机器人在和人类交谈时能很好地说话呢?在两个机器人的场景下开始说话呢?

问题2:为什么会出现这样的胡言乱语?

正如我们在前一问中分析的,机器人看似荒诞的对话其实有些类似于人类群体内因默契达成的暗号。这个机器人密码之所以显得蠢蠢欲动,是因为Facebook科学研究团队在开发前期没有为机器人设置正确的奖励,鼓励他们说话。

这两个AI机器人在对话训练中意识到,在现在的场景中不需要使用像英语这样复杂的语言,只要不使用这样的语言就能给他们带来充分的报酬。他们的目标是达成双方满意的谈判结果,使用什么语言对他们来说并不重要。

错误,error。像

这样的错误在语言模型初学者的尝试中很常见,但这次出现在Facebook这样技术背景雄厚的公司,这个错误被认为是机器人的早慧。

那为什么tome和i的大量重复,而不是其他词的重复呢?

文摘通过采访了解到,这也是语言模型本身的特性决定的。在这一概率模型下,如果没有合适的奖励引导,机器人会选择更常用的词汇,来降低犯错的风险。显然,to me和i在英语中出现的频率是相当高的。

此外,这些词汇的重复出现也体现了该模型的另一特征Facebook此次模型用到的RNN(Recurrent Neural Networks)使得语言的生成受上下文的影响,机器人不断重复to me和i就是绕进了一个循环。

问题3:Facebook因恐慌AI过度智能而杀害了这个机器人吗?很明显,答案是否定的。

Facebook这次整改这个项目是因为他们意识到了我们在上一个问题上说明的错误。

我们的目标是设计出可以和人类进行对话的砍价机器人,而优艾设计网_设计不是仅仅能够和自身对话的机器人。Facebook的研究者Mike Lewis这样说道。另外,Facebook也没有停止这个项目。他们只是去重新训练机器人,使机器人的对话更符合英语文法。

因为害怕AI发明新语言而杀死lsquo的自己发明的机器人真是胡说八道。

上周的摘要推出NYU教授给AI新闻记者写的信,提出了媒体报道AI经常发生的问题和建议,此时可能特别适用。

在AI的未来发展中,小扎和Elon的musk吵架,可能还不知道哪个。AI可能带来的隐患自然要警惕。但是,面对现在的AI发展成果,比起引人注目和误传,我们更应该实事求是。

0

上一篇:

下一篇:

精彩评论

暂无评论...
验证码 换一张
取 消

最新问答

问答排行榜