如果机器能够自行进化,会出现什么样的情况??
“技术的进化一直摇摆于物理学和生物学两种模式之间”……“关键是要确定技术进化论和生物进化论之间切实可行的类比的界限”。法国当代哲学家贝尔纳·斯蒂格勒在《技术与时间——爱比米修斯的过失》一书中这样写道。如果觉得他的论述太过学院化,近期英国《自然》杂志对于人工智能的探讨,正为我们提供了一个融合物理学和生物学协同进化的绝佳案例。
距1956年人工智能(Artificial Intelligence)概念的提出不过60年,而人们围绕人工智能展开的争论也随着技术的进步越来越白热化。有人断言,人工智能将是人类最伟大的发明,但或许也是最后一个发明。
人们一般将人工智能分为弱人工智能和强人工智能两类。前者按人类设定的固定程序行事,如工业机器人,已经得到了广泛应用。而人们谈论的人工智能大多是指后者,无论形貌如何,它们都拥有类似人类的智能,能自主学习,会独立思考、判断,能够感知世界并作出反应,进而选择不同的行为方式,甚至拥有情感和性格。这一直以来被认为只可能出现在科幻世界里,但根据一项对上百位人工智能专家的调查,他们预测,“人类级别”的人工智能将在2040年至2075年出现,也就是说,我们这一代或者我们的下一代,将有可能与人工智能共处。
进化无时无刻不在。最近几十年来,掌握基因密码的人类,开启了生物进化的加速模式,但同时也让一个悖论凸显出来——人类能够掌握的越多,不能掌控的将更多。对工具的完善,实际上也是人类自我进化的一种表现方式。这一次,同一悖论仍然适用——人类一旦创造了具有自我进化能力的人工智能,它还会在人类的控制之下么?
有关人工智能的梦魇,一次次在好莱坞电影中出现,尽管那些原本具备“人类终结者”能力的人工智能,最终都稀里糊涂地被人类击败。但现实中,似乎并不乐观。
从理论上说,与人类受生理条件制约不同,人工智能拥有容量更大的“大脑”、有更快的反应速度,如果有必要,也会拥有强健得多的“体格”……一旦突破技术奇点,人工智能的进化速度将远远超过人类自身。那么,人类是否还有资格控制比自己更加高级的生物?
早在1941年,美国科幻作家阿西莫夫就在自己的小说中确立了“机器人三原则”,其后又补充了“第零原则”,确保人工智能不得伤害人类、服从人的命令并在此两项前提下保证自身的安全。从那以后,“机器人三原则”被视为经典。可惜,这一经典只存在于纸面上和人们的头脑中。现实的反讽在于,人工智能最有可能率先登上舞台,竟然是人类相互杀戮的战场。美国加州大学伯克利分校的斯图尔特·罗素在《自然》杂志上撰文指出,那些不需要人类干预,就可以独立作决定的致命自主武器系统,有可能在未来几年内就出现在战场上。因此,研究人工智能的科学家对致命自主武器系统的研发表明自己支持或者反对的立场,已经是一个紧迫的问题。
这些战场上的人工智能将决定敌人的生与死。进而言之,有一天,它们会不会决定整个人类的生与死?
德国哲学家海德格尔说:“技术愈是有脱离人类统治的危险,对于技术的控制意愿就愈加迫切。”不知,这句话反过来说是否也一样成立——人类控制技术的意愿愈是强烈,技术也愈是有脱离人类控制的危险?
(作者:侯荆扉 原文刊发于《光明日报》2015年7月3日10版)返回光明网首页
王玉礼 优艾设计网_PS问答 2021-04-04 16:37
机器能够自行进化?既然机器没有基因,就不可能发挥突变式的进化了。那么要让其自行进化就得赋予其思维,让他们自行组装改进自我。这种情景在很多电影里面也出现过,可能出现人与机器人大战,后果难以想象。
任超 优艾设计网_Photoshop论坛 2021-04-04 16:39
机器自行进化前提就是有个超强的智能大脑,可以学习人类思维并且自行总结学习,人类是有很多弱点的,这种智能机器一旦能研发出来,还得受制于人才可,不然后果不堪设想。
精彩评论