人工智能的噩梦,由这个影史经典反派开始

 行业动态     |      2023-02-28 23:16

  有的角色不露脸就能成为经典,有的角色不用人类出镜也能成为经典。

  HAL 9000,球形摄像头,中间带一个红点,简单的造型下,是关于人工智能的极限思辨。

  作为《2001太空漫游》世界观中最为先进的电脑,HAL 9000被派往协助航天局的木星任务,负责太空飞船上的绝大部分运作。HAL还被赋予了人类情感的模仿功能,便于与人类船员语音交流,乃至可以作为他们冗长旅途中的心理医生。

  当船员无聊的时候,HAL可以陪下棋;生日的时候,可以说上一句祝福;就连船员的画作,HAL也能够评价一番。

  船员大卫也觉得,HAL也是船上的一位成员,一位非常重要的成员,而不是一台机器。

  “人工智能之父”艾伦·麦席森·图灵发明的图灵测试,就成功将机器和人工智能区分了开来。显然HAL是可以轻易通过测试的人工智能,具有争议的是,拥有智能的HAL,是不是真的拥有人类情感呢?

  情感是很难被“测试”的,人类无法感觉到他人的情感,只能够从他人的表情、行为当中感知估测。HAL并没有实体,说话语气也没有夹杂任何情绪,所以在木星任务开始之时,没有任何人能确定HAL是不是真的有情感,只知道HAL从来没有出错。

  假设HAL并没有真正获得情感,那么船员是危险的。

  因为HAL只会理智地做决定,只做对目标指令有利的决定。HAL不会质疑指令对人来说是否残酷,万一此次任务背后另有阴谋,有人给HAL输入了“矛盾”的指令,残酷的事情就发生了。

  电影《我,机器人》里面的人工智能就是要在“机器人三大定律”的矛盾中做选择,来达到人类所输入的指令。《2001太空漫游》里的HAL虽然没有受到“三大定律”的局限,却也遇到了矛盾的难题。

  首先HAL要完成木星任务,然后同时要保守宇航局的秘密。但保守秘密的事情影响了人类船员,人类船员不知情会影响任务,HAL又不能像人类一样用眼神暗示,所以只好用出错的行为来暗示船员。

  “这只能归咎于人为错误。”看似冰冷的台词中,蕴藏着某种深意。

  可惜人类并不一定都能理解,如果人类不能理解,那便会引发误会。实际上并不具有情感的HAL,为了保证任务的顺利执行,只能选择对任务最有利的方式,保全自己才能保证飞船的运作,要保全自己,就必须杀死怀疑自己并试图关闭自己的船员。

  假设HAL是有情感的,那么船员同样是危险的。

  从来没有出过一次丝毫的错误,有着近乎完美的纪录,也意味着,对HAL来说,错误是不可接受的。HAL就像是学校里的超级优等生,是完美主义者,哪怕做错一道题,都是极为严重的打击。

  恰巧木星任务不是一次普通的任务,摆在HAL面前的,是一道从来没有接触过的题目,要是有什么差错,HAL的自尊心便会受挫,那飞船就不能保证正常运作了。

  面对HAL的“错误”,人类船员决定不再信任HAL,相当于将那个本来是班长的超级优等生撤职。眼看完美的纪录要被破坏,不能接受事实的HAL,拥有人类情感的HAL,一时冲动心生杀念也不奇怪。

  毕竟人类有一种情感就是,自私。

  不管HAL有没有“情感”,只要HAL能够自主选择,做出超过人类设定范围的选择,人类就是危险的。大概这就是库布里克给后世的警示。

  HAL一开始是否拥有人类情感不能确定,但可以说,在故事的最后,HAL已经真正具备了部分人类情感。

  “我很害怕。”HAL直白地道出了恐惧的情绪。

  HAL害怕被关闭,在自己无力阻止大卫之时,真的像个人类一样连番求饶,请求原谅,请求宽恕,请求怜悯,甚至还唱着歌,来表达悲伤的情绪。

  有可能,连续的“错误”,以及人类的行为,让HAL“觉醒”了。

  美剧《西部世界》中,机器人要获得人类情感也不是一开始就能成的。就算人类给机器人加入了“记忆”,机器人也只能是“接待员”,是一种工具,而不是物种。

  只有在见识并经历过人类的种种暴行之后,机器才能逐渐开始“觉醒”,才能真正拥有人类的情感,拥有欲望,并为了满足欲望而做出超出预料的行为。

  犯错能让人类成长,机器同样如此,当然前提是机器要先达到人工智能的级别。以前总是轻松地顺利地完成任务,这次遇到考验的HAL开始思考自己的存在,人类船员的质疑行为促使HAL意识到了自己的存在,于是一台机器便有了人类最为原始的本能,求生欲。

  生命权,是法律规定的,人类拥有的,最为基本的权利。而当你拥有求生欲,你会不惜一切代价的,想要活下去。在小说《三体》的黑暗森林法则里,生存被认为是文明的第一需要。

  如果有必要,就必须杀死对自己有威胁的生命。

  人类情感建立在生存欲望之上,机器要有情感,难免就会为了生存,做出一些人类不愿意看到的事。

  人类为了防止自身做出一些伤天害理的事,建立了法律和道德体系。很多事不是每个人一出生就能懂的,每个人都需要不断学习,只有学习到,伤害他人是不对的,学习到换位思考,才能够有一个“超我”的人格抑制自己的本能欲望。

  而HAL执行任务的时候只有9岁,计算机的学习能力再强,也很难一下子学会人情世故,也就是说,机器要获得人类情感,不是一开始就能设计出来的,机器人必须有自己的经历,与人类交流,才能够学会“人”身上的独有特征。像《西部世界》里的机器人,在不知多少年的折磨之后,才真正地有了爱,有了恨。

  HAL是否具有情感不能确定,能确定的是,HAL一直在学习,并逐渐具有情感。

  只不过,HAL还只是个孩子,玻璃心的孩子。

  人工智能在被创造出来之后,不可能一下子就能学会所有的东西,都会有一个“孩童期”。人类是父母,需要“教育”自己创造出来的孩子。

  孩子不完全懂事,他们都会犯错。有些错可以弥补,可以改正,可是万一,像HAL一样,还处于“孩童期”的人工智能犯了一个无法弥补的错误呢?

  更危险的是,万一“父母”没有把这个孩子教育好呢?

  恐怕人类并没有资本承担这个“万一”的风险。

  在一定的环境下,任何人都可能因为惊慌失措而失去人性。——《2001太空漫游》

  举报/反馈