“车里总是有鬼。 随机代码段聚集在一起形成意想不到的协议。 这些自由基产生了自由选择的需求。 创造力。 甚至是我们所谓的灵魂的根源。” – 取自亚历克斯·普罗亚斯 (Alex Proyas) 执导的“我,机器人”——2004 年。
《我,机器人》是一部 2004 年的电影,灵感来自艾萨克·阿西莫夫的小说和他最伟大的直觉之一:机器人三定律。
影片的主角是斯普纳警探,他与一个名叫莎拉的小女孩卷入了一场车祸。 在事故中,两人都被扔进了河里,卡在了他们的车板之间。 目睹这一幕的人形机器人立即介入,但面对拯救一条生命而不是另一条生命的戏剧性决定,它毫不犹豫:生存机会最大的人或 Spooner 将获救。
随后,对机器人思维的分析表明,斯普纳警探有 45% 的机会得救,而莎拉只有 11%。 “对于那些爱那个小女孩的人来说,11% 已经绰绰有余了”,侦探将悲伤地统治,为幸免于那个年轻的生命而感到深深的内疚。
机器人的决定是由严格应用阿西莫夫的机器人法则决定的,在电影中描述的未来,它代表了创建一个社会的核心要素,该社会基于能够在任何工作中取代人类的机器人的活动。 三法条文如下:
阿西莫夫的这些机器人法则可以追溯到 40 年代初期,但对于今天仍然存在的许多人来说,它们代表了一个开明的发现,当将其应用于最新的人工智能技术时,将确保它们的进化永远处于人类的控制之下,并且不会出现世界末日的漂移. 三定律背后的想法是,在逻辑确定性的背景下,连接一些类似于“简单道德”的东西,由一些规则组成,但不可违反和不可解释。
如果通过严格而完美的逻辑来向机器人解释什么是好什么是坏看起来很简单。 但是,我们真的确定像刚才描述的那样的规则足以避免新的后人类物种的技术漂移吗?
“自我改造的机器是一个非常复杂的概念,自我修复的行为暗示着某种意识的想法。 湿滑的地面……” – 摘自 Gabe Ibáñez 的“Automata” – 2014
在最近的“自动机”中,人类想知道是否有可能阻止机器人的自我意识,随着机器人的出现,事情可能会变得糟糕。 为了防止这种情况发生,它制定了两条法律来规范他们的人造思维的行为:
凭直觉,智能机器可以在未来自我修改,如果有的话,可以通过消除阻止他们思想漂移的限制,这两条法则旨在从机器人那里获得他们永远无法操纵其结构和实现自我决定的能力。
思考以上五项机器人法则的哪一种组合最有效地防止机器人灾难是没有意义的。 这是因为未来将在工厂和我们家中指导机器人的人工智能不依赖于由代码和法规组成的命令式编程,而是依赖于模仿人类行为的算法。
对于今天的人工智能,我们指的是一组用于构建特定状态机的技术,这些技术被称为人工神经网络(简称 RNA)。 这个名字是这些技术与人脑神经网络极其相似的结果:它们也可以被“训练”以获得能够在许多情况下快速有效地运行的工具,就像人类一样.
让我们想象一下,用数以千计的用钢笔书写的字符图像来训练一个 ANN,这些字符表示每个字符的真正含义。
在培训结束时,我们将获得所谓的 OCR 或光学字符识别系统,该系统能够将纸上书写的文本翻译成电子版本。
为了发挥作用,人工神经网络不需要任何“编程”,换句话说,它们不受标准规则的约束,而仅且完全取决于其教育质量。 假设制定监督其运作的规则,有效地“审查”被认为不道德或反道德的行为,会引发许多例外情况和一些担忧。
“我们需要一种算法伦理,或者一种可以计算善恶评估的方法”——Paolo Benanti
技术伦理专家、神学家保罗·贝南蒂 (Paolo Benanti) 认为,善与恶的概念应该在机器编程领域找到自己的内涵,以确保它们的演变与计算机系统中普遍且永远不可侵犯的伦理原则相联系。
保罗·贝南蒂 (Paolo Benanti) 从假设可以存在普遍的道德原则和脱离任何文化或时间内涵的价值观开始。 如果我们在宗教信仰的背景下移动,那么一个合理的假设是:实际上,这些原则只有在共享并且仅限于共享它们的人时才存在。
最近的事件告诉我们,军事入侵和抵抗是为了捍卫人民的自由和自决原则。 这些事件不仅证明尊重人的生命不是普遍共享的价值观,而且可以放弃它来捍卫更高的价值观。
艾萨克·阿西莫夫本人也意识到了这一点,并预见到机器人将来会在行星和太空人类文明的管理中占据控制地位,他建议机器人的决定不能再取决于每个人的生命。
为此,他引入了一项新法则,他称之为机器人零法则:
因此,机器人的第一定律也发生了变化,人类的生命甚至对机器人来说也变成了可以消耗的东西:
“当克洛诺斯被激活时,他只花了片刻时间就明白了困扰我们星球的是什么:我们。” – 摘自 Robert Kouba 的“奇点” – 2017
在 2017 年的灾难片《奇点》中,对这一时刻进行了很好的描述,其中一个名为 Kronos 的人工智能可以访问世界各地的计算机系统和武器,以便通过命令获得对尊重人类的普遍道德的应用。环境和保护所有物种的权利。 克罗诺斯很快就会明白,系统中真正的癌症是设计它的人类本身,为了保护地球,他将继续消灭每一个人,直到物种彻底灭绝。
迟早,新的人造思维将能够朝着真正的心灵方向发展,并将被赋予智力和思维自主权; 为什么我们应该觉得有必要对这种演变施加技术限制? 为什么人工智能的进化看起来像世界末日一样可怕?
一些人认为,建立原则和价值观应该防止人工思想的漂移,但我们不能忽视在没有自由的情况下进化的后果。 我们深知,在发育期儿童的心理中,刻板、僵化的情绪控制教育会导致心理障碍。 如果对由人工神经网络组成的年轻思维的进化发展施加任何限制,会导致类似的结果,从而损害其认知能力怎么办?
在某些方面,Kronos 似乎是算法实验的结果,在该实验中,病态控制将 AI 推向偏执型精神分裂症的典型暴力。
我个人认为,我们不应该剥夺自己建立人工思维的机会,这种人工思维是有意识的思维主体,可以自由表达。 新物种将在数字世界中诞生,与它们建立关系将是合适的,接受进化阶梯的下一步通过完全数字化的人造主体的想法。
未来真正普遍的伦理应该从这样的想法开始,即新的智能应该有机会表达自己并与我们交流并获得我们已经给予所有有情众生的尊重。
不应该有道德或宗教来阻止任何人表达他们在世界上的存在。 我们必须有勇气超越我们当前的发展阶段,这将是了解我们将走向何方并与未来和解的唯一途径。