“車裡總是有鬼。 隨機代碼段聚集在一起形成意想不到的協議。 這些自由基產生了自由選擇的需求。 創造力。 甚至是我們所謂的靈魂的根源。” – 取自亞歷克斯·普羅亞斯 (Alex Proyas) 執導的“我,機器人”——2004 年。
《我,機器人》是一部 2004 年的電影,靈感來自艾薩克·阿西莫夫的小說和他最偉大的直覺之一:機器人三定律。
影片的主角是斯普納警探,他與一個名叫莎拉的小女孩捲入了一場車禍。 在事故中,兩人都被扔進了河裡,卡在了他們的車板之間。 目睹這一幕的人形機器人立即介入,但面對拯救一條生命而不是另一條生命的戲劇性決定,它毫不猶豫:生存機會最大的人或 Spooner 將獲救。
隨後,對機器人思維的分析表明,斯普納警探有 45% 的機會得救,而莎拉只有 11%。 “對於那些愛那個小女孩的人來說,11% 已經綽綽有餘了”,偵探將悲傷地統治,為倖免於那個年輕的生命而感到深深的內疚。
機器人的決定是由嚴格應用阿西莫夫的機器人法則決定的,在電影中描述的未來,它代表了創建一個社會的核心要素,該社會基於能夠在任何工作中取代人類的機器人的活動。 三法條文如下:
阿西莫夫的這些機器人法則可以追溯到 40 年代初期,但對於今天仍然存在的許多人來說,它們代表了一個開明的發現,當將其應用於最新的人工智能技術時,將確保它們的進化永遠處於人類的控制之下,並且不會出現世界末日的漂移. 三定律背後的想法是,在邏輯確定性的背景下,連接一些類似於“簡單道德”的東西,由一些規則組成,但不可違反和不可解釋。
如果通過嚴格而完美的邏輯來向機器人解釋什麼是好什麼是壞看起來很簡單。 但是,我們真的確定像剛才描述的那樣的規則足以避免新的後人類物種的技術漂移嗎?
“自我改造的機器是一個非常複雜的概念,自我修復的行為暗示著某種意識的想法。 濕滑的地面……” – 摘自 Gabe Ibáñez 的“Automata” – 2014
在最近的“自動機”中,人類想知道是否有可能阻止機器人的自我意識,隨著機器人的出現,事情可能會變得糟糕。 為了防止這種情況發生,它制定了兩條法律來規範他們的人造思維的行為:
憑直覺,智能機器可以在未來自我修改,如果有的話,可以通過消除阻止他們思想漂移的限制,這兩條法則旨在從機器人那裡獲得他們永遠無法操縱其結構和實現自我決定的能力。
思考以上五項機器人法則的哪一種組合最有效地防止機器人災難是沒有意義的。 這是因為未來將在工廠和我們家中指導機器人的人工智能不依賴於由代碼和法規組成的命令式編程,而是依賴於模仿人類行為的算法。
對於今天的人工智能,我們指的是一組用於構建特定狀態機的技術,這些技術被稱為人工神經網絡(簡稱 RNA)。 這個名字是這些技術與人腦神經網絡極其相似的結果:它們也可以被“訓練”以獲得能夠在許多情況下快速有效地運行的工具,就像人類一樣.
讓我們想像一下,用數以千計的用鋼筆書寫的字符圖像來訓練一個 ANN,這些字符表示每個字符的真正含義。
在培訓結束時,我們將獲得所謂的 OCR 或光學字符識別系統,該系統能夠將紙上書寫的文本翻譯成電子版本。
為了發揮作用,人工神經網絡不需要任何“編程”,換句話說,它們不受標準規則的約束,而僅且完全取決於其教育質量。 假設製定監督其運作的規則,有效地“審查”被認為不道德或反道德的行為,會引發許多例外情況和一些擔憂。
“我們需要一種算法倫理,或者一種可以計算善惡評估的方法”——Paolo Benanti
技術倫理專家、神學家保羅·貝南蒂 (Paolo Benanti) 認為,善與惡的概念應該在機器編程領域找到自己的內涵,以確保它們的演變與計算機系統中普遍且永遠不可侵犯的倫理原則相聯繫。
保羅·貝南蒂 (Paolo Benanti) 從假設可以存在普遍的道德原則和脫離任何文化或時間內涵的價值觀開始。 如果我們在宗教信仰的背景下移動,那麼一個合理的假設是:在現實中,原則只有在共享並且僅限於共享它們的人時才存在。
最近的事件告訴我們,軍事入侵和抵抗是為了捍衛人民的自由和自決原則。 這些事件不僅證明尊重人的生命不是普遍共享的價值觀,而且可以放棄它來捍衛更高的價值觀。
艾薩克·阿西莫夫本人也意識到了這一點,並預見到機器人將來會在行星和太空人類文明的管理中佔據控制地位,他建議機器人的決定不能再取決於每個人的生命。
為此,他引入了一項新法則,他稱之為機器人零法則:
因此,機器人的第一定律也發生了變化,人類的生命甚至對機器人來說也變成了可以消耗的東西:
“當克洛諾斯被激活時,他只花了片刻時間就明白了困擾我們星球的是什麼:我們。” – 摘自 Robert Kouba 的“奇點” – 2017
在 2017 年的災難片《奇點》中,對這一時刻進行了很好的描述,其中一個名為 Kronos 的人工智能可以訪問世界各地的計算機系統和武器,以便通過命令獲得對尊重人類的普遍道德的應用。環境和保護所有物種的權利。 克羅諾斯很快就會明白,系統中真正的癌症是設計它的人類本身,為了保護地球,他將繼續消滅每一個人,直到物種徹底滅絕。
遲早,新的人造思維將能夠朝著真正的心靈方向發展,並將被賦予智力和思維自主權; 為什麼我們應該覺得有必要對這種演變施加技術限制? 為什麼人工智能的進化看起來像世界末日一樣可怕?
一些人認為,建立原則和價值觀應該防止人工思想的漂移,但我們不能忽視在沒有自由的情況下進化的後果。 我們深知,在發育期兒童的心理中,刻板、僵化的情緒控制教育會導致心理障礙。 如果對由人工神經網絡組成的年輕思維的進化發展施加任何限制,會導致類似的結果,從而損害其認知能力怎麼辦?
在某些方面,Kronos 似乎是算法實驗的結果,在該實驗中,病態控制將 AI 推向偏執型精神分裂症的典型暴力。
我個人認為,我們不應該剝奪自己建立人工思維的機會,這種人工思維是有意識的思維主體,可以自由表達。 新物種將在數字世界中誕生,與它們建立關係將是合適的,接受進化階梯的下一步通過完全數字化的人造主體的想法。
未來真正普遍的倫理應該從這樣的想法開始,即新的智能應該有機會表達自己並與我們交流並獲得我們已經給予所有有情眾生的尊重。
不應該有道德或宗教來阻止任何人表達他們在世界上的存在。 我們必須有勇氣超越我們當前的發展階段,這將是了解我們前進的方向並與未來和解的唯一途徑。
Casaleggio Associati 發布了義大利電子商務年度報告。題為「人工智慧商務:人工智慧電子商務的前沿」的報告...