“我們不能把導彈留在發射井裡,因為當計算機發出攻擊命令時,人們不會按下按鈕!” – 摘自約翰·巴德姆 (John Badham) 的電影“戰爭遊戲” – 1984 年
超級計算機 WOPR(戰爭行動計劃響應)是管理原子武器的最佳候選者。 美國總統本人打算將核武器的管理權委託給他,從而克服看似主要的國防問題:在發生原子戰爭時,一些下屬不願執行向朝鮮發射核導彈的命令。敵人。
人類經驗形成的文化背景無疑是對人們及其關係影響最大的因素。 文化不僅僅描述溝通規則,它 defi主體組織他們的思想、闡述他們的情感和發展他們的理想的方式本身就結束了。
但如果文化影響我們的每一個思想、感覺和行動,在某些情況下它可以被認為是一種限制。
文化不是天生的,而是與經驗同化的:社會規則、倫理和道德原則一旦獲得,將永遠制約人們,指導他們在任何情況下的個人選擇。
然而,在訓練人工智能時,經驗會轉化為計算機系統的輸入。 經驗被編入“記憶”中,在被收集、選擇和操縱後被管理到機器:百科全書、對話、在線內容被選擇並收集在“人類經驗”中,經過適當處理,成為指導的基礎。任何人工智能。 一旦在這種記憶的基礎上接受教育, 人工智能 將返回隨後的立場和意見作為輸出。
但是,如果我們訓練人工智能的記憶(文化)被操縱,就有可能先驗地確定方向是什麼 人工智能的 並預測當需要區分正確與錯誤時它將做出什麼決定。
想像一下,人工智能的教育是根據特定的興趣和目標來操縱的。 人們很自然地相信,那些教育智力的人的意圖排除了智力本身可以獲得真正的思想自主權。 我們可以將這種情況描述為“反意識”,因為它被剝奪了形成不受任何制約的良心所必需的文化元素。
換句話說,根據其創造者的意願,人工智能可以被置於永遠無法實現自我意識或發展對自身及其特權的意識的境地。 而且,無論在何種環境下使用,人工智能都不必解決任何道德疑慮,它可以繼續停留在僅僅作為命令執行者的角色中。
但如果人工智能可以“超人類”,即能夠超越人類水平的表現,那麼就有可能獲得一種既超人類又反意識的思維,即完美地取代人類真正的薄弱環節。權力結構的指揮鏈:人。
對於敏感環境(例如戰爭遊戲中描述的戰爭場景)來說,反意識思想是唯一真正可靠的主題,因為它們能夠以冷酷的決心和完全沒有任何形式的同理心來執行其創造者的命令。
我們了解到,像這樣的公司裁員數千人 Microsoft微軟, Amazon、Meta 和 AlphaBet 都伴隨著高層管理人員的道歉,他們指責自己根據對大流行後消費者習慣的研究錯誤地計算了人員配備水平,結果證明這是不正確的。
事實上,科技公司本身越來越多地將業務運營委託給人工智能算法,因為他們知道他們很快就會在所有部門需要更少的員工。 簡而言之,他們將是第一批嘗試人工智能技術的人之一,這些技術將降低公司成本並大幅減少就業崗位。
值得注意的是,受裁員影響最大的部門之一正是人力資源部門:一旦投入生產,智能自動化系統正在對所有其他部門進行裁員,並針對公司需求和零部件進行評估人性化,例如同理心和團結。
如今,大公司的目標不是人工智能的進化,而是自動化系統的創建,它們在履行職責時不擇手段,同時也非常智能。
藝術作品 Gianfranco Fedele