用品

規範 AI:3 位專家解釋了為什麼做起來難,但做好事很重要

強大的新人工智慧系統可能會放大詐欺和虛假訊息,導致人們廣泛呼籲政府監管。但這樣做說來容易做來難,並且可能會產生意想不到的後果

預計閱讀時間: 11 minuti

給她 假照片 唐納德特朗普被紐約市警察逮捕的聊天機器人描述了一個 計算機科學家非常活著,因為悲慘地死了 , 新一代系統的能力 人工智能 創造引人入勝但虛構的文本和圖像的生成動力正在引發關於類固醇欺詐和錯誤信息的警報。 事實上,29 年 2023 月 XNUMX 日,一群人工智能研究人員和行業人士敦促該行業暫停對最新人工智能技術的進一步培訓,否則政府將“暫停”。

圖像生成器喜歡 DALL-E , 中途 e 穩定擴散 和內容生成器,例如 詩人 , ChatGPT , 龍貓 e 駱駝 – 現在可供數百萬人使用,無需技術知識即可使用。

鑑於科技公司正在部署人工智能係統並在公眾身上進行測試,政策制定者應該問問自己是否以及如何監管這項新興技術。 The Conversation 請三位技術政策專家解釋為什麼監管 AI 是一個如此大的挑戰,以及為什麼正確處理它如此重要。

人性弱點和移動目標

S. Shyam Sundar,多媒體效果教授兼賓夕法尼亞州立大學社會責任人工智能中心主任

之所以要規範人工智能,不是因為技術失控,而是因為人類的想像力失控。 鋪天蓋地的媒體報導助長了對人工智能能力和意識的非理性信念。 這些信念是基於“ 自動化偏差 ” 或在機器執行任務時放鬆警惕的傾向。 一個例子是 飛行員警惕性降低 當他們的飛機在自動駕駛儀上飛行時。

我實驗室的大量研究表明,當機器而不是人類被確定為交互源時,它會在用戶的腦海中觸發一條我們稱之為“機器啟發式”的心理捷徑。  . 這個簡寫是相信機器是準確的、客觀的、公正的、絕對可靠的等等。 它混淆了用戶的判斷並導致用戶過度信任機器。 然而,僅僅讓人們對 AI 的萬無一失的幻想破滅是不夠的,因為眾所周知,即使技術不能保證,人類也會下意識地假設熟練。

研究還表明 人們將計算機視為社會人 當機器表現出哪怕是最輕微的人性暗示時,例如使用會話語言。 在這些情況下,人們會應用人際交往的社會規則,例如禮貌和互惠。 所以當計算機看起來有感覺時,人們往往會盲目地相信它們。 需要監管來確保 AI 產品值得這種信任並且不會利用它。

AI 提出了獨特的挑戰,因為與傳統的工程系統不同,設計人員無法確定 AI 系統的性能。 當一輛傳統汽車出廠時,工程師們確切地知道它的性能如何。 但是有了自動駕駛汽車,工程師們 他們永遠無法確定自己在新情況下會如何表現 .

創新難把控

最近,世界各地成千上萬的人驚嘆於 GPT-4 和 DALL-E 2 等大型生成式 AI 模型響應他們的建議而產生的結果。 參與開發這些 AI 模型的工程師都無法準確告訴您這些模型將產生什麼。 使事情複雜化的是,這些模型隨著越來越多的交互而變化和發展。

所有這些都意味著有很大的失火可能性。 因此,很大程度上取決於人工智能係統是如何實施的,以及當人類的情感或福祉受到損害時有哪些追索條款。 人工智能更像是一種基礎設施,就像高速公路一樣。 你可以設計它來塑造集體中的人類行為,但你需要機制來處理濫用行為,如超速和不可預測的事件,如事故。

AI 開發人員還需要在預測系統可能的行為方式方面具有非凡的創造力,並嘗試預測可能違反社會標準和責任的行為。 這意味著需要依賴於對 AI 結果和產品的定期審計和審查的監管或治理框架,儘管我認為這些框架也應該認識到系統設計者不能總是對事件負責。

結合“軟”和“硬”方法

Cason Schmit,德克薩斯 A&M 大學公共衛生助理教授

監管人工智能很複雜 。 想要調好AI,首先需要 defi完成人工智能並了解人工智能的預期風險和收益。 Defi人工智慧合法化對於確定哪些內容受法律管轄非常重要。 但人工智慧技術仍在不斷發展,所以很難 defi完成一個 defi穩定的法律定義。

了解人工智慧的風險和好處也很重要。良好的監管應該最大化公共利益,同時最小化風險。然而,人工智慧應用仍在不斷湧現,因此很難知道或預測未來可能存在的風險或利益。這些類型的未知因素使得人工智慧等新興技術變得極為重要 難以監管 與傳統的法律法規。

立法者是 經常調整太慢 適應快速變化的技術環境。 有人 新法 在發行時已過時或 成為執行官. 如果沒有新的法律,監管機構 他們必須使用舊法律 面對 新問題 . 有時這會導致 法律障礙 為 社交好處 o 法律漏洞 為 有害行為 .

軟法

軟法 ”是旨在防止特定違法行為的傳統“硬法”立法方法的替代方案。 在軟法方法中,私人組織建立 規則或標準 對於行業成員。 這些可以比傳統立法更快地改變。 這使得 有前途的軟法 對於新興技術,因為它們可以快速適應新的應用和風險。 然而, 軟法律可能意味著軟執法 .

梅根杜爾 , 詹妮弗·瓦格納 e io (卡森施密特) 我們提出第三種方式: Copyleft AI with Trusted Enforcement (CAITE) . 這種方法結合了知識產權中兩個截然不同的概念:許可 copyleft e patent troll.

複製左許可證

許可證 copyleft 允許您根據許可條款輕鬆使用、重複使用或修改內容,例如開源軟件。 模型 CAITE 使用許可證 copyleft 要求 AI 用戶遵循特定的道德準則,例如對偏見影響的透明評估。

在我們的模型中,這些許可還將強制執行違反許可的合法權利轉讓給受信任的第三方。 這創建了一個執法實體,其存在的唯一目的是執行 AI 道德標準,並且可以通過對不道德行為的罰款來獲得部分資金。 這個實體就像一個 patent troll 因為它是私人的而不是政府的,並且通過執行從他人那裡收集的合法知識產權來支持自己。 在這種情況下,該實體不是為了盈利而運行,而是執行道德準則 defi晚上的許可證。

該模型靈活且適應性強,可以滿足不斷變化的 AI 環境的需求。 它還允許像傳統的政府監管機構那樣進行實質性的執法選擇。 通過這種方式,它結合了硬法和軟法方法的最佳元素來應對人工智能的獨特挑戰。

要問的四個關鍵問題

John Villasenor,加州大學洛杉磯分校電氣工程、法律、公共政策和管理學教授

該 最近的非凡進步 基於大型語言模型的生成 AI 正在刺激創建新的 AI 特定法規的需求。 以下是要問自己的四個關鍵問題:

1) 是否需要針對 AI 制定新的具體法規? 

現有框架已經解決了 AI 系統的許多潛在問題結果。 如果銀行用於評估貸款申請的 AI 算法導致種族歧視的貸款決定,將違反《公平住房法》。如果無人駕駛汽車中的 AI 軟件導致事故,產品責任法規定了 尋求補救的框架 .

2) 根據時間快照來監管快速發展的技術有哪些風險? 

一個典型的例子是 存儲通信法案 ,於 1986 年頒布,旨在解決電子郵件等當時創新的數字通信技術。 在頒布 SCA 時,國會為超過 180 天的電子郵件提供的隱私保護明顯減少。

理由是有限的存儲空間意味著人們不斷清理收件箱,刪除舊郵件以為新郵件騰出空間。 因此,從隱私的角度來看,存檔時間超過 180 天的消息被認為不那麼重要。 目前尚不清楚這種邏輯是否有意義,而且在 20 年代肯定沒有意義,當時我們的大多數電子郵件和其他存檔的數字通信都存在六個月以上。

隨著時間的推移,對基於單一快照的監管技術的擔憂的常見回應是:如果法律或法規變得過時,請對其進行更新。 說起來容易做起來難。 大多數人都認為 SCA 在幾十年前就已經過時了。 但由於國會無法就如何修改 180 天條款達成具體一致,它在頒布超過三分之一個世紀後仍然存在於書本上。

3)潛在的意外後果是什麼? 

Il 允許各州和受害者打擊 2017 年在線性交易法案 他修改了 2018 年通過的法律 第230節 旨在打擊性交易的《通信規範法》。 雖然幾乎沒有證據表明他減少了性交易,但他已經 極其有問題的影響 另一群人:依賴 FOSTA-SESTA 下線網站的性工作者來交換有關危險客戶的信息。 這個例子表明了廣泛審視擬議法規的潛在影響的重要性。

4) 經濟和地緣政治影響是什麼? 

如果美國的監管機構採取行動故意減緩人工智能的進展,它只會將投資和創新——以及由此產生的就業機會——推向別處。 雖然新興人工智能引起了許多擔憂,但它也有望在以下領域帶來巨大好處: 指令 , 醫藥 , 生產 , 運輸安全 , 農業 , 預氣象 , 獲得法律服務 和更多。

我相信,考慮到以上四個問題起草的人工智能法規將更有可能成功解決人工智能的潛在危害,同時確保獲得其利益。

本文自由摘自 The Conversation,一家致力於分享學術專家知識的獨立非營利性新聞機構。

相關閱讀

BlogInnovazione.it

創新通訊
不要錯過有關創新的最重要新聞。 註冊以通過電子郵件接收它們。
標籤: 人工智能

最近的文章

絕妙點子:Bandalux 推出 Airpure®,淨化空氣的窗簾

不斷技術創新以及對環境和人民福祉的承諾的結果。 Bandalux 推出 Airpure®,一款帳篷…

12月2024

設計模式與 SOLID 原則、優點和缺點

設計模式是針對軟體設計中反覆出現的問題的特定低階解決方案。設計模式是…

11月2024

Magica,一個 iOS 應用程序,可簡化駕駛者管理車輛的生活

Magica 是一款 iPhone 應用程序,可讓車輛管理變得簡單高效,幫助駕駛員節省成本並…

11月2024

Excel 圖表、它們是什麼、如何建立圖表以及如何選擇最佳圖表

Excel 圖表是表示 Excel 工作表中資料的視覺效果。...

9月2024