用品

OpenAI 和歐盟數據保護規則,在意大利之後會有更多限制

OpenAI 設法積極響應意大利數據當局和 解除國家有效禁令 上週在 ChatGPT 上,但他與歐洲監管機構的鬥爭遠未結束。 

預計閱讀時間: 9 minuti

2023 年初,OpenAI 廣受歡迎且備受爭議的 ChatGPT 聊天機器人遇到了一個重大的法律問題:意大利的一項有效禁令。 意大利數據保護局 (GPDP) 指責 OpenAI 違反了歐盟數據保護規則,該公司已同意在試圖解決該問題時限制在意大利訪問該服務。 28 月 XNUMX 日,ChatGPT 重返國內,OpenAI 輕鬆解決了 GPDP 的問題,沒有對其服務進行任何重大更改——這是一個明顯的勝利。

回答意大利隱私保證人

本辦公室確認 “歡迎”ChatGPT 所做的更改。 然而,該公司的法律問題——以及構建類似聊天機器人的公司的法律問題——可能才剛剛開始。 多個國家的監管機構正在調查這些人工智能工具如何收集和產生信息,引用了從收集未經許可的培訓數據的公司到聊天機器人傳播虛假信息的趨勢的一系列擔憂。 

歐盟和 GDPR

在歐盟,他們正在執行通用數據保護條例 (GDPR),這是世界上最強大的隱私法律框架之一,其影響也可能在歐洲以外地區感受到。 與此同時,歐洲立法者正在製定一項專門針對人工智能的法律,可能會為 ChatGPT 等系統開創一個新的監管時代。 

ChatGPT 的受歡迎程度

ChatGPT 是最流行的生成式 AI 示例之一,生成式 AI 是一個總稱,涵蓋了根據用戶請求生成文本、圖像、視頻和音頻的工具。 據報導,該服務已成為其中之一 增長最快的消費者應用程序 在 100 年 2022 月推出後的短短兩個月內就達到了 XNUMX 億月活躍用戶,這創下了歷史記錄(OpenAI 從未證實過這些數字)。 

人們用它把文本翻譯成不同的語言,寫 大學論文 並生成代碼。 但包括監管機構在內的批評者強調了 ChatGPT 不可靠的輸出、令人困惑的版權問題以及可疑的數據保護做法。

意大利是第一個採取行動的國家。 31 月 XNUMX 日,他強調了他認為 OpenAI 違反 GDPR 的四種方式:

  • 允許 ChatGPT 提供不准確或誤導性的信息,
  • 不告知用戶其數據收集做法,
  • 滿足六種可能的數據處理合法理由中的任何一種 個性 e
  • 未充分限制 13 歲以下兒童使用服務。 

歐洲和非歐洲

沒有其他國家採取過這樣的行動。 但自三月以來,至少有三個歐盟國家—— 日耳曼 , 法國 e 西班牙 – 對 ChatGPT 展開了自己的調查。 

與此同時,在大西洋的另一邊, 加拿大 正在根據其個人信息保護和電子文件法 (PIPEDA) 評估隱私問題。 歐洲數據保護委員會 (EDPB) 甚至設立了一個 專門工作組 幫助協調調查。 如果這些機構要求對 OpenAI 進行更改,他們可能會影響該服務為全球用戶服務的方式。 

監管機構的擔憂大致可分為兩類:

  • ChatGPT訓練數據從哪裡來
  • OpenAI 如何向其用戶提供信息。

ChatGPT 使用 OpenAI 的 GPT-3.5 和 GPT-4 大型語言模型 (LLM),這些模型在大量人工生成的文本上進行訓練。 OpenAI 對其使用的訓練文本持謹慎態度,但表示它利用了“各種許可、創建和公開可用的數據源,其中可能包括公開可用的個人信息。”

明確同意

根據 GDPR,這可能會帶來巨大的問題。 該法律於 2018 年頒布,涵蓋所有收集或處理歐盟公民數據的服務,無論負責組織位於何處。 GDPR 規則要求公司在收集個人數據之前獲得明確同意,收集數據的原因具有法律依據,並在使用和存儲方式方面保持透明。

創新通訊
不要錯過有關創新的最重要新聞。 註冊以通過電子郵件接收它們。

歐洲監管機構表示,OpenAI 的訓練數據保密意味著無法確認輸入的個人信息最初是否是在用戶同意的情況下提供的,本辦公室特別指出,OpenAI 一開始就“沒有法律依據”收集這些信息。 到目前為止,OpenAI 和其他公司幾乎沒有受到審查,但這一聲明為未來的數據抓取工作增加了一個大問號。

被遺忘的權利

然後就是“ 被遺忘的權利 ”的 GDPR,它允許用戶要求公司更正他們的個人信息或將其完全刪除。 開放人工智能 先前已更新其隱私政策 為此類請求提供便利,但是是的 討論 鑑於分離的複雜程度,管理它們在技術上是否可行 具體數據 一旦將它們放入這些大型語言模型中。

OpenAI 還直接從用戶那裡收集信息。 像任何互聯網平台一樣,它收集 標準用戶數據集 (例如姓名、聯繫信息、銀行卡詳細信息等)。 但更重要的是,它記錄了用戶與 ChatGPT 的交互。 作為 在常見問題解答中說明 ,這些數據可以由 OpenAI 員工審查,並用於訓練其模型的未來版本。 考慮到人們向 ChatGPT 提出的私密問題,將機器人用作治療師或醫生,這意味著該公司正在收集各種敏感數據。

至少其中一些數據可能是從兒童那裡收集的,因為雖然 OpenAI 的政策聲明它“不會有意收集 13 歲以下兒童的個人信息”,但沒有嚴格的年齡控制。 這不符合歐盟規則,該規則禁止收集 13 歲以下人群的數據,並且(在某些國家/地區)需要 16 歲以下兒童的父母同意。 在輸出方面,本辦公室表示,ChatGPT 缺乏年齡過濾,暴露未成年人 a “與他們的發展程度和自我意識相比,反應絕對不足”。 

虛假信息

還有 ChatGPT 的傾向 提供虛假信息 可能是個問題。 GDPR 法規規定所有個人數據必須準確,GPDP 在其公告中強調了這一點。 取決於它如何到來 defi晚上,可能會給大多數人工智能文本生成器帶來麻煩,因為它們很容易出現“ 大蒜素 “:一個很好的行業術語,表示對查詢的實際不正確或不相關的答案。 這已經在其他地方看到了一些現實世界的反響,正如澳大利亞地區市長所 威脅要起訴 OpenAI 誹謗 在 ChatGPT 謊稱他因腐敗服刑後。

ChatGPT 的受歡迎程度和當前 AI 市場的主導地位使其成為一個特別有吸引力的目標,但它的競爭對手和貢獻者,例如穀歌和 Bard 或微軟及其基於 OpenAI 的 Azure AI,沒有理由不受到審查。 在 ChatGPT 之前,意大利禁止聊天機器人平台 Replika 收集未成年人信息,至今仍被禁止。 

雖然 GDPR 是一套強大的法律,但它並不是為了解決特定的 AI 問題而創建的。 規定 , 但是,它們可能即將出現。 

人工智能法

2021 年,歐盟提交了第一份草案人工智能法 (AIA) ,將與 GDPR 一起工作的立法。 該法案根據人工智能工具的感知風險對其進行監管,從“最小”(如垃圾郵件過濾器)到“高”(用於執法或教育的人工智能工具)或“不可接受”,因此被禁止(如社會信用系統)。 在去年 ChatGPT 等大型語言模型爆炸式增長之後,立法者現在競相為“核心模型”和“通用人工智能 (GPAI) 系統”添加規則——這兩個術語是指包括 LLM 在內的人工智能係統人工規模——並且可能 分類為 高風險服務。

歐盟立法者 已就人工智能法案達成初步協議 27 月 11 日。 委員會將於 XNUMX 月 XNUMX 日對草案進行投票,最終提案預計將於 XNUMX 月中旬出爐。 因此,歐洲理事會、議會和委員會將不得不 解決任何剩餘的爭議 在實施法律之前。 如果一切順利,它可能會在 2024 年下半年通過,比目標稍晚 官方 2024 年 XNUMX 月的歐洲選舉。

OpenAI 仍有目標需要實現。 直到 30 月 13 日才會制定更嚴格的年齡限制,以防止 XNUMX 歲以下的人進入,並要求年齡較大的未成年青少年獲得父母的同意。 如果失敗,它可能會再次被阻止。 但它確實提供了歐洲認為人工智能公司可以接受的行為的一個例子,至少在新法律通過之前是這樣。

相關閱讀

Ercole Palmeri

創新通訊
不要錯過有關創新的最重要新聞。 註冊以通過電子郵件接收它們。

最近的文章

英國反壟斷監管機構對 GenAI 向 BigTech 發出警報

英國 CMA 對大型科技公司在人工智慧市場的行為發出了警告。那裡…

18月2024

Casa Green:義大利永續未來的能源革命

歐盟為提高建築物能源效率而製定的「綠色案例」法令已結束立法程序…

18月2024

根據新的 Casaleggio Associati 報告,義大利電子商務成長了 27%

Casaleggio Associati 發布了義大利電子商務年度報告。題為「人工智慧商務:人工智慧電子商務的前沿」的報告...

17月2024

絕妙點子:Bandalux 推出 Airpure®,淨化空氣的窗簾

不斷技術創新以及對環境和人民福祉的承諾的結果。 Bandalux 推出 Airpure®,一款帳篷…

12月2024