Các bài viết

Các quy tắc bảo vệ dữ liệu của OpenAI và EU, sau khi Ý có nhiều hạn chế hơn

OpenAI quản lý để phản hồi tích cực với các cơ quan dữ liệu của Ý và dỡ bỏ lệnh cấm có hiệu lực của đất nước trên ChatGPT tuần trước, nhưng cuộc chiến của anh ấy chống lại các cơ quan quản lý châu Âu còn lâu mới kết thúc. 

Thời gian đọc ước tính: 9 minuti

Đầu năm 2023, chatbot ChatGPT phổ biến và gây tranh cãi của OpenAI đã gặp phải một vấn đề pháp lý lớn: lệnh cấm có hiệu lực ở Ý. Cơ quan bảo vệ dữ liệu của Ý (GPDP) đã cáo buộc OpenAI vi phạm các quy tắc bảo vệ dữ liệu của EU và công ty đã đồng ý hạn chế quyền truy cập vào dịch vụ ở Ý khi họ cố gắng giải quyết vấn đề. Vào ngày 28 tháng XNUMX, ChatGPT đã trở lại đất nước, với OpenAI giải quyết nhẹ nhàng các mối quan tâm về GPDP mà không thực hiện bất kỳ thay đổi lớn nào đối với dịch vụ của mình – một chiến thắng rõ ràng.

Trả lời Người bảo lãnh quyền riêng tư của Ý

GPDP khẳng định để “chào đón” những thay đổi do ChatGPT thực hiện. Tuy nhiên, các vấn đề pháp lý của công ty — và của các công ty xây dựng chatbot tương tự — có lẽ chỉ mới bắt đầu. Cơ quan quản lý ở một số quốc gia đang điều tra cách các công cụ AI này thu thập và tạo ra thông tin, trích dẫn một loạt mối quan ngại từ các công ty thu thập dữ liệu đào tạo trái phép đến xu hướng chatbot lan truyền thông tin sai lệch. 

Liên minh châu Âu và GDPR

Ở EU, họ đang thực thi Quy định chung về bảo vệ dữ liệu (GDPR), một trong những khuôn khổ pháp lý về quyền riêng tư mạnh mẽ nhất trên thế giới, những tác động của nó cũng có thể được cảm nhận bên ngoài châu Âu. Trong khi đó, các nhà lập pháp châu Âu đang soạn thảo một đạo luật nhằm giải quyết cụ thể trí tuệ nhân tạo, có khả năng mở ra một kỷ nguyên quy định mới cho các hệ thống như ChatGPT. 

Mức độ phổ biến của ChatGPT

ChatGPT là một trong những ví dụ phổ biến nhất về AI tổng quát, một thuật ngữ chung bao gồm các công cụ tạo văn bản, hình ảnh, video và âm thanh dựa trên yêu cầu của người dùng. Dịch vụ này đã được báo cáo trở thành một trong ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử sau khi đạt 100 triệu người dùng hoạt động hàng tháng chỉ trong hai tháng sau khi ra mắt vào tháng 2022 năm XNUMX (OpenAI chưa bao giờ xác nhận những con số này). 

Mọi người sử dụng nó để dịch văn bản sang các ngôn ngữ khác nhau, viết tiểu luận đại học và tạo mã. Tuy nhiên, các nhà phê bình, bao gồm cả các cơ quan quản lý, đã nhấn mạnh đầu ra không đáng tin cậy của ChatGPT, các vấn đề bản quyền khó hiểu và các hoạt động bảo vệ dữ liệu mờ ám.

Ý là quốc gia đầu tiên di chuyển. Vào ngày 31 tháng XNUMX, anh ấy đã nêu bật bốn cách mà anh ấy tin rằng OpenAI đang vi phạm GDPR:

  • cho phép ChatGPT cung cấp thông tin không chính xác hoặc sai lệch,
  • không thông báo cho người dùng về các hoạt động thu thập dữ liệu của mình,
  • đáp ứng bất kỳ lý do nào trong số sáu lý do pháp lý có thể có để xử lý dữ liệu cá nhân e
  • không hạn chế đầy đủ trẻ em dưới 13 tuổi sử dụng Dịch vụ. 

Châu Âu và ngoài Châu Âu

Không có quốc gia nào khác đã thực hiện hành động như vậy. Nhưng kể từ tháng XNUMX, ít nhất ba quốc gia EU – Đức , Pháp e Tây Ban Nha – đã mở cuộc điều tra của riêng họ về ChatGPT. 

Trong khi đó, ở phía bên kia Đại Tây Dương, Canada đang đánh giá các mối lo ngại về quyền riêng tư theo Đạo luật bảo vệ thông tin cá nhân và tài liệu điện tử, hay PIPEDA. Ủy ban Bảo vệ Dữ liệu Châu Âu (EDPB) thậm chí đã thiết lập một lực lượng đặc nhiệm để giúp phối hợp điều tra. Và nếu các cơ quan này yêu cầu thay đổi OpenAI, họ có thể ảnh hưởng đến cách thức hoạt động của dịch vụ đối với người dùng trên toàn thế giới. 

Mối quan tâm của cơ quan quản lý có thể được chia thành hai loại:

  • dữ liệu đào tạo ChatGPT đến từ đâu
  • cách OpenAI cung cấp thông tin cho người dùng của nó.

ChatGPT sử dụng các mô hình ngôn ngữ lớn (LLM) GPT-3.5 và GPT-4 của OpenAI, được đào tạo trên một lượng lớn văn bản do con người tạo ra. OpenAI thận trọng về chính xác văn bản đào tạo mà nó sử dụng, nhưng cho biết nó dựa trên "nhiều nguồn dữ liệu được cấp phép, tạo và có sẵn công khai, có thể bao gồm thông tin cá nhân có sẵn công khai."

đồng ý rõ ràng

Điều này có khả năng đặt ra những vấn đề lớn theo GDPR. Luật được ban hành vào năm 2018 và bao gồm tất cả các dịch vụ thu thập hoặc xử lý dữ liệu của công dân EU, bất kể tổ chức chịu trách nhiệm có trụ sở ở đâu. Các quy tắc GDPR yêu cầu các công ty phải có sự đồng ý rõ ràng trước khi thu thập dữ liệu cá nhân, phải có lý do pháp lý về lý do thu thập dữ liệu và phải minh bạch về cách sử dụng và lưu trữ dữ liệu đó.

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Các nhà quản lý châu Âu cho biết tính bảo mật dữ liệu đào tạo của OpenAI có nghĩa là không có cách nào để xác nhận liệu thông tin cá nhân được nhập ban đầu có được cung cấp với sự đồng ý của người dùng hay không và GPDP lập luận cụ thể rằng OpenAI "không có cơ sở pháp lý" để thu thập chúng ngay từ đầu. Cho đến nay OpenAI và những người khác đã bỏ qua rất ít sự giám sát, nhưng tuyên bố này đặt ra một dấu hỏi lớn cho những nỗ lực thu thập dữ liệu trong tương lai.

Quyền được lãng quên

Sau đó là " quyền được lãng quên ” của GDPR, cho phép người dùng yêu cầu các công ty sửa thông tin cá nhân của họ hoặc xóa hoàn toàn thông tin đó. mở trí tuệ nhân tạo trước đây đã cập nhật chính sách bảo mật của nó để tạo điều kiện cho các yêu cầu như vậy, nhưng vâng, đó là Discusso liệu có thể quản lý chúng về mặt kỹ thuật hay không, do việc tách chúng phức tạp đến mức nào dữ liệu cụ thể một khi chúng đã được đưa vào các mô hình ngôn ngữ lớn này.

OpenAI cũng thu thập thông tin trực tiếp từ người dùng. Giống như bất kỳ nền tảng internet nào, nó thu thập một bộ dữ liệu người dùng tiêu chuẩn (ví dụ: tên, thông tin liên hệ, chi tiết thẻ, v.v.). Nhưng quan trọng hơn, nó ghi lại các tương tác mà người dùng có với ChatGPT. BẰNG được nêu trong Câu hỏi thường gặp , dữ liệu này có thể được nhân viên OpenAI xem xét và được sử dụng để đào tạo các phiên bản tương lai của mô hình. Với những câu hỏi thân mật mà mọi người hỏi ChatGPT, sử dụng bot như một nhà trị liệu hoặc bác sĩ, điều này có nghĩa là công ty đang thu thập tất cả các loại dữ liệu nhạy cảm.

Ít nhất một số dữ liệu này có thể đã được thu thập từ trẻ em, vì trong khi chính sách của OpenAI tuyên bố rằng nó "không cố ý thu thập thông tin cá nhân từ trẻ em dưới 13 tuổi", thì không có sự kiểm soát chặt chẽ về độ tuổi. Điều này không phù hợp với các quy tắc của EU, cấm thu thập dữ liệu từ những người dưới 13 tuổi và (ở một số quốc gia) yêu cầu phải có sự đồng ý của cha mẹ đối với trẻ em dưới 16 tuổi. Về phía đầu ra, GPDP cho biết ChatGPT thiếu bộ lọc độ tuổi khiến trẻ vị thành niên bị lộ a "những phản ứng hoàn toàn không tương xứng so với mức độ phát triển và tự nhận thức của chúng". 

Thông tin sai

Ngoài ra, xu hướng của ChatGPT đối với cung cấp thông tin sai lệch có thể là một vấn đề. Các quy định của GDPR quy định rằng tất cả dữ liệu cá nhân phải chính xác, điều mà GPDP đã nhấn mạnh trong thông báo của mình. Tùy thuộc vào cách nó đến defitối, có thể gây rắc rối cho hầu hết các trình tạo văn bản AI, vốn dễ bị " ảo giác “: Một thuật ngữ hay trong ngành để chỉ những câu trả lời thực sự không chính xác hoặc không liên quan cho một truy vấn. Điều này đã gây ra một số hậu quả trong thế giới thực ở những nơi khác, như một thị trưởng khu vực của Úc đã dọa kiện OpenAI vì tội phỉ báng sau khi ChatGPT khai man rằng anh ta đã chấp hành án tù vì tội tham nhũng.

Mức độ phổ biến của ChatGPT và sự thống trị thị trường AI hiện tại khiến nó trở thành một mục tiêu đặc biệt hấp dẫn, nhưng không có lý do gì mà các đối thủ cạnh tranh và những người đóng góp cho nó, chẳng hạn như Google với Bard hoặc Microsoft với Azure AI dựa trên OpenAI, lại không bị soi xét. Trước ChatGPT, Ý đã cấm nền tảng chatbot Trả lời cho việc thu thập thông tin về trẻ vị thành niên và cho đến nay vẫn bị cấm. 

Mặc dù GDPR là một bộ luật mạnh mẽ, nhưng nó không được tạo ra để giải quyết các vấn đề AI cụ thể. quy định mà , tuy nhiên, họ có thể ở trên đường chân trời. 

Đạo luật trí tuệ nhân tạo

Vào năm 2021, EU đã trình bày dự thảo đầu tiên vềĐạo luật trí tuệ nhân tạo (AIA) , luật sẽ hoạt động cùng với GDPR. Đạo luật điều chỉnh các công cụ AI dựa trên rủi ro nhận thức được của chúng, từ “tối thiểu” (những thứ như bộ lọc thư rác) đến “cao” (công cụ AI dành cho thực thi pháp luật hoặc giáo dục) hoặc “không thể chấp nhận được” và do đó bị cấm (như hệ thống tín nhiệm xã hội). Sau sự bùng nổ của các mô hình ngôn ngữ lớn như ChatGPT năm ngoái, các nhà lập pháp hiện đang chạy đua để thêm các quy tắc cho “mô hình cốt lõi” và “hệ thống Trí tuệ nhân tạo mục đích chung (GPAI)” – hai thuật ngữ chỉ hệ thống trí tuệ nhân tạo quy mô bao gồm LLM – và có khả năng phân loại là dịch vụ rủi ro cao.

các nhà lập pháp EU đã đạt được thỏa thuận dự kiến ​​về Đạo luật AI vào ngày 27 tháng 11. Một ủy ban sẽ bỏ phiếu về dự thảo vào ngày XNUMX tháng XNUMX và đề xuất cuối cùng dự kiến ​​​​vào giữa tháng Sáu. Do đó, Hội đồng Châu Âu, Nghị viện và Ủy ban sẽ phải giải quyết mọi tranh chấp còn lại trước khi thực hiện luật. Nếu mọi việc suôn sẻ, nó có thể được áp dụng vào nửa cuối năm 2024, chậm hơn một chút so với mục tiêu chính thức của cuộc bầu cử châu Âu vào tháng 2024 năm XNUMX.

OpenAI vẫn có những mục tiêu cần đạt được. Còn đến ngày 30 tháng 13 để tạo ra giới hạn độ tuổi chặt chẽ hơn nhằm ngăn chặn những người dưới XNUMX tuổi và cần có sự đồng ý của cha mẹ đối với những thanh thiếu niên chưa đủ tuổi lớn hơn. Nếu nó không thành công, nó có thể bị chặn lại. Nhưng nó đã cung cấp một ví dụ về những gì Châu Âu coi là hành vi có thể chấp nhận được đối với một công ty AI, ít nhất là cho đến khi luật mới được thông qua.

Bài đọc liên quan

Ercole Palmeri

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Bài viết gần đây

Sự can thiệp sáng tạo vào thực tế tăng cường, với người xem Apple tại Phòng khám đa khoa Catania

Một ca phẫu thuật tạo hình mắt bằng cách sử dụng trình xem thương mại Apple Vision Pro đã được thực hiện tại Phòng khám đa khoa Catania…

3 May 2024

Lợi ích của việc tô màu cho trẻ em - thế giới kỳ diệu dành cho mọi lứa tuổi

Phát triển kỹ năng vận động tinh thông qua tô màu giúp trẻ chuẩn bị cho những kỹ năng phức tạp hơn như viết. Để tô màu…

2 May 2024

Tương lai là đây: Ngành vận tải biển đang cách mạng hóa nền kinh tế toàn cầu như thế nào

Ngành hải quân là một cường quốc kinh tế toàn cầu thực sự, đang hướng tới thị trường 150 tỷ...

1 May 2024

Các nhà xuất bản và OpenAI ký thỏa thuận điều chỉnh luồng thông tin được Trí tuệ nhân tạo xử lý

Thứ Hai tuần trước, Financial Times đã công bố một thỏa thuận với OpenAI. FT cấp phép cho hoạt động báo chí đẳng cấp thế giới…

30 tháng tư 2024

Đọc Đổi mới bằng ngôn ngữ của bạn

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Theo chúng tôi