Các bài viết

Điều chỉnh AI: 3 chuyên gia lý giải vì sao khó làm và quan trọng là làm tốt

Các hệ thống AI mới mạnh mẽ có thể khuếch đại gian lận và thông tin sai lệch, dẫn đến những lời kêu gọi rộng rãi về quy định của chính phủ. Nhưng làm như vậy thì nói dễ hơn làm và có thể gây ra những hậu quả không lường trước được.

Thời gian đọc ước tính: 11 minuti

Từ ảnh giả của Donald Trump bị cảnh sát thành phố New York bắt giữ cho một chatbot mô tả một nhà khoa học máy tính còn sống nhưng đã chết một cách bi thảm , khả năng của thế hệ hệ thống mới trí tuệ nhân tạo nỗ lực sáng tạo để tạo văn bản và hình ảnh hấp dẫn nhưng hư cấu đang làm dấy lên những cảnh báo về gian lận steroid và thông tin sai lệch. Thật vậy, vào ngày 29 tháng 2023 năm XNUMX, một nhóm các nhà nghiên cứu AI và các nhân vật trong ngành đã thúc giục ngành ngừng đào tạo thêm về các công nghệ AI mới nhất hoặc, nếu không, các chính phủ sẽ "áp đặt lệnh cấm".

Trình tạo hình ảnh như DALL-E , midjourney e Khuếch tán ổn định và các trình tạo nội dung như Thi nhân , ChatGPT , sóc ở nam mỹ e cuộc gọi – hiện có sẵn cho hàng triệu người và không yêu cầu kiến ​​thức kỹ thuật để sử dụng.

Với bối cảnh các công ty công nghệ đang triển khai các hệ thống AI và thử nghiệm chúng trên công chúng, các nhà hoạch định chính sách nên tự hỏi liệu và làm thế nào để điều chỉnh công nghệ mới nổi. Cuộc hội thoại đã yêu cầu ba chuyên gia chính sách công nghệ giải thích lý do tại sao việc điều chỉnh AI lại là một thách thức như vậy và tại sao việc làm cho đúng lại quan trọng đến vậy.

Điểm yếu của con người và mục tiêu di động

S. Shyam Sundar, giáo sư hiệu ứng đa phương tiện và giám đốc, Trung tâm AI có trách nhiệm xã hội, Penn State

Lý do để điều chỉnh AI không phải vì công nghệ nằm ngoài tầm kiểm soát mà vì trí tưởng tượng của con người vượt quá tầm kiểm soát. Phương tiện truyền thông đưa tin quá nhiều đã thúc đẩy niềm tin phi lý về khả năng và ý thức của AI. Những niềm tin này dựa trên " xu hướng tự động hóa ” hoặc về xu hướng mất cảnh giác khi máy móc thực hiện một nhiệm vụ. Một ví dụ là sự cảnh giác giảm sút giữa các phi công khi máy bay của họ đang bay ở chế độ lái tự động.

Nhiều nghiên cứu trong phòng thí nghiệm của tôi đã chỉ ra rằng khi một cỗ máy, chứ không phải con người, được xác định là nguồn tương tác, nó sẽ kích hoạt một lối tắt tinh thần trong tâm trí người dùng mà chúng tôi gọi là "trí tuệ máy móc". " . Cách viết tắt này là niềm tin rằng máy móc là chính xác, khách quan, vô tư, không thể sai lầm, v.v. Nó che mờ phán đoán của người dùng và khiến người dùng tin tưởng máy móc quá mức. Tuy nhiên, chỉ đơn giản khiến mọi người vỡ mộng về tính không thể sai lầm của AI là không đủ, bởi vì con người được biết là có khả năng thành thạo trong tiềm thức ngay cả khi công nghệ không đảm bảo điều đó.

Nghiên cứu cũng chỉ ra rằng mọi người coi máy tính là sinh vật xã hội khi máy móc cho thấy dấu hiệu nhỏ nhất của con người, chẳng hạn như việc sử dụng ngôn ngữ đàm thoại. Trong những trường hợp này, người ta áp dụng các quy tắc xã hội về sự tương tác của con người, chẳng hạn như phép lịch sự và có đi có lại. Vì vậy, khi máy tính dường như có tri giác, mọi người có xu hướng tin tưởng chúng một cách mù quáng. Cần có quy định để đảm bảo các sản phẩm AI xứng đáng với sự tin tưởng này và không lợi dụng nó.

AI đưa ra một thách thức độc đáo bởi vì, không giống như các hệ thống kỹ thuật truyền thống, các nhà thiết kế không thể chắc chắn hệ thống AI sẽ hoạt động như thế nào. Khi một chiếc ô tô truyền thống lăn bánh ra khỏi nhà máy, các kỹ sư biết chính xác nó sẽ hoạt động như thế nào. Nhưng với xe tự lái, các kỹ sư họ không bao giờ có thể chắc chắn họ sẽ hành xử như thế nào trong những tình huống mới .

Khó kiểm soát đổi mới

Gần đây, hàng nghìn người trên khắp thế giới đã ngạc nhiên trước những mô hình AI có năng suất lớn như GPT-4 và DALL-E 2 tạo ra để đáp lại các đề xuất của họ. Không ai trong số các kỹ sư tham gia phát triển các mô hình AI này có thể cho bạn biết chính xác những gì các mô hình sẽ tạo ra. Để làm phức tạp thêm vấn đề, các mô hình này thay đổi và phát triển với sự tương tác lớn hơn bao giờ hết.

Tất cả những điều này có nghĩa là có nhiều khả năng xảy ra cháy nổ. Do đó, phần lớn phụ thuộc vào cách các hệ thống AI được triển khai và những điều khoản nào để truy đòi được áp dụng khi sự nhạy cảm hoặc sức khỏe của con người bị tổn hại. AI giống như một cơ sở hạ tầng, giống như một xa lộ. Bạn có thể thiết kế nó để định hình hành vi của con người trong tập thể, nhưng bạn sẽ cần cơ chế để đối phó với các hành vi lạm dụng, chẳng hạn như chạy quá tốc độ và các sự kiện không thể đoán trước, chẳng hạn như tai nạn.

Các nhà phát triển AI cũng sẽ cần phải cực kỳ sáng tạo trong việc dự đoán cách hệ thống có thể hoạt động và cố gắng lường trước những vi phạm tiềm ẩn đối với các tiêu chuẩn và trách nhiệm xã hội. Điều này có nghĩa là cần có các khuôn khổ quy định hoặc quản trị dựa trên kiểm tra định kỳ và xem xét kỹ lưỡng các kết quả và sản phẩm AI, mặc dù tôi tin rằng các khuôn khổ này cũng nên nhận ra rằng các nhà thiết kế hệ thống không phải lúc nào cũng phải chịu trách nhiệm về các sự cố.

Kết hợp cách tiếp cận “mềm” và “cứng”

Cason Schmit, trợ lý giáo sư y tế công cộng, Đại học Texas A&M

Điều chỉnh trí tuệ nhân tạo rất phức tạp . Để điều chỉnh AI tốt, trước tiên bạn phải defihoàn thiện AI và hiểu những rủi ro và lợi ích dự kiến ​​của AI. DefiViệc nộp đơn hợp pháp AI rất quan trọng để xác định những gì phải tuân theo luật. Nhưng các công nghệ AI vẫn đang phát triển nên rất khó defikết thúc một defiđịnh nghĩa pháp lý ổn định.

Hiểu được những rủi ro và lợi ích của AI cũng rất quan trọng. Quy định tốt sẽ tối đa hóa lợi ích công đồng thời giảm thiểu rủi ro. Tuy nhiên, các ứng dụng AI vẫn đang phát triển nên rất khó để biết hoặc dự đoán những rủi ro hoặc lợi ích trong tương lai có thể xảy ra. Những loại ẩn số này khiến cho các công nghệ mới nổi như AI trở nên cực kỳ khó khăn. khó điều chỉnh với các luật và quy định truyền thống.

Các nhà làm luật đang thường quá chậm để điều chỉnh với môi trường công nghệ đang thay đổi nhanh chóng. Người nào đó luật mới đã lỗi thời tại thời điểm chúng được ban hành hoặc thực hiện điều hành. Không có luật mới, cơ quan quản lý họ phải sử dụng luật cũ đối mặt vấn đề mới . Đôi khi điều này dẫn đến rào cản pháp lý mỗi lợi ích xã hội o lỗ hổng pháp lý mỗi hành vi có hại .

Luật mềm

Các "luật mềm ” là giải pháp thay thế cho các phương pháp lập pháp “luật cứng rắn” truyền thống nhằm ngăn chặn các hành vi vi phạm cụ thể. Trong cách tiếp cận luật mềm, một tổ chức tư nhân thành lập quy tắc hoặc tiêu chuẩn cho các thành viên trong ngành. Những điều này có thể thay đổi nhanh hơn so với pháp luật truyền thống. Điều đó làm cho luật mềm đầy hứa hẹn cho các công nghệ mới nổi vì chúng có thể nhanh chóng thích ứng với các ứng dụng và rủi ro mới. Tuy nhiên, Luật mềm có thể có nghĩa là thực thi mềm .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) chúng tôi đề xuất một cách thứ ba: Copyleft AI với Thực thi đáng tin cậy (CAITE) . Cách tiếp cận này kết hợp hai khái niệm rất khác nhau trong sở hữu trí tuệ: giấy phép copyleft e patent troll.

Sao chép giấy phép trái

giấy phép copyleft cho phép bạn dễ dàng sử dụng, tái sử dụng hoặc sửa đổi nội dung theo các điều khoản của giấy phép, chẳng hạn như phần mềm nguồn mở. Người mẫu CAITE sử dụng giấy phép copyleft để yêu cầu người dùng AI tuân theo các nguyên tắc đạo đức cụ thể, chẳng hạn như đánh giá minh bạch về tác động của sự thiên vị.

Trong mô hình của chúng tôi, các giấy phép này cũng chuyển quyền hợp pháp để thực thi các vi phạm giấy phép cho bên thứ ba đáng tin cậy. Điều này tạo ra một thực thể thực thi chỉ tồn tại để thực thi các tiêu chuẩn đạo đức AI và có thể được tài trợ một phần bằng tiền phạt cho hành vi phi đạo đức. Thực thể này giống như một patent troll vì nó là của tư nhân chứ không phải của chính phủ và tự hỗ trợ bằng cách thực thi các quyền sở hữu trí tuệ hợp pháp mà nó thu thập được từ những người khác. Trong trường hợp này, thay vì chạy theo lợi nhuận, đơn vị thực thi các nguyên tắc đạo đức defiít trong giấy phép.

Mô hình này linh hoạt và có thể thích ứng để đáp ứng nhu cầu của môi trường AI luôn thay đổi. Nó cũng cho phép các tùy chọn thực thi đáng kể giống như cơ quan quản lý truyền thống của chính phủ. Bằng cách này, nó kết hợp các yếu tố tốt nhất của cách tiếp cận luật cứng và luật mềm để giải quyết những thách thức độc đáo của AI.

Bốn câu hỏi quan trọng để hỏi

John Villasenor, giáo sư kỹ thuật điện, luật, chính sách công và quản lý, Đại học California, Los Angeles

các tiến bộ phi thường gần đây trong ngôn ngữ lớn, AI tạo ra dựa trên mô hình ngôn ngữ đang thúc đẩy nhu cầu tạo ra quy định mới dành riêng cho AI. Dưới đây là bốn câu hỏi chính để tự hỏi mình:

1) Có cần quy định cụ thể mới cho AI không? 

Nhiều kết quả có thể có vấn đề của các hệ thống AI đã được giải quyết bằng các khuôn khổ hiện có. Nếu một thuật toán AI được ngân hàng sử dụng để đánh giá các đơn xin vay dẫn đến các quyết định cho vay phân biệt chủng tộc, thì nó sẽ vi phạm Đạo luật Nhà ở Công bằng. Nếu phần mềm AI trong xe không người lái gây ra tai nạn, luật trách nhiệm sản phẩm quy định khuôn khổ cho việc theo đuổi các biện pháp khắc phục .

2) Những rủi ro của việc điều chỉnh một công nghệ phát triển nhanh chóng dựa trên ảnh chụp nhanh về thời gian là gì? 

Một ví dụ kinh điển về điều này là Đạo luật truyền thông được lưu trữ , được ban hành vào năm 1986 để giải quyết các công nghệ truyền thông kỹ thuật số đổi mới lúc bấy giờ như email. Khi ban hành SCA, Quốc hội đã cung cấp bảo vệ quyền riêng tư ít hơn đáng kể cho email cũ hơn 180 ngày.

Lý do căn bản là dung lượng lưu trữ hạn chế có nghĩa là mọi người liên tục dọn dẹp hộp thư đến của họ bằng cách xóa các thư cũ hơn để nhường chỗ cho những thư mới. Do đó, các tin nhắn được lưu trữ trong hơn 180 ngày được coi là ít quan trọng hơn từ góc độ quyền riêng tư. Không rõ logic này có bao giờ hợp lý hay không, và nó chắc chắn không hợp lý vào những năm 20, khi hầu hết email và các thông tin liên lạc kỹ thuật số được lưu trữ khác của chúng ta đã hơn sáu tháng.

Một phản ứng phổ biến đối với những lo ngại về việc điều chỉnh công nghệ dựa trên một ảnh chụp nhanh duy nhất theo thời gian là: Nếu một luật hoặc quy định trở nên lỗi thời, hãy cập nhật nó. Nói dễ hơn làm. Hầu hết mọi người đồng ý rằng SCA đã trở nên lỗi thời từ nhiều thập kỷ trước. Nhưng vì Quốc hội không thể đồng ý cụ thể về cách sửa đổi điều khoản 180 ngày, nên nó vẫn còn trên sách hơn một phần ba thế kỷ sau khi nó được ban hành.

3) Những hậu quả không mong muốn có thể xảy ra là gì? 

Il Đạo luật cho phép các quốc gia và nạn nhân chống buôn bán tình dục trực tuyến năm 2017 đó là một luật được thông qua vào năm 2018 mà anh ấy đã sửa đổi Điều 230 của Đạo luật về khuôn phép trong giao tiếp với mục đích chống buôn bán tình dục. Mặc dù có rất ít bằng chứng cho thấy anh ta đã giảm nạn buôn bán tình dục, nhưng anh ta đã có một tác động cực kỳ có vấn đề trên một nhóm người khác: những người hành nghề mại dâm dựa vào các trang web bị FOSTA-SESTA gỡ bỏ để trao đổi thông tin về những khách hàng nguy hiểm. Ví dụ này cho thấy tầm quan trọng của việc xem xét rộng rãi các tác động tiềm ẩn của các quy định được đề xuất.

4) Ý nghĩa kinh tế và địa chính trị là gì? 

Nếu các cơ quan quản lý ở Hoa Kỳ có hành động cố tình làm chậm tiến độ của AI, thì điều đó sẽ đơn giản thúc đẩy đầu tư và đổi mới - dẫn đến tạo việc làm - ở những nơi khác. Trong khi AI mới nổi gây ra nhiều lo ngại, nó cũng hứa hẹn mang lại những lợi ích to lớn trong các lĩnh vực như sự giáo dục , y học , sản xuất , an toàn giao thông , nông nghiệp , previsioni metnticlogiche , tiếp cận các dịch vụ pháp lý và nhiều hơn nữa.

Tôi tin rằng các quy định về AI được soạn thảo có tính đến bốn câu hỏi trên sẽ có nhiều khả năng giải quyết thành công các tác hại tiềm tàng của AI trong khi vẫn đảm bảo khả năng tiếp cận các lợi ích của nó.

Bài viết này được trích dẫn tự do từ The Conversation, một tổ chức tin tức phi lợi nhuận độc lập chuyên chia sẻ kiến ​​thức của các chuyên gia học thuật.

Bài đọc liên quan

BlogInnovazione.it

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Bài viết gần đây

Sự can thiệp sáng tạo vào thực tế tăng cường, với người xem Apple tại Phòng khám đa khoa Catania

Một ca phẫu thuật tạo hình mắt bằng cách sử dụng trình xem thương mại Apple Vision Pro đã được thực hiện tại Phòng khám đa khoa Catania…

3 May 2024

Lợi ích của việc tô màu cho trẻ em - thế giới kỳ diệu dành cho mọi lứa tuổi

Phát triển kỹ năng vận động tinh thông qua tô màu giúp trẻ chuẩn bị cho những kỹ năng phức tạp hơn như viết. Để tô màu…

2 May 2024

Tương lai là đây: Ngành vận tải biển đang cách mạng hóa nền kinh tế toàn cầu như thế nào

Ngành hải quân là một cường quốc kinh tế toàn cầu thực sự, đang hướng tới thị trường 150 tỷ...

1 May 2024

Các nhà xuất bản và OpenAI ký thỏa thuận điều chỉnh luồng thông tin được Trí tuệ nhân tạo xử lý

Thứ Hai tuần trước, Financial Times đã công bố một thỏa thuận với OpenAI. FT cấp phép cho hoạt động báo chí đẳng cấp thế giới…

30 tháng tư 2024

Đọc Đổi mới bằng ngôn ngữ của bạn

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Theo chúng tôi