Artikel

Mengatur AI: 3 pakar menjelaskan mengapa ini sulit dilakukan dan penting untuk dilakukan dengan baik

Sistem AI baru yang kuat dapat memperbesar penipuan dan disinformasi, sehingga mendorong meluasnya tuntutan peraturan pemerintah. Namun melakukan hal tersebut lebih mudah diucapkan daripada dilakukan dan dapat menimbulkan konsekuensi yang tidak diinginkan

Perkiraan waktu membaca: 11 minuti

Dari foto palsu Donald Trump ditangkap oleh petugas polisi Kota New York ke chatbot yang menjelaskannya ilmuwan komputer sangat hidup seperti meninggal secara tragis , kemampuan sistem generasi baru kecerdasan buatan dorongan generatif untuk membuat teks dan gambar yang menarik tetapi fiktif memicu peringatan tentang penipuan steroid dan informasi yang salah. Memang, pada 29 Maret 2023 sekelompok peneliti AI dan tokoh industri mendesak industri untuk menangguhkan pelatihan lebih lanjut tentang teknologi AI terbaru atau, jika tidak, pemerintah untuk "memaksakan moratorium".

Generator gambar seperti DALL-E , tengah perjalanan e Difusi Stabil dan pembuat konten seperti Penyair , ChatGPT , Chinchilla e Panggilan – sekarang tersedia untuk jutaan orang dan tidak memerlukan pengetahuan teknis untuk digunakan.

Mengingat semakin luasnya perusahaan teknologi yang menerapkan sistem AI dan mengujinya pada publik, pembuat kebijakan harus bertanya pada diri sendiri apakah dan bagaimana mengatur teknologi yang muncul. The Conversation meminta tiga pakar kebijakan teknologi untuk menjelaskan mengapa mengatur AI merupakan tantangan dan mengapa sangat penting untuk melakukannya dengan benar.

Kelemahan manusia dan target bergerak

S. Shyam Sundar, profesor efek multimedia dan direktur, Pusat AI yang Bertanggung Jawab Sosial, Penn State

Alasan untuk mengatur AI bukan karena teknologinya di luar kendali, tetapi karena imajinasi manusia di luar proporsinya. Liputan media yang luar biasa telah memicu keyakinan irasional tentang kemampuan dan kesadaran AI. Keyakinan ini didasarkan pada " bias otomatisasi ” atau pada kecenderungan untuk lengah saat mesin melakukan tugas. Contohnya adalah berkurangnya kewaspadaan di antara para pilot ketika pesawat mereka terbang dengan autopilot.

Sejumlah penelitian di lab saya telah menunjukkan bahwa ketika sebuah mesin, bukan manusia, diidentifikasi sebagai sumber interaksi, hal itu memicu jalan pintas mental di benak pengguna yang kami sebut "heuristik mesin". " . Singkatan ini adalah keyakinan bahwa mesin itu akurat, objektif, tidak memihak, sempurna, dan sebagainya. Itu mengaburkan penilaian pengguna dan menyebabkan pengguna mempercayai mesin secara berlebihan. Namun, hanya membuat orang kecewa tentang kesempurnaan AI tidaklah cukup, karena manusia diketahui secara tidak sadar mengasumsikan kemahiran bahkan ketika teknologi tidak menjaminnya.

Penelitian juga menunjukkan hal itu orang memperlakukan komputer sebagai makhluk sosial ketika mesin menunjukkan sedikit saja kemanusiaan, seperti penggunaan bahasa percakapan. Dalam hal ini, orang menerapkan aturan sosial interaksi manusia, seperti kesopanan dan timbal balik. Jadi, ketika komputer tampak hidup, orang cenderung memercayai mereka secara membabi buta. Regulasi diperlukan untuk memastikan produk AI layak mendapatkan kepercayaan ini dan tidak mengeksploitasinya.

AI menghadirkan tantangan unik karena, tidak seperti sistem rekayasa tradisional, perancang tidak dapat memastikan bagaimana kinerja sistem AI. Ketika sebuah mobil tradisional diluncurkan dari pabrik, para insinyur tahu persis bagaimana kinerjanya. Tapi dengan mobil self-driving, insinyur mereka tidak pernah bisa yakin bagaimana mereka akan berperilaku dalam situasi baru .

Kesulitan dalam mengendalikan inovasi

Akhir-akhir ini, ribuan orang di seluruh dunia kagum dengan apa yang dihasilkan oleh model AI generatif besar seperti GPT-4 dan DALL-E 2 sebagai tanggapan atas saran mereka. Tak satu pun dari insinyur yang terlibat dalam pengembangan model AI ini dapat memberi tahu Anda dengan tepat apa yang akan dihasilkan oleh model tersebut. Untuk memperumit masalah, model ini berubah dan berkembang dengan interaksi yang semakin besar.

Semua ini berarti ada banyak potensi misfire. Oleh karena itu, banyak tergantung pada bagaimana sistem AI diimplementasikan dan ketentuan apa yang ada untuk jalan lain ketika kepekaan atau kesejahteraan manusia dirugikan. AI lebih merupakan infrastruktur, seperti jalan bebas hambatan. Anda dapat merancangnya untuk membentuk perilaku manusia secara kolektif, tetapi Anda memerlukan mekanisme untuk menangani pelanggaran, seperti ngebut, dan kejadian tak terduga, seperti kecelakaan.

Pengembang AI juga harus sangat kreatif dalam memprediksi cara sistem berperilaku dan mencoba mengantisipasi potensi pelanggaran standar dan tanggung jawab sosial. Artinya, ada kebutuhan akan kerangka peraturan atau tata kelola yang bergantung pada audit berkala dan pengawasan terhadap hasil dan produk AI, meskipun saya yakin kerangka kerja ini juga harus mengakui bahwa perancang sistem tidak selalu dapat dimintai pertanggungjawaban atas insiden.

Menggabungkan pendekatan "lunak" dan "keras".

Cason Schmit, asisten profesor kesehatan masyarakat, Texas A&M University

Mengatur kecerdasan buatan itu rumit . Untuk menyetel AI dengan baik, Anda harus melakukannya terlebih dahulu defiselesaikan AI dan pahami risiko dan manfaat yang diharapkan dari AI. DefiMelegalkan AI penting untuk mengidentifikasi apa yang tunduk pada hukum. Namun teknologi AI masih terus berkembang, sehingga sulit dilakukan defimenyelesaikan satu defidefinisi hukum yang stabil.

Memahami risiko dan manfaat AI juga penting. Regulasi yang baik harus memaksimalkan manfaat publik dan meminimalkan risiko. Namun, penerapan AI masih terus bermunculan, sehingga sulit untuk mengetahui atau memprediksi apa risiko atau manfaat yang mungkin terjadi di masa depan. Jenis hal yang tidak diketahui ini membuat teknologi baru seperti AI menjadi sangat luar biasa sulit diatur dengan hukum dan peraturan adat.

Anggota parlemen adalah seringkali terlalu lambat untuk menyesuaikan terhadap lingkungan teknologi yang berubah dengan cepat. Seseorang undang-undang baru kadaluwarsa pada saat diterbitkan atau dijadikan eksekutif. Tanpa undang-undang baru, regulator mereka harus menggunakan hukum lama untuk menghadapi masalah baru . Terkadang ini mengarah ke hambatan hukum untuk manfaat sosial o celah hukum untuk perilaku berbahaya .

Hukum Lunak

"hukum lunak ” adalah alternatif dari pendekatan legislatif “hukum keras” tradisional yang ditujukan untuk mencegah pelanggaran tertentu. Dalam pendekatan hukum lunak, sebuah organisasi swasta didirikan aturan atau standar bagi anggota industri. Ini dapat berubah lebih cepat daripada undang-undang tradisional. Itu membuat hukum lunak yang menjanjikan untuk teknologi baru karena mereka dapat dengan cepat beradaptasi dengan aplikasi dan risiko baru. Namun, Undang-undang yang lunak dapat berarti penegakan hukum yang lunak .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) kami mengusulkan cara ketiga: Copyleft AI dengan Penegakan Tepercaya (CAITE) . Pendekatan ini menggabungkan dua konsep yang sangat berbeda dalam kekayaan intelektual: lisensi copyleft e patent troll.

Salin Lisensi Kiri

Lisensi copyleft memungkinkan Anda untuk dengan mudah menggunakan, menggunakan kembali, atau mengubah konten berdasarkan ketentuan lisensi, seperti perangkat lunak sumber terbuka. Model CAITE menggunakan lisensi copyleft untuk mewajibkan pengguna AI mengikuti pedoman etika tertentu, seperti penilaian transparan atas dampak bias.

Dalam model kami, lisensi ini juga mengalihkan hak hukum untuk menegakkan pelanggaran lisensi kepada pihak ketiga tepercaya. Hal ini menciptakan entitas penegakan hukum yang ada semata-mata untuk menegakkan standar etika AI dan dapat didanai sebagian dengan denda atas perilaku tidak etis. Entitas ini seperti a patent troll karena swasta daripada pemerintah dan mendukung dirinya sendiri dengan menegakkan hukum hak kekayaan intelektual itu mengumpulkan dari orang lain. Dalam hal ini, alih-alih mencari keuntungan, entitas menerapkan pedoman etis definite dalam lisensi.

Model ini fleksibel dan dapat diadaptasi untuk memenuhi kebutuhan lingkungan AI yang selalu berubah. Ini juga memungkinkan opsi penegakan substansial seperti regulator pemerintah tradisional. Dengan cara ini, ini menggabungkan elemen terbaik dari pendekatan hukum keras dan lunak untuk mengatasi tantangan unik AI.

Empat pertanyaan kunci untuk diajukan

John Villasenor, profesor teknik elektro, hukum, kebijakan publik dan manajemen, University of California, Los Angeles

itu kemajuan luar biasa baru-baru ini dalam bahasa besar AI generatif berbasis model memacu permintaan untuk membuat regulasi baru khusus AI. Berikut adalah empat pertanyaan kunci untuk ditanyakan pada diri sendiri:

1) Apakah perlu ada regulasi khusus baru untuk AI? 

Banyak dari hasil sistem AI yang berpotensi bermasalah telah ditangani oleh kerangka kerja yang ada. Jika algoritme AI yang digunakan oleh bank untuk mengevaluasi aplikasi pinjaman mengarah pada keputusan pinjaman yang diskriminatif secara rasial, itu akan melanggar Undang-Undang Perumahan Adil.Jika perangkat lunak AI di mobil tanpa pengemudi menyebabkan kecelakaan, undang-undang kewajiban produk memberikan kerangka kerja untuk mengejar pemulihan .

2) Apa risiko mengatur teknologi yang berkembang pesat berdasarkan snapshot waktu? 

Contoh klasik dari ini adalah Komunikasi disimpan Act , yang diberlakukan pada tahun 1986 untuk menangani teknologi komunikasi digital yang inovatif seperti email. Dalam memberlakukan SCA, Kongres memberikan perlindungan privasi yang jauh lebih sedikit untuk email yang lebih lama dari 180 hari.

Alasannya adalah penyimpanan yang terbatas berarti orang terus-menerus membersihkan kotak masuk mereka dengan menghapus pesan lama untuk memberi ruang bagi yang baru. Akibatnya, pesan yang diarsipkan selama lebih dari 180 hari dianggap kurang penting dari sudut pandang privasi. Tidak jelas apakah logika ini pernah masuk akal, dan tentu saja tidak masuk akal di tahun 20-an, ketika sebagian besar email kami dan komunikasi digital yang diarsipkan lainnya berusia lebih dari enam bulan.

Tanggapan umum terhadap kekhawatiran tentang pengaturan teknologi berdasarkan satu snapshot dari waktu ke waktu adalah: Jika undang-undang atau peraturan menjadi usang, perbarui. Lebih mudah diucapkan daripada dilakukan. Kebanyakan orang setuju bahwa SCA menjadi usang beberapa dekade yang lalu. Tetapi karena Kongres tidak dapat secara khusus menyepakati bagaimana merevisi ketentuan 180 hari itu, ketentuan itu masih tercatat lebih dari sepertiga abad setelah diberlakukan.

3) Apa potensi konsekuensi yang tidak diinginkan? 

Il Izinkan Negara dan Korban untuk Memerangi Undang-Undang Perdagangan Seks Online 2017 itu adalah undang-undang yang disahkan pada tahun 2018 yang dia revisi Bagian 230 Undang-Undang Kesopanan Komunikasi dengan tujuan memerangi perdagangan seks. Meskipun hanya ada sedikit bukti bahwa dia telah mengurangi perdagangan seks, dia memiliki a dampak yang sangat bermasalah pada kelompok orang yang berbeda: pekerja seks yang mengandalkan situs web yang dibuat offline oleh FOSTA-SESTA untuk bertukar informasi tentang klien berbahaya. Contoh ini menunjukkan pentingnya melihat secara luas dampak potensial dari peraturan yang diusulkan.

4) Apa implikasi ekonomi dan geopolitiknya? 

Jika regulator di AS mengambil tindakan untuk sengaja memperlambat kemajuan AI, itu hanya akan mendorong investasi dan inovasi – dan menghasilkan penciptaan lapangan kerja – di tempat lain. Sementara AI yang muncul menimbulkan banyak kekhawatiran, itu juga menjanjikan manfaat besar di bidang-bidang seperti petunjuk , obat , produksi , keamanan transportasi , pertanian , meteorologiche previsioni , akses ke layanan hukum dan lainnya.

Saya percaya bahwa peraturan AI yang dirancang dengan mempertimbangkan empat pertanyaan di atas akan lebih mungkin berhasil mengatasi potensi bahaya AI sambil memastikan akses ke manfaatnya.

Artikel ini dikutip secara bebas dari The Conversation, sebuah organisasi berita nirlaba independen yang didedikasikan untuk berbagi pengetahuan para pakar akademik.

Bacaan Terkait

BlogInnovazione.it

Buletin inovasi
Jangan lewatkan berita terpenting tentang inovasi. Daftar untuk menerimanya melalui email.

Artikel Terbaru

Intervensi inovatif dalam Augmented Reality, dengan penampil Apple di Poliklinik Catania

Operasi oftalmoplasti menggunakan penampil komersial Apple Vision Pro dilakukan di Poliklinik Catania…

3 Mei 2024

Manfaat Halaman Mewarnai untuk Anak - dunia keajaiban untuk segala usia

Mengembangkan keterampilan motorik halus melalui mewarnai mempersiapkan anak untuk keterampilan yang lebih kompleks seperti menulis. Mewarnai…

2 Mei 2024

Masa Depan Ada di Sini: Bagaimana Industri Perkapalan Merevolusi Perekonomian Global

Sektor angkatan laut adalah kekuatan ekonomi global sejati, yang telah menuju pasar 150 miliar...

1 Mei 2024

Penerbit dan OpenAI menandatangani perjanjian untuk mengatur aliran informasi yang diproses oleh Kecerdasan Buatan

Senin lalu, Financial Times mengumumkan kesepakatan dengan OpenAI. FT melisensikan jurnalisme kelas dunianya…

April 30 2024