Perkiraan waktu membaca: 11 minuti
Dari foto palsu Donald Trump ditangkap oleh petugas polisi Kota New York ke chatbot yang menjelaskannya ilmuwan komputer sangat hidup seperti meninggal secara tragis , kemampuan sistem generasi baru kecerdasan buatan dorongan generatif untuk membuat teks dan gambar yang menarik tetapi fiktif memicu peringatan tentang penipuan steroid dan informasi yang salah. Memang, pada 29 Maret 2023 sekelompok peneliti AI dan tokoh industri mendesak industri untuk menangguhkan pelatihan lebih lanjut tentang teknologi AI terbaru atau, jika tidak, pemerintah untuk "memaksakan moratorium".
Generator gambar seperti DALL-E , tengah perjalanan e Difusi Stabil dan pembuat konten seperti Penyair , ChatGPT , Chinchilla e Panggilan – sekarang tersedia untuk jutaan orang dan tidak memerlukan pengetahuan teknis untuk digunakan.
Mengingat semakin luasnya perusahaan teknologi yang menerapkan sistem AI dan mengujinya pada publik, pembuat kebijakan harus bertanya pada diri sendiri apakah dan bagaimana mengatur teknologi yang muncul. The Conversation meminta tiga pakar kebijakan teknologi untuk menjelaskan mengapa mengatur AI merupakan tantangan dan mengapa sangat penting untuk melakukannya dengan benar.
S. Shyam Sundar, profesor efek multimedia dan direktur, Pusat AI yang Bertanggung Jawab Sosial, Penn State
Alasan untuk mengatur AI bukan karena teknologinya di luar kendali, tetapi karena imajinasi manusia di luar proporsinya. Liputan media yang luar biasa telah memicu keyakinan irasional tentang kemampuan dan kesadaran AI. Keyakinan ini didasarkan pada " bias otomatisasi ” atau pada kecenderungan untuk lengah saat mesin melakukan tugas. Contohnya adalah berkurangnya kewaspadaan di antara para pilot ketika pesawat mereka terbang dengan autopilot.
Sejumlah penelitian di lab saya telah menunjukkan bahwa ketika sebuah mesin, bukan manusia, diidentifikasi sebagai sumber interaksi, hal itu memicu jalan pintas mental di benak pengguna yang kami sebut "heuristik mesin". " . Singkatan ini adalah keyakinan bahwa mesin itu akurat, objektif, tidak memihak, sempurna, dan sebagainya. Itu mengaburkan penilaian pengguna dan menyebabkan pengguna mempercayai mesin secara berlebihan. Namun, hanya membuat orang kecewa tentang kesempurnaan AI tidaklah cukup, karena manusia diketahui secara tidak sadar mengasumsikan kemahiran bahkan ketika teknologi tidak menjaminnya.
Penelitian juga menunjukkan hal itu orang memperlakukan komputer sebagai makhluk sosial ketika mesin menunjukkan sedikit saja kemanusiaan, seperti penggunaan bahasa percakapan. Dalam hal ini, orang menerapkan aturan sosial interaksi manusia, seperti kesopanan dan timbal balik. Jadi, ketika komputer tampak hidup, orang cenderung memercayai mereka secara membabi buta. Regulasi diperlukan untuk memastikan produk AI layak mendapatkan kepercayaan ini dan tidak mengeksploitasinya.
AI menghadirkan tantangan unik karena, tidak seperti sistem rekayasa tradisional, perancang tidak dapat memastikan bagaimana kinerja sistem AI. Ketika sebuah mobil tradisional diluncurkan dari pabrik, para insinyur tahu persis bagaimana kinerjanya. Tapi dengan mobil self-driving, insinyur mereka tidak pernah bisa yakin bagaimana mereka akan berperilaku dalam situasi baru .
Akhir-akhir ini, ribuan orang di seluruh dunia kagum dengan apa yang dihasilkan oleh model AI generatif besar seperti GPT-4 dan DALL-E 2 sebagai tanggapan atas saran mereka. Tak satu pun dari insinyur yang terlibat dalam pengembangan model AI ini dapat memberi tahu Anda dengan tepat apa yang akan dihasilkan oleh model tersebut. Untuk memperumit masalah, model ini berubah dan berkembang dengan interaksi yang semakin besar.
Semua ini berarti ada banyak potensi misfire. Oleh karena itu, banyak tergantung pada bagaimana sistem AI diimplementasikan dan ketentuan apa yang ada untuk jalan lain ketika kepekaan atau kesejahteraan manusia dirugikan. AI lebih merupakan infrastruktur, seperti jalan bebas hambatan. Anda dapat merancangnya untuk membentuk perilaku manusia secara kolektif, tetapi Anda memerlukan mekanisme untuk menangani pelanggaran, seperti ngebut, dan kejadian tak terduga, seperti kecelakaan.
Pengembang AI juga harus sangat kreatif dalam memprediksi cara sistem berperilaku dan mencoba mengantisipasi potensi pelanggaran standar dan tanggung jawab sosial. Artinya, ada kebutuhan akan kerangka peraturan atau tata kelola yang bergantung pada audit berkala dan pengawasan terhadap hasil dan produk AI, meskipun saya yakin kerangka kerja ini juga harus mengakui bahwa perancang sistem tidak selalu dapat dimintai pertanggungjawaban atas insiden.
Cason Schmit, asisten profesor kesehatan masyarakat, Texas A&M University
Mengatur kecerdasan buatan itu rumit . Untuk menyetel AI dengan baik, Anda harus melakukannya terlebih dahulu defiselesaikan AI dan pahami risiko dan manfaat yang diharapkan dari AI. DefiMelegalkan AI penting untuk mengidentifikasi apa yang tunduk pada hukum. Namun teknologi AI masih terus berkembang, sehingga sulit dilakukan defimenyelesaikan satu defidefinisi hukum yang stabil.
Memahami risiko dan manfaat AI juga penting. Regulasi yang baik harus memaksimalkan manfaat publik dan meminimalkan risiko. Namun, penerapan AI masih terus bermunculan, sehingga sulit untuk mengetahui atau memprediksi apa risiko atau manfaat yang mungkin terjadi di masa depan. Jenis hal yang tidak diketahui ini membuat teknologi baru seperti AI menjadi sangat luar biasa sulit diatur dengan hukum dan peraturan adat.
Anggota parlemen adalah seringkali terlalu lambat untuk menyesuaikan terhadap lingkungan teknologi yang berubah dengan cepat. Seseorang undang-undang baru kadaluwarsa pada saat diterbitkan atau dijadikan eksekutif. Tanpa undang-undang baru, regulator mereka harus menggunakan hukum lama untuk menghadapi masalah baru . Terkadang ini mengarah ke hambatan hukum untuk manfaat sosial o celah hukum untuk perilaku berbahaya .
"hukum lunak ” adalah alternatif dari pendekatan legislatif “hukum keras” tradisional yang ditujukan untuk mencegah pelanggaran tertentu. Dalam pendekatan hukum lunak, sebuah organisasi swasta didirikan aturan atau standar bagi anggota industri. Ini dapat berubah lebih cepat daripada undang-undang tradisional. Itu membuat hukum lunak yang menjanjikan untuk teknologi baru karena mereka dapat dengan cepat beradaptasi dengan aplikasi dan risiko baru. Namun, Undang-undang yang lunak dapat berarti penegakan hukum yang lunak .
Megan Doerr , Jennifer Wagner e io (Cason Schmit) kami mengusulkan cara ketiga: Copyleft AI dengan Penegakan Tepercaya (CAITE) . Pendekatan ini menggabungkan dua konsep yang sangat berbeda dalam kekayaan intelektual: lisensi copyleft
e patent troll
.
Lisensi copyleft
memungkinkan Anda untuk dengan mudah menggunakan, menggunakan kembali, atau mengubah konten berdasarkan ketentuan lisensi, seperti perangkat lunak sumber terbuka. Model CAITE
menggunakan lisensi copyleft
untuk mewajibkan pengguna AI mengikuti pedoman etika tertentu, seperti penilaian transparan atas dampak bias.
Dalam model kami, lisensi ini juga mengalihkan hak hukum untuk menegakkan pelanggaran lisensi kepada pihak ketiga tepercaya. Hal ini menciptakan entitas penegakan hukum yang ada semata-mata untuk menegakkan standar etika AI dan dapat didanai sebagian dengan denda atas perilaku tidak etis. Entitas ini seperti a patent troll
karena swasta daripada pemerintah dan mendukung dirinya sendiri dengan menegakkan hukum hak kekayaan intelektual itu mengumpulkan dari orang lain. Dalam hal ini, alih-alih mencari keuntungan, entitas menerapkan pedoman etis definite dalam lisensi.
Model ini fleksibel dan dapat diadaptasi untuk memenuhi kebutuhan lingkungan AI yang selalu berubah. Ini juga memungkinkan opsi penegakan substansial seperti regulator pemerintah tradisional. Dengan cara ini, ini menggabungkan elemen terbaik dari pendekatan hukum keras dan lunak untuk mengatasi tantangan unik AI.
John Villasenor, profesor teknik elektro, hukum, kebijakan publik dan manajemen, University of California, Los Angeles
itu kemajuan luar biasa baru-baru ini dalam bahasa besar AI generatif berbasis model memacu permintaan untuk membuat regulasi baru khusus AI. Berikut adalah empat pertanyaan kunci untuk ditanyakan pada diri sendiri:
Banyak dari hasil sistem AI yang berpotensi bermasalah telah ditangani oleh kerangka kerja yang ada. Jika algoritme AI yang digunakan oleh bank untuk mengevaluasi aplikasi pinjaman mengarah pada keputusan pinjaman yang diskriminatif secara rasial, itu akan melanggar Undang-Undang Perumahan Adil.Jika perangkat lunak AI di mobil tanpa pengemudi menyebabkan kecelakaan, undang-undang kewajiban produk memberikan kerangka kerja untuk mengejar pemulihan .
Contoh klasik dari ini adalah Komunikasi disimpan Act , yang diberlakukan pada tahun 1986 untuk menangani teknologi komunikasi digital yang inovatif seperti email. Dalam memberlakukan SCA, Kongres memberikan perlindungan privasi yang jauh lebih sedikit untuk email yang lebih lama dari 180 hari.
Alasannya adalah penyimpanan yang terbatas berarti orang terus-menerus membersihkan kotak masuk mereka dengan menghapus pesan lama untuk memberi ruang bagi yang baru. Akibatnya, pesan yang diarsipkan selama lebih dari 180 hari dianggap kurang penting dari sudut pandang privasi. Tidak jelas apakah logika ini pernah masuk akal, dan tentu saja tidak masuk akal di tahun 20-an, ketika sebagian besar email kami dan komunikasi digital yang diarsipkan lainnya berusia lebih dari enam bulan.
Tanggapan umum terhadap kekhawatiran tentang pengaturan teknologi berdasarkan satu snapshot dari waktu ke waktu adalah: Jika undang-undang atau peraturan menjadi usang, perbarui. Lebih mudah diucapkan daripada dilakukan. Kebanyakan orang setuju bahwa SCA menjadi usang beberapa dekade yang lalu. Tetapi karena Kongres tidak dapat secara khusus menyepakati bagaimana merevisi ketentuan 180 hari itu, ketentuan itu masih tercatat lebih dari sepertiga abad setelah diberlakukan.
Il Izinkan Negara dan Korban untuk Memerangi Undang-Undang Perdagangan Seks Online 2017 itu adalah undang-undang yang disahkan pada tahun 2018 yang dia revisi Bagian 230 Undang-Undang Kesopanan Komunikasi dengan tujuan memerangi perdagangan seks. Meskipun hanya ada sedikit bukti bahwa dia telah mengurangi perdagangan seks, dia memiliki a dampak yang sangat bermasalah pada kelompok orang yang berbeda: pekerja seks yang mengandalkan situs web yang dibuat offline oleh FOSTA-SESTA untuk bertukar informasi tentang klien berbahaya. Contoh ini menunjukkan pentingnya melihat secara luas dampak potensial dari peraturan yang diusulkan.
Jika regulator di AS mengambil tindakan untuk sengaja memperlambat kemajuan AI, itu hanya akan mendorong investasi dan inovasi – dan menghasilkan penciptaan lapangan kerja – di tempat lain. Sementara AI yang muncul menimbulkan banyak kekhawatiran, itu juga menjanjikan manfaat besar di bidang-bidang seperti petunjuk , obat , produksi , keamanan transportasi , pertanian , meteorologiche previsioni , akses ke layanan hukum dan lainnya.
Saya percaya bahwa peraturan AI yang dirancang dengan mempertimbangkan empat pertanyaan di atas akan lebih mungkin berhasil mengatasi potensi bahaya AI sambil memastikan akses ke manfaatnya.
Artikel ini dikutip secara bebas dari The Conversation, sebuah organisasi berita nirlaba independen yang didedikasikan untuk berbagi pengetahuan para pakar akademik.
BlogInnovazione.it
Operasi oftalmoplasti menggunakan penampil komersial Apple Vision Pro dilakukan di Poliklinik Catania…
Mengembangkan keterampilan motorik halus melalui mewarnai mempersiapkan anak untuk keterampilan yang lebih kompleks seperti menulis. Mewarnai…
Sektor angkatan laut adalah kekuatan ekonomi global sejati, yang telah menuju pasar 150 miliar...
Senin lalu, Financial Times mengumumkan kesepakatan dengan OpenAI. FT melisensikan jurnalisme kelas dunianya…