บทความ

การควบคุม AI: ผู้เชี่ยวชาญ 3 คนอธิบายว่าทำไมการทำดีจึงเป็นเรื่องยากและสำคัญ

ระบบ AI ใหม่ที่มีประสิทธิภาพสามารถขยายการฉ้อโกงและการบิดเบือนข้อมูล ซึ่งนำไปสู่การเรียกร้องให้มีกฎระเบียบของรัฐบาลอย่างกว้างขวาง แต่การทำเช่นนั้นพูดง่ายกว่าทำและอาจส่งผลตามมาโดยไม่ตั้งใจ

เวลาในการอ่านโดยประมาณ: 11 นาที

แผ่นหิน ภาพถ่ายปลอม ของโดนัลด์ ทรัมป์ ที่ถูกจับกุมโดยเจ้าหน้าที่ตำรวจนครนิวยอร์กไปยังแชทบ็อตที่บรรยายถึงเรื่องหนึ่ง นักวิทยาศาสตร์คอมพิวเตอร์เสียชีวิตอย่างน่าอนาถเป็นอย่างมาก ความสามารถของระบบยุคใหม่ ปัญญาประดิษฐ์ แรงผลักดันในการสร้างข้อความและรูปภาพที่น่าสนใจแต่เป็นเรื่องสมมติกำลังจุดประกายสัญญาณเตือนเกี่ยวกับการฉ้อโกงสเตียรอยด์และข้อมูลที่ผิด แท้จริงแล้ว เมื่อวันที่ 29 มีนาคม 2023 กลุ่มนักวิจัย AI และบุคคลสำคัญในอุตสาหกรรมเรียกร้องให้อุตสาหกรรมระงับการฝึกอบรมเพิ่มเติมเกี่ยวกับเทคโนโลยี AI ล่าสุด หรือยกเว้นว่ารัฐบาลจะ

เครื่องกำเนิดภาพเช่น DALL-E , กลางการเดินทาง e การแพร่กระจายที่เสถียร และผู้สร้างเนื้อหาเช่น นักประพันธ์เพลง , ChatGPT , สัตว์ชนิดหนึ่ง e โทร – ปัจจุบันมีให้บริการแก่ผู้คนหลายล้านคนและไม่จำเป็นต้องมีความรู้ทางเทคนิคก็ใช้งานได้

เมื่อพิจารณาจากภาพรวมของบริษัทเทคโนโลยีที่ปรับใช้ระบบ AI และทดสอบกับสาธารณะ ผู้กำหนดนโยบายควรถามตนเองว่าจะควบคุมเทคโนโลยีที่เกิดขึ้นใหม่หรือไม่และอย่างไร การสนทนาขอให้ผู้เชี่ยวชาญด้านนโยบายเทคโนโลยีสามคนอธิบายว่าเหตุใดการควบคุม AI จึงเป็นความท้าทาย และเหตุใดการทำให้ถูกต้องจึงสำคัญมาก

จุดอ่อนของมนุษย์และเป้าหมายที่เคลื่อนไหว

S. Shyam Sundar ศาสตราจารย์ด้านเอฟเฟกต์มัลติมีเดียและผู้อำนวยการ Center for Socially Responsible AI, Penn State

เหตุผลในการควบคุม AI ไม่ใช่เพราะเทคโนโลยีอยู่นอกเหนือการควบคุม แต่เป็นเพราะจินตนาการของมนุษย์เกินสัดส่วน การรายงานข่าวของสื่ออย่างท่วมท้นได้กระตุ้นความเชื่อที่ไม่มีเหตุผลเกี่ยวกับความสามารถและจิตสำนึกของ AI ความเชื่อเหล่านี้มีพื้นฐานมาจาก อคติอัตโนมัติ ” หรือแนวโน้มที่จะลดการป้องกันลงเมื่อเครื่องจักรทำงาน ตัวอย่างคือ ความระมัดระวังของนักบินลดลง เมื่อเครื่องบินของพวกเขาบินด้วยระบบขับเคลื่อนอัตโนมัติ

การศึกษาจำนวนมากในห้องปฏิบัติการของฉันแสดงให้เห็นว่าเมื่อเครื่องจักร แทนที่จะเป็นมนุษย์ ถูกระบุว่าเป็นแหล่งของการโต้ตอบ มันจะกระตุ้นทางลัดทางจิตในใจของผู้ใช้ที่เราเรียกว่า "การวิเคราะห์พฤติกรรมของเครื่องจักร" " . การจดชวเลขนี้เป็นความเชื่อที่ว่าเครื่องจักรมีความแม่นยำ มีวัตถุประสงค์ เป็นกลาง ไม่มีข้อผิดพลาด และอื่นๆ มันบดบังวิจารณญาณของผู้ใช้และทำให้ผู้ใช้ไว้วางใจเครื่องจักรมากเกินไป อย่างไรก็ตาม การทำให้ผู้คนไม่แยแสเรื่องความผิดพลาดของ AI เพียงอย่างเดียวนั้นไม่เพียงพอ เพราะมนุษย์เป็นที่ทราบกันดีว่าเข้าใจถึงความสามารถโดยไม่รู้ตัว แม้ว่าเทคโนโลยีจะไม่รับประกันก็ตาม

การวิจัยยังแสดงให้เห็นว่า ผู้คนถือว่าคอมพิวเตอร์เป็นสิ่งมีชีวิตทางสังคม เมื่อเครื่องจักรแสดงให้เห็นถึงความเป็นมนุษย์แม้แต่น้อย เช่น การใช้ภาษาสนทนา ในกรณีเหล่านี้ ผู้คนใช้กฎทางสังคมของการมีปฏิสัมพันธ์ระหว่างมนุษย์ เช่น ความเอื้อเฟื้อเผื่อแผ่และการแลกเปลี่ยนซึ่งกันและกัน ดังนั้นเมื่อคอมพิวเตอร์ดูเหมือนมีความรู้สึก ผู้คนมักจะไว้ใจพวกเขาอย่างสุ่มสี่สุ่มห้า จำเป็นต้องมีกฎระเบียบเพื่อให้แน่ใจว่าผลิตภัณฑ์ AI สมควรได้รับความไว้วางใจนี้และไม่ถูกใช้ประโยชน์

AI นำเสนอความท้าทายที่ไม่เหมือนใคร เพราะไม่เหมือนกับระบบวิศวกรรมแบบดั้งเดิม นักออกแบบไม่สามารถแน่ใจได้ว่าระบบ AI จะทำงานอย่างไร เมื่อรถยนต์แบบดั้งเดิมออกจากโรงงาน วิศวกรรู้ดีว่าจะต้องดำเนินการอย่างไร แต่กับรถยนต์ไร้คนขับ วิศวกร พวกเขาไม่สามารถแน่ใจได้ว่าพวกเขาจะประพฤติตัวอย่างไรในสถานการณ์ใหม่ .

ความยากลำบากในการควบคุมนวัตกรรม

เมื่อเร็ว ๆ นี้ ผู้คนหลายพันคนทั่วโลกประหลาดใจกับสิ่งที่โมเดล AI กำเนิดขนาดใหญ่อย่าง GPT-4 และ DALL-E 2 สร้างขึ้นเพื่อตอบสนองต่อคำแนะนำของพวกเขา ไม่มีวิศวกรคนใดที่เกี่ยวข้องกับการพัฒนาโมเดล AI เหล่านี้ที่สามารถบอกคุณได้อย่างแน่ชัดว่าโมเดลจะผลิตอะไร เพื่อทำให้เรื่องซับซ้อนขึ้น โมเดลเหล่านี้เปลี่ยนแปลงและพัฒนาด้วยการโต้ตอบที่มากขึ้น

ทั้งหมดนี้หมายความว่ามีโอกาสเพียงพอสำหรับความผิดพลาด ดังนั้น ขึ้นอยู่กับการนำระบบ AI ไปใช้ และข้อกำหนดสำหรับการขอความช่วยเหลือมีไว้อย่างไรเมื่อความรู้สึกอ่อนไหวหรือความเป็นอยู่ของมนุษย์ได้รับความเสียหาย AI เป็นมากกว่าโครงสร้างพื้นฐาน เช่น ทางด่วน คุณสามารถออกแบบให้กำหนดพฤติกรรมของมนุษย์โดยรวมได้ แต่คุณจะต้องมีกลไกในการจัดการกับการละเมิด เช่น การขับรถเร็ว และเหตุการณ์ที่คาดเดาไม่ได้ เช่น อุบัติเหตุ

นอกจากนี้ นักพัฒนา AI จะต้องมีความคิดสร้างสรรค์เป็นพิเศษในการคาดคะเนวิธีที่ระบบอาจทำงาน และพยายามคาดการณ์ถึงการละเมิดมาตรฐานและความรับผิดชอบทางสังคมที่อาจเกิดขึ้น ซึ่งหมายความว่าจำเป็นต้องมีกรอบการกำกับดูแลหรือการกำกับดูแลที่อาศัยการตรวจสอบเป็นระยะและการตรวจสอบข้อเท็จจริงของผลลัพธ์และผลิตภัณฑ์ของ AI แม้ว่าฉันเชื่อว่ากรอบการทำงานเหล่านี้ควรตระหนักด้วยว่าผู้ออกแบบระบบไม่สามารถรับผิดชอบต่อเหตุการณ์ที่เกิดขึ้นได้เสมอไป

ผสมผสานวิธีการ "อ่อน" และ "ยาก"

Cason Schmit ผู้ช่วยศาสตราจารย์ด้านสาธารณสุข มหาวิทยาลัย Texas A&M

การควบคุมปัญญาประดิษฐ์นั้นซับซ้อน . หากต้องการปรับแต่ง AI ให้ดี คุณต้องทำก่อน defiใช้เทคโนโลยี AI และเข้าใจความเสี่ยงและผลประโยชน์ที่คาดว่าจะได้รับจาก AI Defiการทำให้ AI ถูกต้องตามกฎหมายเป็นสิ่งสำคัญในการระบุสิ่งที่อยู่ภายใต้กฎหมาย แต่เทคโนโลยี AI ยังคงมีการพัฒนาจึงเป็นเรื่องยาก defiจบหนึ่ง defiคำจำกัดความทางกฎหมายที่มั่นคง

การทำความเข้าใจความเสี่ยงและประโยชน์ของ AI ก็มีความสำคัญเช่นกัน กฎระเบียบที่ดีควรเพิ่มผลประโยชน์สาธารณะสูงสุดในขณะที่ลดความเสี่ยงให้เหลือน้อยที่สุด อย่างไรก็ตาม แอปพลิเคชัน AI ยังคงเกิดขึ้น ดังนั้นจึงเป็นเรื่องยากที่จะทราบหรือคาดการณ์ความเสี่ยงหรือผลประโยชน์ในอนาคต สิ่งที่ไม่ทราบประเภทนี้ทำให้เทคโนโลยีเกิดใหม่อย่าง AI เกิดขึ้นอย่างมาก ควบคุมได้ยาก ด้วยกฎหมายและข้อบังคับแบบดั้งเดิม

ฝ่ายนิติบัญญัติคือ มักจะปรับตัวได้ช้าเกินไป ต่อสภาพแวดล้อมทางเทคโนโลยีที่เปลี่ยนแปลงอย่างรวดเร็ว บางคน กฎหมายใหม่ ล้าสมัยในขณะที่ออกหรือ ทำเป็นผู้บริหาร. โดยไม่มีกฎหมายใหม่ควบคุม ก็ต้องใช้กฎหมายเดิม ที่จะเผชิญ ปัญหาใหม่ . บางครั้งสิ่งนี้นำไปสู่ อุปสรรคทางกฎหมาย ต่อ ประโยชน์ต่อสังคม o ช่องโหว่ทางกฎหมาย ต่อ พฤติกรรมที่เป็นอันตราย .

กฎหมายอ่อน

"กฎหมายอ่อน ” เป็นทางเลือกแทนแนวทางการออกกฎหมายแบบ “กฎหมายยาก” แบบดั้งเดิมที่มุ่งป้องกันการละเมิดเฉพาะ ในแนวทาง soft law นั้น องค์กรเอกชนเป็นผู้จัดตั้งขึ้น กฎหรือมาตรฐาน สำหรับสมาชิกในอุตสาหกรรม สิ่งเหล่านี้สามารถเปลี่ยนแปลงได้เร็วกว่ากฎหมายแบบดั้งเดิม นั่นทำให้ สัญญากฎหมายที่นุ่มนวล สำหรับเทคโนโลยีที่เกิดขึ้นใหม่ เนื่องจากสามารถปรับให้เข้ากับการใช้งานและความเสี่ยงใหม่ ๆ ได้อย่างรวดเร็ว อย่างไรก็ตาม, กฎหมายที่นุ่มนวลอาจหมายถึงการบังคับใช้ที่นุ่มนวล .

เมแกน ดอร์ , เจนนิเฟอร์ แว็กเนอร์ e io (คาสัน ชมิท) เราเสนอวิธีที่สาม: Copyleft AI พร้อมการบังคับใช้ที่เชื่อถือได้ (CAITE) . วิธีการนี้เป็นการรวมสองแนวคิดที่แตกต่างกันอย่างมากในทรัพย์สินทางปัญญา: ใบอนุญาต copyleft e patent troll.

คัดลอกใบอนุญาตที่เหลือ

ใบอนุญาต copyleft อนุญาตให้คุณใช้ ใช้ซ้ำ หรือแก้ไขเนื้อหาภายใต้เงื่อนไขของใบอนุญาต เช่น ซอฟต์แวร์โอเพ่นซอร์ส แบบอย่าง CAITE ใช้ใบอนุญาต copyleft เพื่อกำหนดให้ผู้ใช้ AI ปฏิบัติตามแนวทางจริยธรรมเฉพาะ เช่น การประเมินผลกระทบของอคติอย่างโปร่งใส

ในรูปแบบของเรา ใบอนุญาตเหล่านี้ยังโอนสิทธิ์ตามกฎหมายในการบังคับใช้การละเมิดใบอนุญาตไปยังบุคคลที่สามที่เชื่อถือได้ สิ่งนี้สร้างหน่วยงานบังคับใช้ที่มีอยู่เพื่อบังคับใช้มาตรฐานทางจริยธรรมของ AI เท่านั้น และสามารถได้รับการสนับสนุนบางส่วนจากค่าปรับสำหรับพฤติกรรมที่ผิดจรรยาบรรณ เอนทิตีนี้เป็นเหมือน patent troll เนื่องจากเป็นส่วนตัวมากกว่าราชการและสนับสนุนตัวเองด้วยการบังคับใช้กฎหมายทรัพย์สินทางปัญญาที่รวบรวมจากผู้อื่น ในกรณีนี้ แทนที่จะดำเนินการเพื่อผลกำไร กิจการบังคับใช้แนวทางด้านจริยธรรม defiคืนในใบอนุญาต

โมเดลนี้มีความยืดหยุ่นและปรับเปลี่ยนได้เพื่อตอบสนองความต้องการของสภาพแวดล้อม AI ที่เปลี่ยนแปลงตลอดเวลา นอกจากนี้ยังช่วยให้มีตัวเลือกการบังคับใช้มากมาย เช่น หน่วยงานกำกับดูแลของรัฐบาลแบบดั้งเดิม ด้วยวิธีนี้ จึงรวมองค์ประกอบที่ดีที่สุดของแนวทางกฎหมายแบบแข็งและแบบอ่อนเพื่อจัดการกับความท้าทายที่ไม่เหมือนใครของ AI

คำถามสำคัญสี่ข้อที่ต้องถาม

John Villasenor ศาสตราจารย์ด้านวิศวกรรมไฟฟ้า กฎหมาย นโยบายสาธารณะและการจัดการ มหาวิทยาลัยแคลิฟอร์เนีย ลอสแองเจลิส

gli ความคืบหน้าล่าสุดที่ไม่ธรรมดา ในเจเนอเรทีฟ AI ที่ใช้แบบจำลองภาษาขนาดใหญ่กำลังกระตุ้นความต้องการในการสร้างกฎระเบียบใหม่เฉพาะสำหรับเอไอ ต่อไปนี้เป็นคำถามสำคัญ XNUMX ข้อที่ต้องถามตัวเอง:

1) จำเป็นต้องมีกฎระเบียบเฉพาะใหม่สำหรับ AI หรือไม่ 

ผลลัพธ์ที่อาจเป็นปัญหาจำนวนมากของระบบ AI ได้รับการแก้ไขแล้วโดยเฟรมเวิร์กที่มีอยู่ หากอัลกอริทึม AI ที่ใช้โดยธนาคารเพื่อประเมินคำขอสินเชื่อนำไปสู่การตัดสินใจให้กู้ยืมโดยเลือกปฏิบัติทางเชื้อชาติ จะเป็นการฝ่าฝืน Fair Housing Act หากซอฟต์แวร์ AI ในรถยนต์ไร้คนขับก่อให้เกิดอุบัติเหตุ กฎหมายความรับผิดต่อผลิตภัณฑ์จะกำหนด กรอบแนวทางการดำเนินการเยียวยา .

2) อะไรคือความเสี่ยงของการควบคุมเทคโนโลยีที่พัฒนาอย่างรวดเร็วตามภาพรวมของเวลา? 

ตัวอย่างคลาสสิกของสิ่งนี้คือ พระราชบัญญัติการสื่อสารที่จัดเก็บ ซึ่งประกาศใช้ในปี 1986 เพื่อจัดการกับเทคโนโลยีการสื่อสารดิจิทัลที่เป็นนวัตกรรมในขณะนั้น เช่น อีเมล ในการบังคับใช้ SCA สภาคองเกรสให้การคุ้มครองความเป็นส่วนตัวน้อยลงอย่างมากสำหรับอีเมลที่มีอายุมากกว่า 180 วัน

เหตุผลก็คือพื้นที่เก็บข้อมูลที่จำกัดหมายความว่าผู้คนทำความสะอาดกล่องจดหมายอย่างต่อเนื่องโดยการลบข้อความเก่าเพื่อให้มีที่ว่างสำหรับข้อความใหม่ ด้วยเหตุนี้ ข้อความที่เก็บไว้นานกว่า 180 วันจึงถือว่ามีความสำคัญน้อยกว่าในแง่ของความเป็นส่วนตัว ไม่ชัดเจนว่าตรรกะนี้เคยสมเหตุสมผลหรือไม่ และแน่นอนว่ามันไม่สมเหตุสมผลเลยในช่วงทศวรรษที่ 20 เมื่ออีเมลและการสื่อสารทางดิจิทัลที่เก็บถาวรส่วนใหญ่ของเรามีอายุมากกว่าหกเดือน

คำตอบทั่วไปสำหรับข้อกังวลเกี่ยวกับการควบคุมเทคโนโลยีตามสแน็ปช็อตเดียวเมื่อเวลาผ่านไปคือ: หากกฎหมายหรือข้อบังคับล้าสมัย ให้ปรับปรุง พูดง่ายกว่าทำ คนส่วนใหญ่ยอมรับว่า SCA ล้าสมัยเมื่อหลายสิบปีก่อน แต่เนื่องจากสภาคองเกรสไม่สามารถตกลงกันได้อย่างเจาะจงเกี่ยวกับวิธีการแก้ไขบทบัญญัติ 180 วัน จึงยังคงอยู่ในหนังสือมากกว่าหนึ่งในสามของศตวรรษหลังจากประกาศใช้

3) ผลที่ไม่คาดคิดที่อาจเกิดขึ้นคืออะไร? 

Il อนุญาตให้รัฐและเหยื่อต่อสู้กับพระราชบัญญัติการค้ามนุษย์ทางเพศทางออนไลน์ปี 2017 มันเป็นกฎหมายที่ผ่านในปี 2018 ที่เขาแก้ไข มาตรา 230 Communications Decency Act โดยมีจุดประสงค์เพื่อต่อต้านการค้ามนุษย์ทางเพศ แม้ว่าจะมีหลักฐานเพียงเล็กน้อยที่แสดงว่าเขาได้ลดการค้ามนุษย์ทางเพศลง แต่เขาก็มี ส่งผลกระทบที่เป็นปัญหาอย่างมาก ในกลุ่มคนที่แตกต่างกัน: ผู้ให้บริการทางเพศที่อาศัยเว็บไซต์ที่ FOSTA-SESTA ออฟไลน์เพื่อแลกเปลี่ยนข้อมูลเกี่ยวกับลูกค้าที่เป็นอันตราย ตัวอย่างนี้แสดงให้เห็นถึงความสำคัญของการพิจารณาผลกระทบที่อาจเกิดขึ้นจากกฎระเบียบที่เสนอในวงกว้าง

4) ผลกระทบทางเศรษฐกิจและภูมิรัฐศาสตร์คืออะไร? 

หากหน่วยงานกำกับดูแลในสหรัฐฯ ดำเนินการโดยจงใจชะลอความก้าวหน้าของ AI มันก็จะผลักดันการลงทุนและนวัตกรรม – รวมถึงการสร้างงาน – ที่อื่น ๆ แม้ว่า AI ที่เกิดขึ้นใหม่จะสร้างความกังวลมากมาย แต่ก็สัญญาว่าจะก่อให้เกิดประโยชน์มหาศาลในด้านต่างๆ เช่น คำแนะนำ , ยา , การผลิต , ความปลอดภัยในการขนส่ง , การเกษตร , previsioni อุตุนิยมวิทยา , การเข้าถึงบริการทางกฎหมาย และอื่น ๆ.

ฉันเชื่อว่ากฎระเบียบของ AI ที่ร่างขึ้นโดยคำนึงถึงคำถามสี่ข้อข้างต้นจะมีแนวโน้มที่จะจัดการกับอันตรายที่อาจเกิดขึ้นจาก AI ได้สำเร็จ ในขณะเดียวกันก็รับประกันการเข้าถึงประโยชน์ของ AI

บทความนี้คัดลอกมาจาก The Conversation ซึ่งเป็นองค์กรข่าวอิสระที่ไม่แสวงหาผลกำไรที่อุทิศตนเพื่อแบ่งปันความรู้ของผู้เชี่ยวชาญทางวิชาการ

การอ่านที่เกี่ยวข้อง

BlogInnovazione.it

จดหมายข่าวนวัตกรรม
อย่าพลาดข่าวสารที่สำคัญที่สุดเกี่ยวกับนวัตกรรม ลงทะเบียนเพื่อรับพวกเขาทางอีเมล
คีย์เวิร์ด: ปัญญาประดิษฐ์

บทความล่าสุด

ประโยชน์ของการระบายสีหน้าสำหรับเด็ก - โลกแห่งเวทมนตร์สำหรับทุกวัย

การพัฒนาทักษะยนต์ปรับผ่านการระบายสีจะช่วยเตรียมเด็กๆ ให้พร้อมสำหรับทักษะที่ซับซ้อนมากขึ้น เช่น การเขียน หากต้องการสี...

2 2024 พ.ค.

อนาคตอยู่ที่นี่: อุตสาหกรรมการขนส่งกำลังปฏิวัติเศรษฐกิจโลกอย่างไร

ภาคกองทัพเรือเป็นมหาอำนาจทางเศรษฐกิจระดับโลกอย่างแท้จริง ซึ่งได้มุ่งหน้าสู่ตลาดมูลค่า 150 พันล้าน...

1 2024 พ.ค.

ผู้จัดพิมพ์และ OpenAI ลงนามข้อตกลงเพื่อควบคุมการไหลของข้อมูลที่ประมวลผลโดยปัญญาประดิษฐ์

เมื่อวันจันทร์ที่แล้ว Financial Times ได้ประกาศข้อตกลงกับ OpenAI FT อนุญาติให้ทำข่าวระดับโลก...

30 2024 เมษายน

การชำระเงินออนไลน์: นี่คือวิธีที่บริการสตรีมมิ่งทำให้คุณชำระเงินตลอดไป

ผู้คนนับล้านชำระค่าบริการสตรีมมิ่ง โดยจ่ายค่าธรรมเนียมการสมัครสมาชิกรายเดือน เป็นความเห็นทั่วไปที่คุณ...

29 2024 เมษายน

อ่านนวัตกรรมในภาษาของคุณ

จดหมายข่าวนวัตกรรม
อย่าพลาดข่าวสารที่สำคัญที่สุดเกี่ยวกับนวัตกรรม ลงทะเบียนเพื่อรับพวกเขาทางอีเมล

ติดตามเรา