เวลาในการอ่านโดยประมาณ: 11 นาที
แผ่นหิน ภาพถ่ายปลอม ของโดนัลด์ ทรัมป์ ที่ถูกจับกุมโดยเจ้าหน้าที่ตำรวจนครนิวยอร์กไปยังแชทบ็อตที่บรรยายถึงเรื่องหนึ่ง นักวิทยาศาสตร์คอมพิวเตอร์เสียชีวิตอย่างน่าอนาถเป็นอย่างมาก ความสามารถของระบบยุคใหม่ ปัญญาประดิษฐ์ แรงผลักดันในการสร้างข้อความและรูปภาพที่น่าสนใจแต่เป็นเรื่องสมมติกำลังจุดประกายสัญญาณเตือนเกี่ยวกับการฉ้อโกงสเตียรอยด์และข้อมูลที่ผิด แท้จริงแล้ว เมื่อวันที่ 29 มีนาคม 2023 กลุ่มนักวิจัย AI และบุคคลสำคัญในอุตสาหกรรมเรียกร้องให้อุตสาหกรรมระงับการฝึกอบรมเพิ่มเติมเกี่ยวกับเทคโนโลยี AI ล่าสุด หรือยกเว้นว่ารัฐบาลจะ
เครื่องกำเนิดภาพเช่น DALL-E , กลางการเดินทาง e การแพร่กระจายที่เสถียร และผู้สร้างเนื้อหาเช่น นักประพันธ์เพลง , ChatGPT , สัตว์ชนิดหนึ่ง e โทร – ปัจจุบันมีให้บริการแก่ผู้คนหลายล้านคนและไม่จำเป็นต้องมีความรู้ทางเทคนิคก็ใช้งานได้
เมื่อพิจารณาจากภาพรวมของบริษัทเทคโนโลยีที่ปรับใช้ระบบ AI และทดสอบกับสาธารณะ ผู้กำหนดนโยบายควรถามตนเองว่าจะควบคุมเทคโนโลยีที่เกิดขึ้นใหม่หรือไม่และอย่างไร การสนทนาขอให้ผู้เชี่ยวชาญด้านนโยบายเทคโนโลยีสามคนอธิบายว่าเหตุใดการควบคุม AI จึงเป็นความท้าทาย และเหตุใดการทำให้ถูกต้องจึงสำคัญมาก
S. Shyam Sundar ศาสตราจารย์ด้านเอฟเฟกต์มัลติมีเดียและผู้อำนวยการ Center for Socially Responsible AI, Penn State
เหตุผลในการควบคุม AI ไม่ใช่เพราะเทคโนโลยีอยู่นอกเหนือการควบคุม แต่เป็นเพราะจินตนาการของมนุษย์เกินสัดส่วน การรายงานข่าวของสื่ออย่างท่วมท้นได้กระตุ้นความเชื่อที่ไม่มีเหตุผลเกี่ยวกับความสามารถและจิตสำนึกของ AI ความเชื่อเหล่านี้มีพื้นฐานมาจาก อคติอัตโนมัติ ” หรือแนวโน้มที่จะลดการป้องกันลงเมื่อเครื่องจักรทำงาน ตัวอย่างคือ ความระมัดระวังของนักบินลดลง เมื่อเครื่องบินของพวกเขาบินด้วยระบบขับเคลื่อนอัตโนมัติ
การศึกษาจำนวนมากในห้องปฏิบัติการของฉันแสดงให้เห็นว่าเมื่อเครื่องจักร แทนที่จะเป็นมนุษย์ ถูกระบุว่าเป็นแหล่งของการโต้ตอบ มันจะกระตุ้นทางลัดทางจิตในใจของผู้ใช้ที่เราเรียกว่า "การวิเคราะห์พฤติกรรมของเครื่องจักร" " . การจดชวเลขนี้เป็นความเชื่อที่ว่าเครื่องจักรมีความแม่นยำ มีวัตถุประสงค์ เป็นกลาง ไม่มีข้อผิดพลาด และอื่นๆ มันบดบังวิจารณญาณของผู้ใช้และทำให้ผู้ใช้ไว้วางใจเครื่องจักรมากเกินไป อย่างไรก็ตาม การทำให้ผู้คนไม่แยแสเรื่องความผิดพลาดของ AI เพียงอย่างเดียวนั้นไม่เพียงพอ เพราะมนุษย์เป็นที่ทราบกันดีว่าเข้าใจถึงความสามารถโดยไม่รู้ตัว แม้ว่าเทคโนโลยีจะไม่รับประกันก็ตาม
การวิจัยยังแสดงให้เห็นว่า ผู้คนถือว่าคอมพิวเตอร์เป็นสิ่งมีชีวิตทางสังคม เมื่อเครื่องจักรแสดงให้เห็นถึงความเป็นมนุษย์แม้แต่น้อย เช่น การใช้ภาษาสนทนา ในกรณีเหล่านี้ ผู้คนใช้กฎทางสังคมของการมีปฏิสัมพันธ์ระหว่างมนุษย์ เช่น ความเอื้อเฟื้อเผื่อแผ่และการแลกเปลี่ยนซึ่งกันและกัน ดังนั้นเมื่อคอมพิวเตอร์ดูเหมือนมีความรู้สึก ผู้คนมักจะไว้ใจพวกเขาอย่างสุ่มสี่สุ่มห้า จำเป็นต้องมีกฎระเบียบเพื่อให้แน่ใจว่าผลิตภัณฑ์ AI สมควรได้รับความไว้วางใจนี้และไม่ถูกใช้ประโยชน์
AI นำเสนอความท้าทายที่ไม่เหมือนใคร เพราะไม่เหมือนกับระบบวิศวกรรมแบบดั้งเดิม นักออกแบบไม่สามารถแน่ใจได้ว่าระบบ AI จะทำงานอย่างไร เมื่อรถยนต์แบบดั้งเดิมออกจากโรงงาน วิศวกรรู้ดีว่าจะต้องดำเนินการอย่างไร แต่กับรถยนต์ไร้คนขับ วิศวกร พวกเขาไม่สามารถแน่ใจได้ว่าพวกเขาจะประพฤติตัวอย่างไรในสถานการณ์ใหม่ .
เมื่อเร็ว ๆ นี้ ผู้คนหลายพันคนทั่วโลกประหลาดใจกับสิ่งที่โมเดล AI กำเนิดขนาดใหญ่อย่าง GPT-4 และ DALL-E 2 สร้างขึ้นเพื่อตอบสนองต่อคำแนะนำของพวกเขา ไม่มีวิศวกรคนใดที่เกี่ยวข้องกับการพัฒนาโมเดล AI เหล่านี้ที่สามารถบอกคุณได้อย่างแน่ชัดว่าโมเดลจะผลิตอะไร เพื่อทำให้เรื่องซับซ้อนขึ้น โมเดลเหล่านี้เปลี่ยนแปลงและพัฒนาด้วยการโต้ตอบที่มากขึ้น
ทั้งหมดนี้หมายความว่ามีโอกาสเพียงพอสำหรับความผิดพลาด ดังนั้น ขึ้นอยู่กับการนำระบบ AI ไปใช้ และข้อกำหนดสำหรับการขอความช่วยเหลือมีไว้อย่างไรเมื่อความรู้สึกอ่อนไหวหรือความเป็นอยู่ของมนุษย์ได้รับความเสียหาย AI เป็นมากกว่าโครงสร้างพื้นฐาน เช่น ทางด่วน คุณสามารถออกแบบให้กำหนดพฤติกรรมของมนุษย์โดยรวมได้ แต่คุณจะต้องมีกลไกในการจัดการกับการละเมิด เช่น การขับรถเร็ว และเหตุการณ์ที่คาดเดาไม่ได้ เช่น อุบัติเหตุ
นอกจากนี้ นักพัฒนา AI จะต้องมีความคิดสร้างสรรค์เป็นพิเศษในการคาดคะเนวิธีที่ระบบอาจทำงาน และพยายามคาดการณ์ถึงการละเมิดมาตรฐานและความรับผิดชอบทางสังคมที่อาจเกิดขึ้น ซึ่งหมายความว่าจำเป็นต้องมีกรอบการกำกับดูแลหรือการกำกับดูแลที่อาศัยการตรวจสอบเป็นระยะและการตรวจสอบข้อเท็จจริงของผลลัพธ์และผลิตภัณฑ์ของ AI แม้ว่าฉันเชื่อว่ากรอบการทำงานเหล่านี้ควรตระหนักด้วยว่าผู้ออกแบบระบบไม่สามารถรับผิดชอบต่อเหตุการณ์ที่เกิดขึ้นได้เสมอไป
Cason Schmit ผู้ช่วยศาสตราจารย์ด้านสาธารณสุข มหาวิทยาลัย Texas A&M
การควบคุมปัญญาประดิษฐ์นั้นซับซ้อน . หากต้องการปรับแต่ง AI ให้ดี คุณต้องทำก่อน defiใช้เทคโนโลยี AI และเข้าใจความเสี่ยงและผลประโยชน์ที่คาดว่าจะได้รับจาก AI Defiการทำให้ AI ถูกต้องตามกฎหมายเป็นสิ่งสำคัญในการระบุสิ่งที่อยู่ภายใต้กฎหมาย แต่เทคโนโลยี AI ยังคงมีการพัฒนาจึงเป็นเรื่องยาก defiจบหนึ่ง defiคำจำกัดความทางกฎหมายที่มั่นคง
การทำความเข้าใจความเสี่ยงและประโยชน์ของ AI ก็มีความสำคัญเช่นกัน กฎระเบียบที่ดีควรเพิ่มผลประโยชน์สาธารณะสูงสุดในขณะที่ลดความเสี่ยงให้เหลือน้อยที่สุด อย่างไรก็ตาม แอปพลิเคชัน AI ยังคงเกิดขึ้น ดังนั้นจึงเป็นเรื่องยากที่จะทราบหรือคาดการณ์ความเสี่ยงหรือผลประโยชน์ในอนาคต สิ่งที่ไม่ทราบประเภทนี้ทำให้เทคโนโลยีเกิดใหม่อย่าง AI เกิดขึ้นอย่างมาก ควบคุมได้ยาก ด้วยกฎหมายและข้อบังคับแบบดั้งเดิม
ฝ่ายนิติบัญญัติคือ มักจะปรับตัวได้ช้าเกินไป ต่อสภาพแวดล้อมทางเทคโนโลยีที่เปลี่ยนแปลงอย่างรวดเร็ว บางคน กฎหมายใหม่ ล้าสมัยในขณะที่ออกหรือ ทำเป็นผู้บริหาร. โดยไม่มีกฎหมายใหม่ควบคุม ก็ต้องใช้กฎหมายเดิม ที่จะเผชิญ ปัญหาใหม่ . บางครั้งสิ่งนี้นำไปสู่ อุปสรรคทางกฎหมาย ต่อ ประโยชน์ต่อสังคม o ช่องโหว่ทางกฎหมาย ต่อ พฤติกรรมที่เป็นอันตราย .
"กฎหมายอ่อน ” เป็นทางเลือกแทนแนวทางการออกกฎหมายแบบ “กฎหมายยาก” แบบดั้งเดิมที่มุ่งป้องกันการละเมิดเฉพาะ ในแนวทาง soft law นั้น องค์กรเอกชนเป็นผู้จัดตั้งขึ้น กฎหรือมาตรฐาน สำหรับสมาชิกในอุตสาหกรรม สิ่งเหล่านี้สามารถเปลี่ยนแปลงได้เร็วกว่ากฎหมายแบบดั้งเดิม นั่นทำให้ สัญญากฎหมายที่นุ่มนวล สำหรับเทคโนโลยีที่เกิดขึ้นใหม่ เนื่องจากสามารถปรับให้เข้ากับการใช้งานและความเสี่ยงใหม่ ๆ ได้อย่างรวดเร็ว อย่างไรก็ตาม, กฎหมายที่นุ่มนวลอาจหมายถึงการบังคับใช้ที่นุ่มนวล .
เมแกน ดอร์ , เจนนิเฟอร์ แว็กเนอร์ e io (คาสัน ชมิท) เราเสนอวิธีที่สาม: Copyleft AI พร้อมการบังคับใช้ที่เชื่อถือได้ (CAITE) . วิธีการนี้เป็นการรวมสองแนวคิดที่แตกต่างกันอย่างมากในทรัพย์สินทางปัญญา: ใบอนุญาต copyleft
e patent troll
.
ใบอนุญาต copyleft
อนุญาตให้คุณใช้ ใช้ซ้ำ หรือแก้ไขเนื้อหาภายใต้เงื่อนไขของใบอนุญาต เช่น ซอฟต์แวร์โอเพ่นซอร์ส แบบอย่าง CAITE
ใช้ใบอนุญาต copyleft
เพื่อกำหนดให้ผู้ใช้ AI ปฏิบัติตามแนวทางจริยธรรมเฉพาะ เช่น การประเมินผลกระทบของอคติอย่างโปร่งใส
ในรูปแบบของเรา ใบอนุญาตเหล่านี้ยังโอนสิทธิ์ตามกฎหมายในการบังคับใช้การละเมิดใบอนุญาตไปยังบุคคลที่สามที่เชื่อถือได้ สิ่งนี้สร้างหน่วยงานบังคับใช้ที่มีอยู่เพื่อบังคับใช้มาตรฐานทางจริยธรรมของ AI เท่านั้น และสามารถได้รับการสนับสนุนบางส่วนจากค่าปรับสำหรับพฤติกรรมที่ผิดจรรยาบรรณ เอนทิตีนี้เป็นเหมือน patent troll
เนื่องจากเป็นส่วนตัวมากกว่าราชการและสนับสนุนตัวเองด้วยการบังคับใช้กฎหมายทรัพย์สินทางปัญญาที่รวบรวมจากผู้อื่น ในกรณีนี้ แทนที่จะดำเนินการเพื่อผลกำไร กิจการบังคับใช้แนวทางด้านจริยธรรม defiคืนในใบอนุญาต
โมเดลนี้มีความยืดหยุ่นและปรับเปลี่ยนได้เพื่อตอบสนองความต้องการของสภาพแวดล้อม AI ที่เปลี่ยนแปลงตลอดเวลา นอกจากนี้ยังช่วยให้มีตัวเลือกการบังคับใช้มากมาย เช่น หน่วยงานกำกับดูแลของรัฐบาลแบบดั้งเดิม ด้วยวิธีนี้ จึงรวมองค์ประกอบที่ดีที่สุดของแนวทางกฎหมายแบบแข็งและแบบอ่อนเพื่อจัดการกับความท้าทายที่ไม่เหมือนใครของ AI
John Villasenor ศาสตราจารย์ด้านวิศวกรรมไฟฟ้า กฎหมาย นโยบายสาธารณะและการจัดการ มหาวิทยาลัยแคลิฟอร์เนีย ลอสแองเจลิส
gli ความคืบหน้าล่าสุดที่ไม่ธรรมดา ในเจเนอเรทีฟ AI ที่ใช้แบบจำลองภาษาขนาดใหญ่กำลังกระตุ้นความต้องการในการสร้างกฎระเบียบใหม่เฉพาะสำหรับเอไอ ต่อไปนี้เป็นคำถามสำคัญ XNUMX ข้อที่ต้องถามตัวเอง:
ผลลัพธ์ที่อาจเป็นปัญหาจำนวนมากของระบบ AI ได้รับการแก้ไขแล้วโดยเฟรมเวิร์กที่มีอยู่ หากอัลกอริทึม AI ที่ใช้โดยธนาคารเพื่อประเมินคำขอสินเชื่อนำไปสู่การตัดสินใจให้กู้ยืมโดยเลือกปฏิบัติทางเชื้อชาติ จะเป็นการฝ่าฝืน Fair Housing Act หากซอฟต์แวร์ AI ในรถยนต์ไร้คนขับก่อให้เกิดอุบัติเหตุ กฎหมายความรับผิดต่อผลิตภัณฑ์จะกำหนด กรอบแนวทางการดำเนินการเยียวยา .
ตัวอย่างคลาสสิกของสิ่งนี้คือ พระราชบัญญัติการสื่อสารที่จัดเก็บ ซึ่งประกาศใช้ในปี 1986 เพื่อจัดการกับเทคโนโลยีการสื่อสารดิจิทัลที่เป็นนวัตกรรมในขณะนั้น เช่น อีเมล ในการบังคับใช้ SCA สภาคองเกรสให้การคุ้มครองความเป็นส่วนตัวน้อยลงอย่างมากสำหรับอีเมลที่มีอายุมากกว่า 180 วัน
เหตุผลก็คือพื้นที่เก็บข้อมูลที่จำกัดหมายความว่าผู้คนทำความสะอาดกล่องจดหมายอย่างต่อเนื่องโดยการลบข้อความเก่าเพื่อให้มีที่ว่างสำหรับข้อความใหม่ ด้วยเหตุนี้ ข้อความที่เก็บไว้นานกว่า 180 วันจึงถือว่ามีความสำคัญน้อยกว่าในแง่ของความเป็นส่วนตัว ไม่ชัดเจนว่าตรรกะนี้เคยสมเหตุสมผลหรือไม่ และแน่นอนว่ามันไม่สมเหตุสมผลเลยในช่วงทศวรรษที่ 20 เมื่ออีเมลและการสื่อสารทางดิจิทัลที่เก็บถาวรส่วนใหญ่ของเรามีอายุมากกว่าหกเดือน
คำตอบทั่วไปสำหรับข้อกังวลเกี่ยวกับการควบคุมเทคโนโลยีตามสแน็ปช็อตเดียวเมื่อเวลาผ่านไปคือ: หากกฎหมายหรือข้อบังคับล้าสมัย ให้ปรับปรุง พูดง่ายกว่าทำ คนส่วนใหญ่ยอมรับว่า SCA ล้าสมัยเมื่อหลายสิบปีก่อน แต่เนื่องจากสภาคองเกรสไม่สามารถตกลงกันได้อย่างเจาะจงเกี่ยวกับวิธีการแก้ไขบทบัญญัติ 180 วัน จึงยังคงอยู่ในหนังสือมากกว่าหนึ่งในสามของศตวรรษหลังจากประกาศใช้
Il อนุญาตให้รัฐและเหยื่อต่อสู้กับพระราชบัญญัติการค้ามนุษย์ทางเพศทางออนไลน์ปี 2017 มันเป็นกฎหมายที่ผ่านในปี 2018 ที่เขาแก้ไข มาตรา 230 Communications Decency Act โดยมีจุดประสงค์เพื่อต่อต้านการค้ามนุษย์ทางเพศ แม้ว่าจะมีหลักฐานเพียงเล็กน้อยที่แสดงว่าเขาได้ลดการค้ามนุษย์ทางเพศลง แต่เขาก็มี ส่งผลกระทบที่เป็นปัญหาอย่างมาก ในกลุ่มคนที่แตกต่างกัน: ผู้ให้บริการทางเพศที่อาศัยเว็บไซต์ที่ FOSTA-SESTA ออฟไลน์เพื่อแลกเปลี่ยนข้อมูลเกี่ยวกับลูกค้าที่เป็นอันตราย ตัวอย่างนี้แสดงให้เห็นถึงความสำคัญของการพิจารณาผลกระทบที่อาจเกิดขึ้นจากกฎระเบียบที่เสนอในวงกว้าง
หากหน่วยงานกำกับดูแลในสหรัฐฯ ดำเนินการโดยจงใจชะลอความก้าวหน้าของ AI มันก็จะผลักดันการลงทุนและนวัตกรรม – รวมถึงการสร้างงาน – ที่อื่น ๆ แม้ว่า AI ที่เกิดขึ้นใหม่จะสร้างความกังวลมากมาย แต่ก็สัญญาว่าจะก่อให้เกิดประโยชน์มหาศาลในด้านต่างๆ เช่น คำแนะนำ , ยา , การผลิต , ความปลอดภัยในการขนส่ง , การเกษตร , previsioni อุตุนิยมวิทยา , การเข้าถึงบริการทางกฎหมาย และอื่น ๆ.
ฉันเชื่อว่ากฎระเบียบของ AI ที่ร่างขึ้นโดยคำนึงถึงคำถามสี่ข้อข้างต้นจะมีแนวโน้มที่จะจัดการกับอันตรายที่อาจเกิดขึ้นจาก AI ได้สำเร็จ ในขณะเดียวกันก็รับประกันการเข้าถึงประโยชน์ของ AI
บทความนี้คัดลอกมาจาก The Conversation ซึ่งเป็นองค์กรข่าวอิสระที่ไม่แสวงหาผลกำไรที่อุทิศตนเพื่อแบ่งปันความรู้ของผู้เชี่ยวชาญทางวิชาการ
BlogInnovazione.it
การพัฒนาทักษะยนต์ปรับผ่านการระบายสีจะช่วยเตรียมเด็กๆ ให้พร้อมสำหรับทักษะที่ซับซ้อนมากขึ้น เช่น การเขียน หากต้องการสี...
ภาคกองทัพเรือเป็นมหาอำนาจทางเศรษฐกิจระดับโลกอย่างแท้จริง ซึ่งได้มุ่งหน้าสู่ตลาดมูลค่า 150 พันล้าน...
เมื่อวันจันทร์ที่แล้ว Financial Times ได้ประกาศข้อตกลงกับ OpenAI FT อนุญาติให้ทำข่าวระดับโลก...
ผู้คนนับล้านชำระค่าบริการสตรีมมิ่ง โดยจ่ายค่าธรรมเนียมการสมัครสมาชิกรายเดือน เป็นความเห็นทั่วไปที่คุณ...