არტიკოლი

ხელოვნური ინტელექტის რეგულირება: 3 ექსპერტი განმარტავს, თუ რატომ არის ამის გაკეთება რთული და მნიშვნელოვანი

ძლიერმა ახალმა AI სისტემებმა შეიძლება გააძლიეროს თაღლითობა და დეზინფორმაცია, რაც გამოიწვევს სამთავრობო რეგულირების ფართო მოწოდებებს. მაგრამ ამის გაკეთება უფრო ადვილია, ვიდრე გაკეთება და შეიძლება გამოიწვიოს არასასურველი შედეგები

კითხვის სავარაუდო დრო: 11 მინუტი

Მიეცი მას ყალბი ფოტოები დონალდ ტრამპი, რომელიც ნიუ-იორკის პოლიციის თანამშრომლებმა დააკავეს ჩატბოტზე, სადაც აღწერილი იყო ერთი კომპიუტერული მეცნიერი ძალიან ცოცხალი, როგორც ტრაგიკულად გარდაიცვალა , ახალი თაობის სისტემების უნარი ხელოვნური ინტელექტი დამაჯერებელი, მაგრამ გამოგონილი ტექსტისა და სურათების შექმნის გენერაციული სწრაფვა სტეროიდების თაღლითობისა და დეზინფორმაციის შესახებ სიგნალიზაციას იწვევს. მართლაც, 29 წლის 2023 მარტს ხელოვნური ინტელექტის მკვლევართა და ინდუსტრიის მოღვაწეთა ჯგუფმა მოუწოდა ინდუსტრიას შეაჩეროს შემდგომი სწავლება უახლესი ხელოვნური ინტელექტის ტექნოლოგიების შესახებ, ან, ამის აკრძალვით, მთავრობებს „დაეწესონ მორატორიუმი“.

გამოსახულების გენერატორებს მოსწონთ SLAB , შუა მოგზაურობა e სტაბილური დიფუზია და შინაარსის გენერატორები, როგორიცაა Bard , ჩატი GPT , Chinchilla e რეკავს - ახლა ხელმისაწვდომია მილიონობით ადამიანისთვის და არ საჭიროებს ტექნიკურ ცოდნას გამოსაყენებლად.

ტექნიკური კომპანიების განვითარებადი ლანდშაფტის გათვალისწინებით, რომლებიც ახორციელებენ ხელოვნური ინტელექტის სისტემებს და ამოწმებენ მათ საზოგადოებაში, პოლიტიკის შემქმნელებმა უნდა ჰკითხონ საკუთარ თავს, დაარეგულირონ თუ არა განვითარებადი ტექნოლოგია. Conversation-მა სთხოვა ტექნიკური პოლიტიკის სამ ექსპერტს აეხსნათ, რატომ არის ხელოვნური ინტელექტის რეგულირება ასეთი გამოწვევა და რატომ არის ასე მნიშვნელოვანი მისი სწორად მიღება.

ადამიანის ნაკლოვანებები და მოძრავი სამიზნე

S. Shyam Sundar, მულტიმედიური ეფექტების პროფესორი და დირექტორი, სოციალურად პასუხისმგებელი ხელოვნური ინტელექტის ცენტრი, პენ შტატი

ხელოვნური ინტელექტის რეგულირების მიზეზი არ არის ის, რომ ტექნოლოგია უკონტროლოა, არამედ იმიტომ, რომ ადამიანის ფანტაზია არაპროპორციულია. მედიის აბსოლუტურმა გაშუქებამ გამოიწვია ირაციონალური რწმენა ხელოვნური ინტელექტის შესაძლებლობებისა და ცნობიერების შესახებ. ეს რწმენა ეფუძნება " ავტომატიზაციის მიკერძოება ” ან იმის ტენდენციაზე, რომ დავძლიოთ ჩვენი დაცვა, როდესაც მანქანები ასრულებენ დავალებას. მაგალითი არის შემცირებული სიფხიზლე პილოტებს შორის როდესაც მათი თვითმფრინავი ავტოპილოტით დაფრინავს.

ჩემს ლაბორატორიაში ჩატარებულმა მრავალრიცხოვანმა კვლევამ აჩვენა, რომ როდესაც მანქანა და არა ადამიანი იდენტიფიცირებულია, როგორც ურთიერთქმედების წყარო, ის იწვევს მომხმარებლის გონებაში გონებრივ მალსახმობას, რომელსაც ჩვენ ვუწოდებთ "მანქანის ევრისტიკას". " . ეს სტენოგრამა არის რწმენა იმისა, რომ მანქანები ზუსტი, ობიექტური, მიუკერძოებელი, უტყუარი და ა.შ. ის აფერხებს მომხმარებლის განსჯას და იწვევს მომხმარებლის ზედმეტად ენდობა მანქანებს. თუმცა, ადამიანების უბრალოდ იმედგაცრუება ხელოვნური ინტელექტის უტყუარობის შესახებ საკმარისი არ არის, რადგან ცნობილია, რომ ადამიანები ქვეცნობიერად ფლობენ ცოდნას მაშინაც კი, როცა ტექნოლოგია ამის გარანტიას არ იძლევა.

კვლევამ ისიც აჩვენა ადამიანები კომპიუტერებს სოციალურ არსებებად ექცევიან როდესაც მანქანები აჩვენებენ ადამიანურობის უმცირეს მინიშნებასაც კი, როგორიცაა სასაუბრო ენის გამოყენება. ამ შემთხვევებში ადამიანები მიმართავენ ადამიანთა ურთიერთობის სოციალურ წესებს, როგორიცაა თავაზიანობა და ურთიერთგაგება. ასე რომ, როდესაც კომპიუტერები მგრძნობიარეა, ადამიანები ბრმად ენდობიან მათ. რეგულაცია საჭიროა იმისათვის, რომ AI პროდუქტები იმსახურებენ ამ ნდობას და არ გამოიყენებენ მას.

ხელოვნური ინტელექტი წარმოადგენს უნიკალურ გამოწვევას, რადგან ტრადიციული საინჟინრო სისტემებისგან განსხვავებით, დიზაინერებს არ შეუძლიათ დარწმუნებულები იყვნენ, თუ როგორ იმუშავებენ AI სისტემები. როდესაც ტრადიციული ავტომობილი გამოვიდა ქარხნიდან, ინჟინერებმა ზუსტად იცოდნენ, როგორ მოქმედებდა იგი. მაგრამ თვითმართვადი მანქანებით, ინჟინრები ისინი ვერასოდეს იქნებიან დარწმუნებული, როგორ მოიქცევიან ახალ სიტუაციებში .

სირთულე ინოვაციების კონტროლში

ბოლო დროს, ათასობით ადამიანი მთელს მსოფლიოში გაოცებულია იმით, თუ რას აწარმოებენ დიდი გენერაციული AI მოდელები, როგორიცაა GPT-4 და DALL-E 2, მათი წინადადებების საპასუხოდ. ამ AI მოდელების შემუშავებაში ჩართული არცერთმა ინჟინერმა ვერ გეტყვით ზუსტად რას გამოიმუშავებს მოდელები. საკითხების გასართულებლად, ეს მოდელები იცვლება და ვითარდება უფრო დიდი ურთიერთქმედებით.

ეს ყველაფერი ნიშნავს, რომ არსებობს დიდი პოტენციალი არასწორი გასროლისთვის. აქედან გამომდინარე, ბევრი რამ არის დამოკიდებული იმაზე, თუ როგორ ხდება ხელოვნური ინტელექტის სისტემების დანერგვა და რა დებულებები არსებობს, როდესაც ზიანდება ადამიანის მგრძნობელობა ან კეთილდღეობა. AI უფრო ინფრასტრუქტურაა, მაგისტრალის მსგავსად. თქვენ შეგიძლიათ შექმნათ ის, რათა ჩამოაყალიბოთ ადამიანის ქცევა კოლექტივში, მაგრამ დაგჭირდებათ მექანიზმები, რათა გაუმკლავდეთ ბოროტად გამოყენებას, როგორიცაა სიჩქარის გადაჭარბება და არაპროგნოზირებადი მოვლენები, როგორიცაა უბედური შემთხვევები.

ხელოვნური ინტელექტის შემქმნელებს ასევე მოუწევთ არაჩვეულებრივად კრეატიულები იყვნენ სისტემის ქცევის გზების პროგნოზირებაში და შეეცადონ წინასწარ განსაზღვრონ სოციალური სტანდარტებისა და პასუხისმგებლობების პოტენციური დარღვევები. ეს ნიშნავს, რომ საჭიროა მარეგულირებელი ან მმართველობითი ჩარჩოები, რომლებიც ეყრდნობა პერიოდულ აუდიტს და AI შედეგებისა და პროდუქტების შემოწმებას, თუმცა მე მჯერა, რომ ამ ჩარჩოებმა ასევე უნდა აღიარონ, რომ სისტემის დიზაინერებს ყოველთვის არ შეუძლიათ პასუხისმგებლობა ინციდენტებზე.

"რბილი" და "მძიმე" მიდგომების შერწყმა

კეისონ შმიტი, ტეხასის A&M უნივერსიტეტის საზოგადოებრივი ჯანდაცვის ასისტენტ პროფესორი

ხელოვნური ინტელექტის რეგულირება რთულია . ხელოვნური ინტელექტის კარგად დასარეგულირებლად, ჯერ უნდა defiდაასახელეთ AI და გააცნობიერეთ ხელოვნური ინტელექტის მოსალოდნელი რისკები და სარგებელი. Defiხელოვნური ინტელექტის ლეგალიზაცია მნიშვნელოვანია იმის დასადგენად, თუ რა ექვემდებარება კანონს. მაგრამ AI ტექნოლოგიები ჯერ კიდევ ვითარდება, ამიტომ რთულია defiდაასრულეთ ერთი defiსტაბილური სამართლებრივი განმარტება.

ასევე მნიშვნელოვანია ხელოვნური ინტელექტის რისკებისა და სარგებელის გაგება. კარგმა რეგულაციამ მაქსიმალურად უნდა გაზარდოს საზოგადოებრივი სარგებელი და შეამციროს რისკები. თუმცა, ხელოვნური ინტელექტის აპლიკაციები ჯერ კიდევ ჩნდება, ამიტომ ძნელია იცოდე ან წინასწარ განსაზღვრო, რა შეიძლება იყოს მომავალი რისკები ან სარგებელი. ამ ტიპის უცნობები აძლიერებს განვითარებად ტექნოლოგიებს, როგორიცაა AI რთული დასარეგულირებელი ტრადიციული კანონებითა და რეგულაციებით.

კანონმდებლები არიან ხშირად ძალიან ნელია მორგებისთვის სწრაფად ცვალებად ტექნოლოგიურ გარემოს. ვიღაცას ახალი კანონები მოძველებულია მათი გაცემის დროს ან გააკეთა აღმასრულებელი. ახალი კანონების გარეშე, მარეგულირებლები მათ უნდა გამოიყენონ ძველი კანონები პირისპირ ახალი პრობლემები . ზოგჯერ ეს იწვევს სამართლებრივი ბარიერები for სოციალური ბენეფიციალი o სამართლებრივი ხარვეზები for მავნე ქცევები .

რბილი კანონი

"რბილი კანონი ეს არის ტრადიციული „მყარი კანონის“ საკანონმდებლო მიდგომების ალტერნატივა, რომელიც მიმართულია კონკრეტული დარღვევების თავიდან აცილებისკენ. რბილი სამართლის მიდგომით კერძო ორგანიზაცია აყალიბებს წესები თუ სტანდარტები ინდუსტრიის წევრებისთვის. ეს შეიძლება შეიცვალოს უფრო სწრაფად, ვიდრე ტრადიციული კანონმდებლობა. რომ ხდის დაპირებული რბილი კანონები განვითარებადი ტექნოლოგიებისთვის, რადგან მათ შეუძლიათ სწრაფად შეეგუონ ახალ აპლიკაციებსა და რისკებს. თუმცა, რბილი კანონები შეიძლება ნიშნავდეს რბილ აღსრულებას .

მეგან დოერი , ჯენიფერ ვაგნერი e io (კეისონ შმიტი) ჩვენ გთავაზობთ მესამე გზას: Copyleft AI სანდო აღსრულებით (CAITE) . ეს მიდგომა აერთიანებს ორ ძალიან განსხვავებულ კონცეფციას ინტელექტუალური საკუთრებაში: ლიცენზიები copyleft e patent troll.

დააკოპირეთ მარცხენა ლიცენზიები

ლიცენზიები copyleft საშუალებას გაძლევთ მარტივად გამოიყენოთ, ხელახლა გამოიყენოთ ან შეცვალოთ შინაარსი ლიცენზიის პირობებით, როგორიცაა ღია კოდის პროგრამული უზრუნველყოფა. მოდელი CAITE ლიცენზიების გამოყენება copyleft მოითხოვონ ხელოვნური ინტელექტის მომხმარებლებისგან დაიცვან კონკრეტული ეთიკური სახელმძღვანელო პრინციპები, როგორიცაა მიკერძოების გავლენის გამჭვირვალე შეფასება.

ჩვენს მოდელში ეს ლიცენზიები ასევე გადასცემს ლიცენზიის დარღვევების აღსრულების კანონიერ უფლებას სანდო მესამე მხარეს. ეს ქმნის აღმასრულებელ ორგანოს, რომელიც არსებობს მხოლოდ ხელოვნური ინტელექტის ეთიკური სტანდარტების აღსასრულებლად და შეიძლება ნაწილობრივ დაფინანსდეს არაეთიკური ქცევისთვის ჯარიმებით. ეს ერთეული ჰგავს ა patent troll რადგან ის არის კერძო და არა სამთავრობო და მხარს უჭერს საკუთარ თავს ინტელექტუალური საკუთრების კანონიერი უფლებების აღსრულებით, რომელსაც იგი სხვებისგან აგროვებს. ამ შემთხვევაში, იმის ნაცვლად, რომ აწარმოოს მოგება, ერთეული აღასრულებს ეთიკურ მითითებებს definite ლიცენზიებში.

ეს მოდელი არის მოქნილი და ადაპტირებადი, რათა დააკმაყოფილოს მუდმივად ცვალებადი AI გარემოს საჭიროებები. ის ასევე იძლევა არსებითი აღსრულების ვარიანტებს, როგორიცაა ტრადიციული სამთავრობო მარეგულირებელი. ამ გზით, ის აერთიანებს მყარი და რბილი სამართლის მიდგომების საუკეთესო ელემენტებს ხელოვნური ინტელექტის უნიკალური გამოწვევების გადასაჭრელად.

ოთხი ძირითადი კითხვა

ჯონ ვილასენორი, ელექტროინჟინერიის, სამართლის, საჯარო პოლიტიკისა და მენეჯმენტის პროფესორი, კალიფორნიის უნივერსიტეტი, ლოს ანჯელესი

Gli არაჩვეულებრივი ბოლო წინსვლა დიდ ენაზე მოდელზე დაფუძნებული გენერაციული AI იწვევს მოთხოვნას შექმნას ახალი AI-სპეციფიკური რეგულაცია. აქ არის ოთხი ძირითადი კითხვა, რომელიც უნდა დაუსვათ საკუთარ თავს:

1) საჭიროა თუ არა ხელოვნური ინტელექტის ახალი სპეციფიკური რეგულაცია? 

AI სისტემების ბევრი პოტენციურად პრობლემური შედეგი უკვე განიხილება არსებული ჩარჩოებით. თუ AI ალგორითმი, რომელსაც ბანკი იყენებს სესხის განაცხადების შესაფასებლად, იწვევს რასობრივ დისკრიმინაციულ დაკრედიტების გადაწყვეტილებებს, ეს დაარღვევს სამართლიანი საცხოვრებლის აქტს. თუ AI პროგრამული უზრუნველყოფა უმართავ მანქანაში იწვევს ავარიას, პროდუქტის პასუხისმგებლობის კანონი ითვალისწინებს დაცვის საშუალებების გამოყენების ჩარჩო .

2) რა რისკებს შეიცავს სწრაფად განვითარებადი ტექნოლოგიის რეგულირება დროის კადრზე დაყრდნობით? 

ამის კლასიკური მაგალითია შენახული კომუნიკაციების აქტი , რომელიც ამოქმედდა 1986 წელს იმდროინდელი ინოვაციური ციფრული საკომუნიკაციო ტექნოლოგიების მიმართ, როგორიცაა ელექტრონული ფოსტა. SCA-ს ამოქმედებისას, კონგრესმა უზრუნველყო მნიშვნელოვნად ნაკლები კონფიდენციალურობის დაცვა 180 დღეზე უფროსი ელ.ფოსტის მისამართისთვის.

დასაბუთება ის იყო, რომ შეზღუდული საცავი ნიშნავს, რომ ადამიანები მუდმივად ასუფთავებდნენ შემოსულებს ძველი შეტყობინებების წაშლით, რათა ადგილი შეექმნათ ახლებს. შედეგად, 180 დღეზე მეტი ხნის განმავლობაში დაარქივებული შეტყობინებები ნაკლებად მნიშვნელოვანი იყო კონფიდენციალურობის თვალსაზრისით. გაურკვეველია, ჰქონდა თუ არა ამ ლოგიკას აზრი და, რა თქმა უნდა, აზრი არ აქვს 20-იან წლებში, როდესაც ჩვენი ელ.წერილების უმეტესობა და სხვა დაარქივებული ციფრული კომუნიკაციები ექვს თვეზე მეტია.

დროთა განმავლობაში ერთ კადრზე დაფუძნებული ტექნოლოგიის რეგულირების შესახებ შეშფოთებაზე საერთო პასუხი ასეთია: თუ კანონი ან რეგულაცია მოძველებულია, განაახლეთ იგი. სათქმელი უფრო ადვილია, ვიდრე გაკეთება. ადამიანების უმეტესობა თანხმდება, რომ SCA მოძველდა ათწლეულების წინ. მაგრამ იმის გამო, რომ კონგრესმა ვერ შეძლო კონკრეტულად შეთანხმდნენ, თუ როგორ უნდა გადაიხედოს 180-დღიანი დებულება, ის ჯერ კიდევ წიგნშია მისი ამოქმედებიდან მესამედზე მეტი საუკუნის შემდეგ.

3) რა არის პოტენციური არასასურველი შედეგები? 

Il ნება მიეცით შტატებს და მსხვერპლებს ებრძოლონ ონლაინ სექსუალური ტრეფიკინგის შესახებ 2017 წლის აქტს ეს იყო 2018 წელს მიღებული კანონი, რომელიც მან გადახედა მუხლი 230 კომუნიკაციების წესიერების კანონის სექსუალური ტრეფიკინგის წინააღმდეგ ბრძოლის მიზნით. მიუხედავად იმისა, რომ მცირე მტკიცებულება არსებობს, რომ მან შეამცირა სექს-ტრეფიკინგი, მას ჰქონდა ა უკიდურესად პრობლემური გავლენა ადამიანთა განსხვავებულ ჯგუფზე: სექსმუშაკები, რომლებიც ეყრდნობოდნენ FOSTA-SESTA-ს მიერ ოფლაინში ამოღებულ ვებგვერდებს საშიში კლიენტების შესახებ ინფორმაციის გაცვლისთვის. ეს მაგალითი გვიჩვენებს შემოთავაზებული რეგულაციების პოტენციური ეფექტების ფართო დათვალიერების მნიშვნელობას.

4) რა არის ეკონომიკური და გეოპოლიტიკური შედეგები? 

თუ აშშ-ში მარეგულირებლები მიიღებენ ზომებს ხელოვნური ინტელექტის სფეროში პროგრესის განზრახ შენელებისთვის, ეს უბრალოდ წაახალისებს ინვესტიციებს და ინოვაციებს - და შედეგად სამუშაო ადგილების შექმნას - სხვაგან. მიუხედავად იმისა, რომ განვითარებადი AI ბევრ შეშფოთებას იწვევს, ის ასევე გვპირდება უზარმაზარ სარგებელს მოიტანს ისეთ სფეროებში, როგორიცაა ინსტრუქცია , მედიცინის , პროდიჯიონი , ტრანსპორტის უსაფრთხოება , სოფლის მეურნეობის , მეტეოროლოგიური პრევენცია , იურიდიულ სერვისებზე წვდომა და მეტი.

მე მჯერა, რომ ხელოვნური ინტელექტის რეგულაციები, რომლებიც შემუშავებულია ზემოაღნიშნული ოთხი კითხვის გათვალისწინებით, უფრო წარმატებული იქნება ხელოვნური ინტელექტის პოტენციურ ზიანს და ამავდროულად მის სარგებელებზე წვდომის უზრუნველყოფას.

ეს სტატია თავისუფლად არის ამოღებული The Conversation-დან, დამოუკიდებელი არაკომერციული საინფორმაციო ორგანიზაცია, რომელიც ეძღვნება აკადემიური ექსპერტების ცოდნის გაზიარებას.

დაკავშირებული საკითხავი

BlogInnovazione.it

საინფორმაციო ბიულეტენი
არ გამოტოვოთ ყველაზე მნიშვნელოვანი სიახლეები ინოვაციების შესახებ. დარეგისტრირდით, რომ მიიღოთ ისინი ელექტრონული ფოსტით.

ბოლო სტატიები

ინოვაციური ინტერვენცია გაძლიერებულ რეალობაში, Apple-ის მაყურებელთან ერთად კატანიას პოლიკლინიკაში

კატანიას პოლიკლინიკაში ჩატარდა ოფთალმოპლასტიკური ოპერაცია Apple Vision Pro კომერციული მაყურებლის გამოყენებით…

3 მაისი 2024

ბავშვებისთვის საღებარი გვერდების სარგებელი - ჯადოსნური სამყარო ყველა ასაკისთვის

შეღებვის გზით მშვენიერი საავტომობილო უნარების განვითარება ბავშვებს ამზადებს უფრო რთული უნარებისთვის, როგორიცაა წერა. შეღებვა…

2 მაისი 2024

მომავალი აქ არის: როგორ ახდენს გადაზიდვის ინდუსტრია რევოლუციას გლობალურ ეკონომიკაში

საზღვაო სექტორი ნამდვილი გლობალური ეკონომიკური ძალაა, რომელიც 150 მილიარდი ბაზრისკენ მიისწრაფვის...

1 მაისი 2024

გამომცემლები და OpenAI ხელს აწერენ შეთანხმებებს ხელოვნური ინტელექტის მიერ დამუშავებული ინფორმაციის ნაკადის რეგულირებისთვის.

გასულ ორშაბათს, Financial Times-მა გამოაცხადა გარიგება OpenAI-თან. FT ლიცენზირებს თავის მსოფლიო დონის ჟურნალისტიკას…

აპრილი 30 2024

წაიკითხეთ ინოვაცია თქვენს ენაზე

საინფორმაციო ბიულეტენი
არ გამოტოვოთ ყველაზე მნიშვნელოვანი სიახლეები ინოვაციების შესახებ. დარეგისტრირდით, რომ მიიღოთ ისინი ელექტრონული ფოსტით.

Follow us