लेख

AI को नियमन गर्दै: 3 विशेषज्ञहरूले यो किन गर्न गाह्रो छ र राम्रो गर्न महत्त्वपूर्ण छ भनेर व्याख्या गर्छन्

शक्तिशाली नयाँ एआई प्रणालीहरूले जालसाजी र विकृतिलाई विस्तार गर्न सक्छ, जसले सरकारी नियमनका लागि व्यापक आह्वान गर्न सक्छ। तर त्यसो गर्नु भनेको गर्नु भन्दा सजिलो छ र अनपेक्षित परिणाम हुन सक्छ

अनुमानित पढ्ने समय: 11 मिनुटी

उसलाई दिनुहोस् नक्कली फोटोहरू डोनाल्ड ट्रम्पको न्युयोर्क शहरका पुलिस अधिकारीहरूले एक च्याटबोटमा वर्णन गर्दै पक्राउ गरे कम्प्यूटर वैज्ञानिक धेरै जिउँदै दुखद मृत्यु भयो , प्रणाली को नयाँ पुस्ता को क्षमता कृत्रिम बुद्धिमत्ता आकर्षक तर काल्पनिक पाठ र तस्बिरहरू सिर्जना गर्न जेनेरेटिभ ड्राइभले स्टेरोइड धोखाधडी र गलत जानकारीको बारेमा अलार्म फैलाउँदैछ। वास्तवमा, मार्च 29, 2023 मा AI अनुसन्धानकर्ताहरू र उद्योगका व्यक्तित्वहरूको समूहले उद्योगलाई नवीनतम AI प्रविधिहरूमा थप प्रशिक्षण स्थगित गर्न वा सरकारहरूलाई "स्थगन लगाउन" आग्रह गरे।

छवि जेनरेटरहरू मनपर्छ SLAB , मध्य यात्रा e स्थिर प्रसार र सामग्री जनरेटरहरू जस्तै बार्ड , GPT च्याट गर्नुहोस् , चिन्चिल्ला e लामा - अब लाखौं मानिसहरूको लागि उपलब्ध छ र प्रयोग गर्न कुनै प्राविधिक ज्ञान आवश्यक छैन।

प्राविधिक कम्पनीहरूले AI प्रणालीहरू तैनाथ गर्ने र तिनीहरूलाई जनतामा परीक्षण गर्ने खुला परिदृश्यलाई ध्यानमा राख्दै, नीति निर्माताहरूले आफैंलाई सोध्नु पर्छ कि उभरिरहेको प्रविधिलाई कसरी र कसरी नियमन गर्ने। कुराकानीले तीन प्राविधिक नीति विशेषज्ञहरूलाई एआईलाई नियमन गर्नु किन यस्तो चुनौती हो र यसलाई सही बनाउन किन महत्त्वपूर्ण छ भनेर व्याख्या गर्न सोध्यो।

मानव फोइबल र एक गतिशील लक्ष्य

एस. श्याम सुन्दर, मल्टिमिडिया इफेक्टका प्रोफेसर र निर्देशक, सेन्टर फर सोशलली रिस्पोन्सिबल एआई, पेन स्टेट

AI लाई नियमन गर्नुको कारण यो होइन कि टेक्नोलोजी नियन्त्रण बाहिर छ, तर मानव कल्पना अनुपात भन्दा बाहिर छ। अत्यधिक मिडिया कभरेजले एआई क्षमताहरू र चेतनाको बारेमा तर्कहीन विश्वासलाई उत्तेजित गरेको छ। यी विश्वासहरूमा आधारित छन् " स्वचालन पूर्वाग्रह वा मेशिनहरूले कुनै काम गर्दा हाम्रो सुरक्षालाई कमजोर पार्ने प्रवृत्तिमा। एउटा उदाहरण हो पाइलटहरु मा कम सतर्कता जब तिनीहरूको विमान अटोपायलटमा उडिरहेको छ।

मेरो प्रयोगशालामा भएका धेरै अध्ययनहरूले देखाएको छ कि जब मेसिन, मानवको सट्टा, अन्तरक्रियाको स्रोतको रूपमा चिनिन्छ, यसले प्रयोगकर्ताहरूको दिमागमा एक मानसिक सर्टकट ट्रिगर गर्छ जसलाई हामी "मेसिन हेरिस्टिक्स" भन्छौं। " । यो शर्टह्यान्ड भनेको मेसिनहरू सही, वस्तुनिष्ठ, निष्पक्ष, अचम्मलाग्दो, इत्यादि छन् भन्ने विश्वास हो। यसले प्रयोगकर्ताको निर्णयलाई क्लाउड बनाउँछ र प्रयोगकर्तालाई मेशिनहरूमा अत्यधिक विश्वास गर्न दिन्छ। यद्यपि, AI को अयोग्यताको बारेमा मानिसहरूलाई भ्रममा पार्नु मात्र पर्याप्त छैन, किनभने प्रविधिले वारेन्टी नगर्दा पनि मानिसहरू अवचेतन रूपमा प्रवीणता लिन जान्छन्।

अनुसन्धानले पनि देखाएको छ मानिसहरूले कम्प्युटरलाई सामाजिक प्राणीको रूपमा व्यवहार गर्छन् जब मेसिनहरूले मानवताको अलिकति संकेत पनि देखाउँछन्, जस्तै संवादात्मक भाषाको प्रयोग। यी अवस्थामा, मानिसहरूले मानव अन्तरक्रियाको सामाजिक नियमहरू लागू गर्छन्, जस्तै शिष्टाचार र पारस्परिकता। त्यसोभए जब कम्प्युटरहरू संवेदनशील देखिन्छन्, मानिसहरूले तिनीहरूलाई अन्धाधुन्ध विश्वास गर्छन्। AI उत्पादनहरू यो विश्वासको योग्य छन् र यसको शोषण नगर्नुहोस् भनेर सुनिश्चित गर्न नियमन आवश्यक छ।

AI ले एउटा अनौठो चुनौती प्रस्तुत गर्दछ किनभने, परम्परागत इन्जिनियरिङ प्रणालीहरूको विपरीत, डिजाइनरहरूले AI प्रणालीहरूले कसरी प्रदर्शन गर्नेछन् भन्ने निश्चित हुन सक्दैनन्। जब एक परम्परागत अटोमोबाइल कारखानाबाट बाहिर निस्कियो, इन्जिनियरहरूले यो कसरी प्रदर्शन गर्न गइरहेको छ भनेर ठ्याक्कै थाहा थियो। तर सेल्फ ड्राइभिङ कारहरू, इन्जिनियरहरू उनीहरूले नयाँ परिस्थितिहरूमा कसरी व्यवहार गर्नेछन् भन्ने निश्चित हुन सक्दैनन् .

नवाचार नियन्त्रण गर्न कठिनाई

हालै, विश्वभरि हजारौं मानिसहरूले उनीहरूको सुझावहरूको प्रतिक्रियामा GPT-4 र DALL-E 2 जस्ता ठूला जेनेरेटिभ एआई मोडेलहरू उत्पादन गरेकोमा छक्क परेका छन्। यी एआई मोडेलहरू विकास गर्न संलग्न कुनै पनि इन्जिनियरहरूले तपाईंलाई ठ्याक्कै भन्न सकेनन् कि मोडेलहरूले के उत्पादन गर्नेछन्। मामिलाहरूलाई जटिल बनाउन, यी मोडेलहरू परिवर्तन हुन्छन् र अझ बढी अन्तरक्रियाको साथ विकसित हुन्छन्।

यी सबैको अर्थ त्यहाँ आगलागीको पर्याप्त सम्भावना रहेको छ। तसर्थ, धेरै कुरा एआई प्रणालीहरू कसरी लागू गरिन्छ र मानव संवेदना वा कल्याणलाई हानि पुऱ्याउने अवस्थामा के कस्ता प्रावधानहरू छन् भन्ने कुरामा निर्भर गर्दछ। AI एक पूर्वाधार हो, एक फ्रीवे जस्तै। तपाईं यसलाई सामूहिक रूपमा मानव व्यवहारलाई आकार दिन डिजाइन गर्न सक्नुहुन्छ, तर तपाईंलाई दुर्व्यवहारहरू, जस्तै तीव्र गति, र अप्रत्याशित घटनाहरू, दुर्घटनाहरू जस्तै व्यवहार गर्न संयन्त्रहरू चाहिन्छ।

AI विकासकर्ताहरूले प्रणालीले व्यवहार गर्ने तरिकाहरू भविष्यवाणी गर्न र सामाजिक मापदण्ड र जिम्मेवारीहरूको सम्भावित उल्लङ्घनहरू अनुमान गर्न प्रयास गर्न असाधारण रूपमा रचनात्मक हुन आवश्यक छ। यसको मतलब त्यहाँ नियामक वा सुशासन ढाँचाको आवश्यकता छ जुन आवधिक लेखापरीक्षण र एआई नतिजा र उत्पादनहरूको छानबिनमा भर पर्छ, यद्यपि मलाई विश्वास छ कि यी फ्रेमवर्कहरूले पनि प्रणाली डिजाइनरहरूलाई घटनाहरूको लागि सधैं उत्तरदायी हुन सक्दैन भन्ने कुरा बुझ्नुपर्छ।

"नरम" र "हार्ड" दृष्टिकोणहरू संयोजन गर्दै

क्यासन स्मिट, जनस्वास्थ्यका सहायक प्रोफेसर, टेक्सास ए एन्ड एम विश्वविद्यालय

आर्टिफिसियल इन्टेलिजेन्सको नियमन जटिल छ । AI राम्रोसँग समायोजन गर्न, तपाईंले पहिले गर्नुपर्छ definish AI र AI को अपेक्षित जोखिम र फाइदाहरू बुझ्नुहोस्। Defiकानुनी रूपमा एआई फाइल गर्नु कानूनको अधीनमा छ भनेर पहिचान गर्न महत्त्वपूर्ण छ। तर एआई प्रविधिहरू अझै विकसित भइरहेका छन्, त्यसैले यो गाह्रो छ defiएक समाप्त defiस्थिर कानूनी परिभाषा।

AI को जोखिम र फाइदाहरू बुझ्न पनि महत्त्वपूर्ण छ। राम्रो नियमनले जोखिम न्यूनीकरण गर्दै सार्वजनिक लाभलाई अधिकतम बनाउनुपर्छ। जे होस्, AI अनुप्रयोगहरू अझै उदीयमान भइरहेका छन्, त्यसैले भविष्यका जोखिमहरू वा फाइदाहरू के हुन सक्छन् भनेर जान्न वा भविष्यवाणी गर्न गाह्रो छ। यी प्रकारका अज्ञातहरूले AI जस्ता उदीयमान प्रविधिहरूलाई अति नै बनाउँछन् नियमन गर्न गाह्रो परम्परागत कानून र नियमहरु संग।

सांसद हुन् समायोजन गर्न अक्सर धेरै ढिलो द्रुत रूपमा परिवर्तन भएको प्राविधिक वातावरणमा। कोही नयाँ कानूनहरू तिनीहरू जारी भएको समयमा अप्रचलित छन् वा कार्यकारी बनायो। नयाँ कानून, नियामक बिना उनीहरूले पुरानो कानुनको प्रयोग गर्नुपर्छ सामना गर्नु नयाँ समस्याहरू । कहिलेकाहीँ यो निम्त्याउँछ कानूनी अवरोधहरू प्रति सामाजिक लाभ o कानूनी कमीहरू प्रति हानिकारक व्यवहार .

नरम कानून

"नरम कानून विशेष उल्लङ्घनहरू रोक्नको लागि परम्परागत "कडा कानून" विधायी दृष्टिकोणहरूको विकल्प हो। नरम कानूनको दृष्टिकोणमा, एक निजी संस्था स्थापना गर्दछ नियम वा मापदण्ड उद्योग सदस्यहरूको लागि। यी परम्परागत कानून भन्दा छिटो परिवर्तन हुन सक्छ। यसले बनाउँछ नरम कानूनको आश्वासन उदीयमान टेक्नोलोजीहरूका लागि किनभने तिनीहरूले नयाँ अनुप्रयोगहरू र जोखिमहरूमा द्रुत रूपमा अनुकूलन गर्न सक्छन्। तर, नरम कानूनको अर्थ नरम कार्यान्वयन हुन सक्छ .

मेगन डोअर , जेनिफर वाग्नर e io (Cason Schmitहामी तेस्रो तरिका प्रस्ताव गर्छौं: Copyleft AI विश्वसनीय प्रवर्तन (CAITE) सँग । यो दृष्टिकोणले बौद्धिक सम्पत्तिमा दुई धेरै फरक अवधारणाहरू संयोजन गर्दछ: इजाजतपत्रहरू copyleft e patent troll.

बायाँ लाइसेन्स प्रतिलिपि गर्नुहोस्

इजाजतपत्रहरू copyleft खुला स्रोत सफ्टवेयर जस्ता इजाजतपत्रका सर्तहरू अन्तर्गत सामग्रीलाई सजिलै प्रयोग गर्न, पुन: प्रयोग गर्न वा परिमार्जन गर्न अनुमति दिन्छ। मोडेल CAITE लाइसेन्स प्रयोग गर्नुहोस् copyleft AI प्रयोगकर्ताहरूलाई पूर्वाग्रहको प्रभावको पारदर्शी मूल्याङ्कन जस्ता विशिष्ट नैतिक दिशानिर्देशहरू पालना गर्न आवश्यक छ।

हाम्रो मोडेलमा, यी इजाजतपत्रहरूले इजाजतपत्र उल्लङ्घनहरू लागू गर्ने कानूनी अधिकारलाई विश्वसनीय तेस्रो पक्षलाई हस्तान्तरण गर्दछ। यसले एक प्रवर्तन संस्था सिर्जना गर्दछ जुन AI नैतिक मापदण्डहरू लागू गर्नको लागि मात्र अवस्थित छ र अनैतिक आचरणको लागि जरिवानाद्वारा आंशिक रूपमा वित्त पोषण गर्न सकिन्छ। यो संस्था एक जस्तै छ patent troll किनकि यो सरकारी भन्दा निजी हो र यसले अरूबाट सङ्कलन गर्ने कानूनी बौद्धिक सम्पत्ति अधिकारहरू लागू गरेर आफैलाई समर्थन गर्दछ। यस अवस्थामा, नाफाको लागि दौडनुको सट्टा, संस्थाले नैतिक दिशानिर्देशहरू लागू गर्दछ defiलाइसेन्स मा रात।

यो मोडेल लचिलो र सधैं परिवर्तनशील एआई वातावरणको आवश्यकताहरू पूरा गर्न अनुकूल छ। यसले परम्परागत सरकारी नियामक जस्ता पर्याप्त प्रवर्तन विकल्पहरूको लागि पनि अनुमति दिन्छ। यसरी, यसले AI को अद्वितीय चुनौतिहरूलाई सम्बोधन गर्न कडा र नरम कानून दृष्टिकोणका उत्कृष्ट तत्वहरूलाई संयोजन गर्दछ।

चार मुख्य प्रश्न सोध्न

जोन विलासेनर, इलेक्ट्रिकल इन्जिनियरिङ्, कानून, सार्वजनिक नीति र व्यवस्थापनका प्राध्यापक, क्यालिफोर्निया विश्वविद्यालय, लस एन्जलस

को असाधारण हालको प्रगति ठूला भाषा मोडेलमा आधारित जेनेरेटिभ एआईले नयाँ एआई-विशिष्ट नियमन सिर्जना गर्न माग बढाइरहेको छ। आफैलाई सोध्न यहाँ चार प्रमुख प्रश्नहरू छन्:

1) AI को लागी नयाँ विशिष्ट नियमनको आवश्यकता छ? 

एआई प्रणालीका धेरै सम्भावित समस्याग्रस्त परिणामहरू पहिले नै अवस्थित फ्रेमवर्कहरूद्वारा सम्बोधन गरिएका छन्। यदि बैंकले ऋण आवेदनहरूको मूल्याङ्कन गर्न प्रयोग गरेको एआई एल्गोरिदमले जातीय भेदभावपूर्ण उधारो निर्णयहरू निम्त्याउँछ भने, यसले फेयर हाउसिङ ऐनको उल्लङ्घन गर्नेछ। यदि चालकविहीन कारमा एआई सफ्टवेयरले दुर्घटना निम्त्याउँछ भने, उत्पादन दायित्व कानूनले प्रदान गर्दछ। उपचार पछ्याउने ढाँचा .

2) समयको स्न्यापसटमा आधारित द्रुत रूपमा विकसित हुने प्रविधिलाई नियमन गर्ने जोखिमहरू के हुन्? 

यसको उत्कृष्ट उदाहरण हो भण्डारित संचार ऐन , जुन 1986 मा तत्कालीन-अभिनव डिजिटल संचार प्रविधिहरू जस्तै इमेललाई सम्बोधन गर्न लागू गरिएको थियो। SCA लाई लागू गर्दा, कांग्रेसले 180 दिन भन्दा पुरानो इमेलको लागि उल्लेखनीय रूपमा कम गोपनीयता सुरक्षा प्रदान गर्यो।

औचित्य यो थियो कि सीमित भण्डारण भनेको मानिसहरूले नयाँ सन्देशहरूका लागि ठाउँ बनाउन पुराना सन्देशहरू मेटाएर आफ्नो इनबक्सहरू निरन्तर सफा गरिरहनु हो। नतिजा स्वरूप, 180 दिन भन्दा बढीको लागि संग्रहित सन्देशहरू गोपनीयता दृष्टिकोणबाट कम महत्त्वपूर्ण मानिन्थ्यो। यो अस्पष्ट छ कि यो तर्कले कहिल्यै अर्थ राख्यो, र यो निश्चित रूपमा 20 मा अर्थ बनाउँदैन, जब हाम्रा अधिकांश इमेलहरू र अन्य अभिलेखित डिजिटल संचारहरू छ महिना भन्दा पुरानो हुन्छन्।

समयको साथमा एकल स्न्यापसटमा आधारित टेक्नोलोजी नियमन गर्ने बारे चिन्ताहरूको साझा प्रतिक्रिया यो हो: यदि कुनै कानून वा नियम अप्रचलित हुन्छ भने, यसलाई अद्यावधिक गर्नुहोस्। यो भन्न भन्दा सजिलो छ। धेरै मानिसहरू सहमत छन् कि एससीए दशकहरू पहिले अप्रचलित भयो। तर कांग्रेसले 180-दिनको प्रावधानलाई कसरी परिमार्जन गर्ने भन्नेमा विशेष रूपमा सहमत हुन असमर्थ भएकोले, यो कानून बनेको शताब्दीको एक तिहाइ भन्दा बढी पुस्तकहरूमा छ।

3) सम्भावित अनपेक्षित परिणामहरू के हुन्? 

Il राज्य र पीडितहरूलाई अनलाइन यौन बेचबिखन ऐन 2017 विरुद्ध लड्न अनुमति दिनुहोस् यो 2018 मा पारित भएको कानून थियो जुन उसले परिमार्जन गर्यो धारा 230 यौन तस्करी विरुद्ध लड्ने उद्देश्य संग संचार सभ्यता ऐन को। उनले यौन बेचबिखन कम गरेको थोरै प्रमाण भए तापनि उनले ए धेरै समस्याग्रस्त प्रभाव मानिसहरूको फरक समूहमा: खतरनाक ग्राहकहरूको बारेमा जानकारी आदानप्रदान गर्न FOSTA-SESTA द्वारा अफलाइन लिइएका वेबसाइटहरूमा भर परेका यौनकर्मीहरू। यस उदाहरणले प्रस्तावित नियमहरूको सम्भावित प्रभावहरूलाई व्यापक रूपमा हेर्नुको महत्त्व देखाउँछ।

4) आर्थिक र भूराजनीतिक प्रभावहरू के हुन्? 

यदि संयुक्त राज्यका नियामकहरूले AI मा प्रगतिलाई जानाजानी ढिलो गर्न कदम चाल्छ भने, यसले लगानी र नवीनतालाई धक्का दिनेछ - र परिणामस्वरूप रोजगारी सिर्जना - अन्यत्र। उदीयमान एआईले धेरै चिन्ताहरू खडा गर्दा, यसले क्षेत्रहरूमा ठूलो फाइदाहरू ल्याउने वाचा पनि गर्दछ निर्देशन , चिकित्सा , PRODUZIONE , यातायात सुरक्षा , कृषि , पूर्व मौसम विज्ञान , कानूनी सेवाहरूमा पहुँच र अधिक।

मलाई विश्वास छ कि माथिका चार प्रश्नहरूलाई दिमागमा राखेर ड्राफ्ट गरिएका एआई नियमहरूले यसका फाइदाहरूमा पहुँच सुनिश्चित गर्दै AIका सम्भावित हानिहरूलाई सफलतापूर्वक सम्बोधन गर्ने सम्भावना बढी हुनेछ।

यो लेख स्वतन्त्र रूपमा द कन्भर्सेसनबाट लिइएको हो, एक स्वतन्त्र गैर-लाभकारी समाचार संस्था जो शैक्षिक विशेषज्ञहरूको ज्ञान साझा गर्न समर्पित छ।

सम्बन्धित पढाइहरू

BlogInnovazione.it

नवाचार न्यूजलेटर
नवीनता मा सबैभन्दा महत्त्वपूर्ण समाचार नछुटाउनुहोस्। तिनीहरूलाई ईमेल द्वारा प्राप्त गर्न साइन अप गर्नुहोस्।

भर्खरका लेखहरू

भविष्य यहाँ छ: कसरी शिपिंग उद्योगले विश्वव्यापी अर्थतन्त्रमा क्रान्ति गर्दैछ

नौसेना क्षेत्र एक साँचो वैश्विक आर्थिक शक्ति हो, जसले 150 बिलियन बजारमा नेभिगेट गरेको छ ...

1 मई 2024

प्रकाशकहरू र ओपनएआईले आर्टिफिसियल इन्टेलिजेन्सद्वारा प्रशोधित सूचनाको प्रवाहलाई विनियमित गर्न सम्झौतामा हस्ताक्षर गर्छन्

गत सोमबार, फाइनान्सियल टाइम्सले OpenAI सँग सम्झौताको घोषणा गर्‍यो। FT ले आफ्नो विश्व स्तरीय पत्रकारिता लाई लाइसेन्स...

30 अप्रिल 2024

अनलाइन भुक्तानीहरू: यहाँ कसरी स्ट्रिमिङ सेवाहरूले तपाईंलाई सधैंभरि भुक्तान गर्छ

लाखौं मानिसहरूले स्ट्रिमिङ सेवाहरूको लागि भुक्तानी गर्छन्, मासिक सदस्यता शुल्क तिर्छन्। यो आम धारणा छ कि तपाईं…

29 अप्रिल 2024

Veeam ले ransomware को लागि सुरक्षा देखि प्रतिक्रिया र रिकभरी को लागी सबै भन्दा व्यापक समर्थन को सुविधा दिन्छ

Veeam द्वारा Coveware ले साइबर जबरजस्ती घटना प्रतिक्रिया सेवाहरू प्रदान गर्न जारी राख्नेछ। Coveware ले फोरेन्सिक र उपचार क्षमताहरू प्रदान गर्दछ ...

23 अप्रिल 2024

आफ्नो भाषामा नवीनता पढ्नुहोस्

नवाचार न्यूजलेटर
नवीनता मा सबैभन्दा महत्त्वपूर्ण समाचार नछुटाउनुहोस्। तिनीहरूलाई ईमेल द्वारा प्राप्त गर्न साइन अप गर्नुहोस्।

हामीलाई पछ्याउनुहोस्