ലേഖനങ്ങൾ

AI നിയന്ത്രിക്കുന്നു: 3 വിദഗ്‌ധർ ഇത് ചെയ്യാൻ ബുദ്ധിമുട്ടുള്ളതും നന്നായി ചെയ്യേണ്ടത് പ്രധാനവുമാണെന്ന് വിശദീകരിക്കുന്നു

ശക്തമായ പുതിയ AI സംവിധാനങ്ങൾ വഞ്ചനയും തെറ്റായ വിവരങ്ങളും വർദ്ധിപ്പിക്കും, ഇത് സർക്കാർ നിയന്ത്രണത്തിനായുള്ള വ്യാപകമായ ആഹ്വാനത്തിലേക്ക് നയിക്കുന്നു. എന്നാൽ അങ്ങനെ ചെയ്യുന്നത് ചെയ്യുന്നതിനേക്കാൾ എളുപ്പമാണ്, അത് അപ്രതീക്ഷിതമായ പ്രത്യാഘാതങ്ങൾ ഉണ്ടാക്കും

ഉള്ളടക്ക പട്ടിക

കണക്കാക്കിയ വായന സമയം: 11 minuti

അവള്ക്കു കൊടുക്കുക വ്യാജ ഫോട്ടോകൾ ഡൊണാൾഡ് ട്രംപിനെ ന്യൂയോർക്ക് സിറ്റി പോലീസ് ഉദ്യോഗസ്ഥർ ഒരു ചാറ്റ്ബോട്ടിൽ നിന്ന് പിടികൂടി കംപ്യൂട്ടർ ശാസ്ത്രജ്ഞൻ വളരെ ജീവനോടെ ദാരുണമായി മരിച്ചു , പുതിയ തലമുറ സംവിധാനങ്ങളുടെ കഴിവ് കൃത്രിമ ബുദ്ധി നിർബന്ധിതവും എന്നാൽ സാങ്കൽപ്പികവുമായ വാചകങ്ങളും ചിത്രങ്ങളും സൃഷ്ടിക്കുന്നതിനുള്ള ജനറേറ്റീവ് ഡ്രൈവ് സ്റ്റിറോയിഡ് തട്ടിപ്പുകളെയും തെറ്റായ വിവരങ്ങളെയും കുറിച്ച് അലാറങ്ങൾ സൃഷ്ടിക്കുന്നു. വാസ്തവത്തിൽ, 29 മാർച്ച് 2023-ന് ഒരു കൂട്ടം AI ഗവേഷകരും വ്യവസായ പ്രമുഖരും ഏറ്റവും പുതിയ AI സാങ്കേതികവിദ്യകളെക്കുറിച്ചുള്ള കൂടുതൽ പരിശീലനം താൽക്കാലികമായി നിർത്തിവയ്ക്കണമെന്ന് വ്യവസായത്തോട് ആവശ്യപ്പെട്ടു അല്ലെങ്കിൽ അത് ഒഴിവാക്കി, "മൊറട്ടോറിയം ഏർപ്പെടുത്താൻ" സർക്കാരുകൾ ആവശ്യപ്പെട്ടു.

ഇമേജ് ജനറേറ്ററുകൾ ഇഷ്ടപ്പെടുന്നു ഡാൾ-ഇ , മധ്യയാത്ര e സ്ഥിരതയുള്ള വ്യാപനം പോലുള്ള ഉള്ളടക്ക ജനറേറ്ററുകളും ബാർഡ് , ചാറ്റ് GPT , ചിൻചില്ല e ലാമ - ഇപ്പോൾ ദശലക്ഷക്കണക്കിന് ആളുകൾക്ക് ലഭ്യമാണ് കൂടാതെ ഉപയോഗിക്കുന്നതിന് സാങ്കേതിക പരിജ്ഞാനം ആവശ്യമില്ല.

ടെക് കമ്പനികൾ AI സംവിധാനങ്ങൾ വിന്യസിക്കുകയും അവ പൊതുജനങ്ങളിൽ പരീക്ഷിക്കുകയും ചെയ്യുന്നതിന്റെ വികസിച്ചുകൊണ്ടിരിക്കുന്ന ലാൻഡ്‌സ്‌കേപ്പ് കണക്കിലെടുക്കുമ്പോൾ, ഉയർന്നുവരുന്ന സാങ്കേതികവിദ്യയെ എങ്ങനെ നിയന്ത്രിക്കാമെന്നും എങ്ങനെ നിയന്ത്രിക്കാമെന്നും നയ നിർമ്മാതാക്കൾ സ്വയം ചോദിക്കണം. AI-യെ നിയന്ത്രിക്കുന്നത് എന്തുകൊണ്ടാണ് ഇത്രയധികം വെല്ലുവിളിയെന്നും അത് ശരിയാക്കുന്നത് എന്തുകൊണ്ട് പ്രധാനമാണെന്നും വിശദീകരിക്കാൻ സംഭാഷണം മൂന്ന് സാങ്കേതിക നയ വിദഗ്ധരോട് ആവശ്യപ്പെട്ടു.

മനുഷ്യ വൈകല്യങ്ങളും ചലിക്കുന്ന ലക്ഷ്യവും

എസ്. ശ്യാം സുന്ദർ, മൾട്ടിമീഡിയ ഇഫക്‌റ്റുകളുടെ പ്രൊഫസറും ഡയറക്ടറും, സെന്റർ ഫോർ സോഷ്യൽ റെസ്‌പോൺസിബിൾ എഐ, പെൻ സ്റ്റേറ്റ്

AI-യെ നിയന്ത്രിക്കാനുള്ള കാരണം സാങ്കേതികവിദ്യ നിയന്ത്രണാതീതമായതുകൊണ്ടല്ല, മറിച്ച് മനുഷ്യന്റെ ഭാവനയുടെ അനുപാതത്തിലല്ല എന്നതാണ്. അമിതമായ മീഡിയ കവറേജ് AI കഴിവുകളെയും ബോധത്തെയും കുറിച്ചുള്ള യുക്തിരഹിതമായ വിശ്വാസങ്ങൾക്ക് ആക്കം കൂട്ടി. ഈ വിശ്വാസങ്ങൾ അടിസ്ഥാനമാക്കിയുള്ളതാണ് " ഓട്ടോമേഷൻ ബയസ് ” അല്ലെങ്കിൽ യന്ത്രങ്ങൾ ഒരു ദൗത്യം നിർവ്വഹിക്കുമ്പോൾ നമ്മുടെ കാവൽ നിൽക്കാനുള്ള പ്രവണത. ഒരു ഉദാഹരണമാണ് പൈലറ്റുമാരുടെ ജാഗ്രത കുറഞ്ഞു അവരുടെ വിമാനം ഓട്ടോപൈലറ്റിൽ പറക്കുമ്പോൾ.

എന്റെ ലാബിലെ നിരവധി പഠനങ്ങൾ കാണിക്കുന്നത്, മനുഷ്യനേക്കാൾ ഒരു യന്ത്രം, ആശയവിനിമയത്തിന്റെ ഉറവിടമായി തിരിച്ചറിയപ്പെടുമ്പോൾ, അത് ഉപയോക്താക്കളുടെ മനസ്സിൽ ഒരു മാനസിക കുറുക്കുവഴിയെ ഞങ്ങൾ "മെഷീൻ ഹ്യൂറിസ്റ്റിക്സ്" എന്ന് വിളിക്കുന്നു. " . യന്ത്രങ്ങൾ കൃത്യവും വസ്തുനിഷ്ഠവും പക്ഷപാതപരവും തെറ്റില്ലാത്തതും മറ്റുമുള്ളവയാണെന്ന വിശ്വാസമാണ് ഈ ചുരുക്കെഴുത്ത്. ഇത് ഉപയോക്താവിന്റെ വിധിയെ മങ്ങിക്കുകയും മെഷീനുകളെ അമിതമായി വിശ്വസിക്കാൻ ഉപയോക്താവിനെ പ്രേരിപ്പിക്കുകയും ചെയ്യുന്നു. എന്നിരുന്നാലും, AI-യുടെ അപ്രമാദിത്വത്തെക്കുറിച്ച് ആളുകളെ നിരാശപ്പെടുത്തുന്നത് മാത്രം പോരാ, കാരണം സാങ്കേതികവിദ്യ അതിന് അർഹതയില്ലെങ്കിലും മനുഷ്യർ ഉപബോധമനസ്സോടെ പ്രാവീണ്യം ഏറ്റെടുക്കുമെന്ന് അറിയപ്പെടുന്നു.

എന്നും ഗവേഷണങ്ങൾ തെളിയിച്ചിട്ടുണ്ട് ആളുകൾ കമ്പ്യൂട്ടറുകളെ സാമൂഹിക ജീവികളായി കണക്കാക്കുന്നു സംഭാഷണ ഭാഷയുടെ ഉപയോഗം പോലെയുള്ള മനുഷ്യത്വത്തിന്റെ ചെറിയ സൂചന പോലും യന്ത്രങ്ങൾ കാണിക്കുമ്പോൾ. ഈ സന്ദർഭങ്ങളിൽ, ആളുകൾ മര്യാദയും പരസ്പരവും പോലെയുള്ള മനുഷ്യ ഇടപെടലിന്റെ സാമൂഹിക നിയമങ്ങൾ പ്രയോഗിക്കുന്നു. അതുകൊണ്ട് കമ്പ്യൂട്ടറുകൾ സെൻസിറ്റീവ് ആണെന്ന് തോന്നുമ്പോൾ, ആളുകൾ അവയെ അന്ധമായി വിശ്വസിക്കുന്നു. AI ഉൽപ്പന്നങ്ങൾ ഈ വിശ്വാസത്തിന് അർഹമാണെന്നും അത് ചൂഷണം ചെയ്യരുതെന്നും ഉറപ്പാക്കാൻ നിയന്ത്രണം ആവശ്യമാണ്.

പരമ്പരാഗത എഞ്ചിനീയറിംഗ് സിസ്റ്റങ്ങളിൽ നിന്ന് വ്യത്യസ്തമായി, AI സിസ്റ്റങ്ങൾ എങ്ങനെ പ്രവർത്തിക്കുമെന്ന് ഡിസൈനർമാർക്ക് ഉറപ്പുനൽകാൻ കഴിയാത്തതിനാൽ AI ഒരു സവിശേഷമായ വെല്ലുവിളി അവതരിപ്പിക്കുന്നു. ഒരു പരമ്പരാഗത ഓട്ടോമൊബൈൽ ഫാക്ടറിയിൽ നിന്ന് ഇറങ്ങിയപ്പോൾ, അത് എങ്ങനെ പ്രവർത്തിക്കുമെന്ന് എഞ്ചിനീയർമാർക്ക് കൃത്യമായി അറിയാമായിരുന്നു. എന്നാൽ സ്വയം ഓടിക്കുന്ന കാറുകൾക്കൊപ്പം, എഞ്ചിനീയർമാർ പുതിയ സാഹചര്യങ്ങളിൽ അവർ എങ്ങനെ പെരുമാറുമെന്ന് അവർക്ക് ഒരിക്കലും ഉറപ്പില്ല .

നവീകരണത്തെ നിയന്ത്രിക്കുന്നതിനുള്ള ബുദ്ധിമുട്ട്

ഈയിടെയായി, ലോകമെമ്പാടുമുള്ള ആയിരക്കണക്കിന് ആളുകൾ അവരുടെ നിർദ്ദേശങ്ങൾക്ക് മറുപടിയായി GPT-4, DALL-E 2 എന്നിവ പോലുള്ള വലിയ ജനറേറ്റീവ് AI മോഡലുകൾ നിർമ്മിക്കുന്നത് ആശ്ചര്യപ്പെട്ടു. ഈ AI മോഡലുകൾ വികസിപ്പിക്കുന്നതിൽ ഏർപ്പെട്ടിരിക്കുന്ന എഞ്ചിനീയർമാർക്കൊന്നും മോഡലുകൾ എന്താണ് നിർമ്മിക്കുന്നതെന്ന് കൃത്യമായി പറയാൻ കഴിഞ്ഞില്ല. കാര്യങ്ങൾ സങ്കീർണ്ണമാക്കുന്നതിന്, ഈ മാതൃകകൾ മാറുകയും വികസിക്കുകയും ചെയ്യുന്നു.

ഇതെല്ലാം അർത്ഥമാക്കുന്നത് മിസ്‌ഫയറുകൾക്ക് ധാരാളം സാധ്യതയുണ്ടെന്നാണ്. അതിനാൽ, AI സംവിധാനങ്ങൾ എങ്ങനെ നടപ്പിലാക്കുന്നു എന്നതിനെ ആശ്രയിച്ചിരിക്കുന്നു, മനുഷ്യന്റെ സംവേദനക്ഷമതയ്‌ക്കോ ക്ഷേമത്തിനോ ഹാനി വരുമ്പോൾ അവലംബിക്കുന്നതിനുള്ള വ്യവസ്ഥകൾ എന്തൊക്കെയാണ്. AI എന്നത് ഒരു ഫ്രീവേ പോലെയുള്ള ഒരു ഇൻഫ്രാസ്ട്രക്ചറാണ്. കൂട്ടായ്‌മയിൽ മനുഷ്യരുടെ പെരുമാറ്റം രൂപപ്പെടുത്തുന്നതിന് നിങ്ങൾക്ക് ഇത് രൂപകൽപ്പന ചെയ്യാൻ കഴിയും, എന്നാൽ അമിതവേഗത പോലുള്ള ദുരുപയോഗങ്ങളും അപകടങ്ങൾ പോലുള്ള പ്രവചനാതീതമായ സംഭവങ്ങളും നേരിടാൻ നിങ്ങൾക്ക് സംവിധാനങ്ങൾ ആവശ്യമാണ്.

AI ഡവലപ്പർമാർ സിസ്റ്റം പെരുമാറുന്ന രീതികൾ പ്രവചിക്കുന്നതിനും സാമൂഹിക മാനദണ്ഡങ്ങളുടെയും ഉത്തരവാദിത്തങ്ങളുടെയും ലംഘനങ്ങൾ മുൻകൂട്ടി കാണുന്നതിനും അസാധാരണമായ സർഗ്ഗാത്മകത പുലർത്തേണ്ടതുണ്ട്. ഇതിനർത്ഥം, ആനുകാലിക ഓഡിറ്റുകളും AI ഫലങ്ങളുടെയും ഉൽപ്പന്നങ്ങളുടെയും സൂക്ഷ്മപരിശോധനയും ആശ്രയിക്കുന്ന റെഗുലേറ്ററി അല്ലെങ്കിൽ ഗവേണൻസ് ചട്ടക്കൂടുകളുടെ ആവശ്യകതയുണ്ടെന്നാണ്, എന്നിരുന്നാലും സംഭവങ്ങൾക്ക് സിസ്റ്റം ഡിസൈനർമാർക്ക് എല്ലായ്പ്പോഴും ഉത്തരവാദിത്തമുണ്ടാകില്ലെന്ന് ഈ ചട്ടക്കൂടുകൾ തിരിച്ചറിയണമെന്ന് ഞാൻ വിശ്വസിക്കുന്നു.

"സോഫ്റ്റ്", "ഹാർഡ്" സമീപനങ്ങൾ സംയോജിപ്പിക്കുന്നു

കാസൺ ഷ്മിറ്റ്, ടെക്സസ് എ ആൻഡ് എം യൂണിവേഴ്സിറ്റിയിലെ പബ്ലിക് ഹെൽത്ത് അസിസ്റ്റന്റ് പ്രൊഫസർ

ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് നിയന്ത്രിക്കുന്നത് സങ്കീർണ്ണമാണ് . AI നന്നായി ട്യൂൺ ചെയ്യുന്നതിന്, നിങ്ങൾ ആദ്യം ചെയ്യേണ്ടതുണ്ട് defiനിഷ് AI കൂടാതെ AI യുടെ പ്രതീക്ഷിക്കുന്ന അപകടസാധ്യതകളും നേട്ടങ്ങളും മനസ്സിലാക്കുക. Defiനിയമത്തിന് വിധേയമായത് എന്താണെന്ന് തിരിച്ചറിയാൻ AI നിയമവിധേയമാക്കുന്നത് പ്രധാനമാണ്. എന്നാൽ AI സാങ്കേതികവിദ്യകൾ ഇപ്പോഴും വികസിച്ചുകൊണ്ടിരിക്കുന്നു, അതിനാൽ ഇത് ബുദ്ധിമുട്ടാണ് defiഒന്ന് പൂർത്തിയാക്കുക defiസ്ഥിരമായ നിയമ നിർവചനം.

AI-യുടെ അപകടസാധ്യതകളും നേട്ടങ്ങളും മനസ്സിലാക്കുന്നതും പ്രധാനമാണ്. നല്ല നിയന്ത്രണം അപകടസാധ്യതകൾ കുറയ്ക്കുന്നതിനൊപ്പം പൊതു ആനുകൂല്യങ്ങൾ പരമാവധിയാക്കണം. എന്നിരുന്നാലും, AI ആപ്ലിക്കേഷനുകൾ ഇപ്പോഴും ഉയർന്നുവരുന്നു, അതിനാൽ ഭാവിയിലെ അപകടസാധ്യതകളും നേട്ടങ്ങളും എന്തായിരിക്കുമെന്ന് അറിയാനോ പ്രവചിക്കാനോ ബുദ്ധിമുട്ടാണ്. ഇത്തരത്തിലുള്ള അജ്ഞാതർ AI പോലുള്ള ഉയർന്നുവരുന്ന സാങ്കേതികവിദ്യകളെ അങ്ങേയറ്റം മാറ്റുന്നു നിയന്ത്രിക്കാൻ പ്രയാസമാണ് പരമ്പരാഗത നിയമങ്ങളും ചട്ടങ്ങളും ഉപയോഗിച്ച്.

നിയമനിർമ്മാതാക്കളാണ് പലപ്പോഴും ക്രമീകരിക്കാൻ വളരെ പതുക്കെ അതിവേഗം മാറിക്കൊണ്ടിരിക്കുന്ന സാങ്കേതിക അന്തരീക്ഷത്തിലേക്ക്. ആരോ പുതിയ നിയമങ്ങൾ അവ പുറപ്പെടുവിക്കുന്ന സമയത്ത് കാലഹരണപ്പെട്ടവയാണ് അല്ലെങ്കിൽ എക്സിക്യൂട്ടീവാക്കി. പുതിയ നിയമങ്ങളില്ലാതെ, റെഗുലേറ്റർമാർ അവർ പഴയ നിയമങ്ങൾ ഉപയോഗിക്കണം നേരിടാൻ പുതിയ പ്രശ്നങ്ങൾ . ചിലപ്പോൾ ഇത് നയിക്കുന്നു നിയമപരമായ തടസ്സങ്ങൾ ഓരോ സാമൂഹിക നേട്ടങ്ങൾ o നിയമപരമായ പഴുതുകൾ ഓരോ ദോഷകരമായ പെരുമാറ്റങ്ങൾ .

മൃദു നിയമം

"സോഫ്റ്റ് നിയമം നിർദ്ദിഷ്ട ലംഘനങ്ങൾ തടയാൻ ലക്ഷ്യമിട്ടുള്ള പരമ്പരാഗത "കഠിന നിയമം" നിയമനിർമ്മാണ സമീപനങ്ങൾക്കുള്ള ബദലാണ്. മൃദു നിയമ സമീപനത്തിൽ, ഒരു സ്വകാര്യ സ്ഥാപനം സ്ഥാപിക്കുന്നു നിയമങ്ങൾ അല്ലെങ്കിൽ മാനദണ്ഡങ്ങൾ വ്യവസായ അംഗങ്ങൾക്ക്. പരമ്പരാഗത നിയമനിർമ്മാണത്തേക്കാൾ വേഗത്തിൽ ഇവ മാറും. അത് ഉണ്ടാക്കുന്നു മൃദു നിയമങ്ങൾ വാഗ്ദാനം ചെയ്യുന്നു ഉയർന്നുവരുന്ന സാങ്കേതികവിദ്യകൾക്കായി, കാരണം അവയ്ക്ക് പുതിയ ആപ്ലിക്കേഷനുകളോടും അപകടസാധ്യതകളോടും വേഗത്തിൽ പൊരുത്തപ്പെടാൻ കഴിയും. എന്നിരുന്നാലും, മൃദു നിയമങ്ങൾ മൃദുവായ നിർവ്വഹണത്തെ അർത്ഥമാക്കാം .

മേഗൻ ഡോർ , ജെന്നിഫർ വാഗ്നർ e io (കാസൺ ഷ്മിറ്റ്) ഞങ്ങൾ മൂന്നാമത്തെ വഴി നിർദ്ദേശിക്കുന്നു: വിശ്വസനീയമായ എൻഫോഴ്‌സ്‌മെന്റിനൊപ്പം (CAITE) കോപ്പിലെഫ്റ്റ് AI . ഈ സമീപനം ബൗദ്ധിക സ്വത്തിൽ രണ്ട് വ്യത്യസ്ത ആശയങ്ങൾ സംയോജിപ്പിക്കുന്നു: ലൈസൻസുകൾ copyleft e patent troll.

ഇടത് ലൈസൻസുകൾ പകർത്തുക

ലൈസൻസുകൾ copyleft ഓപ്പൺ സോഴ്‌സ് സോഫ്‌റ്റ്‌വെയർ പോലുള്ള ഒരു ലൈസൻസിന്റെ നിബന്ധനകൾക്ക് കീഴിൽ ഉള്ളടക്കം എളുപ്പത്തിൽ ഉപയോഗിക്കാനോ പുനരുപയോഗിക്കാനോ പരിഷ്‌ക്കരിക്കാനോ നിങ്ങളെ അനുവദിക്കുന്നു. മോഡൽ CAITE ലൈസൻസുകൾ ഉപയോഗിക്കുക copyleft പക്ഷപാതത്തിന്റെ ആഘാതത്തിന്റെ സുതാര്യമായ വിലയിരുത്തലുകൾ പോലെയുള്ള നിർദ്ദിഷ്ട ധാർമ്മിക മാർഗ്ഗനിർദ്ദേശങ്ങൾ പാലിക്കാൻ AI ഉപയോക്താക്കളോട് ആവശ്യപ്പെടുന്നു.

ഞങ്ങളുടെ മാതൃകയിൽ, ഈ ലൈസൻസുകൾ ലൈസൻസ് ലംഘനങ്ങൾ നടപ്പിലാക്കുന്നതിനുള്ള നിയമപരമായ അവകാശവും വിശ്വസനീയമായ ഒരു മൂന്നാം കക്ഷിക്ക് കൈമാറുന്നു. ഇത് AI നൈതിക മാനദണ്ഡങ്ങൾ നടപ്പിലാക്കാൻ മാത്രമായി നിലനിൽക്കുന്ന ഒരു എൻഫോഴ്‌സ്‌മെന്റ് എന്റിറ്റിയെ സൃഷ്‌ടിക്കുന്നു, കൂടാതെ അനീതിപരമായ പെരുമാറ്റത്തിനുള്ള പിഴയിലൂടെ ഭാഗികമായി ധനസഹായം നൽകാനും കഴിയും. ഈ എന്റിറ്റി ഒരു പോലെയാണ് patent troll അത് സർക്കാരിനേക്കാൾ സ്വകാര്യമായതിനാൽ മറ്റുള്ളവരിൽ നിന്ന് ശേഖരിക്കുന്ന നിയമപരമായ ബൗദ്ധിക സ്വത്തവകാശം നടപ്പിലാക്കുന്നതിലൂടെ സ്വയം പിന്തുണയ്ക്കുന്നു. ഈ സാഹചര്യത്തിൽ, ലാഭത്തിനായി ഓടുന്നതിനുപകരം, സ്ഥാപനം ധാർമ്മിക മാർഗ്ഗനിർദ്ദേശങ്ങൾ നടപ്പിലാക്കുന്നു defiലൈസൻസുകളിൽ രാത്രി.

ഈ മോഡൽ വഴക്കമുള്ളതും എപ്പോഴും മാറിക്കൊണ്ടിരിക്കുന്ന AI പരിതസ്ഥിതിയുടെ ആവശ്യങ്ങൾ നിറവേറ്റാൻ അനുയോജ്യവുമാണ്. പരമ്പരാഗത ഗവൺമെന്റ് റെഗുലേറ്റർ പോലുള്ള കാര്യമായ എൻഫോഴ്സ്മെന്റ് ഓപ്ഷനുകൾക്കും ഇത് അനുവദിക്കുന്നു. ഈ രീതിയിൽ, AI-യുടെ അതുല്യമായ വെല്ലുവിളികളെ അഭിമുഖീകരിക്കുന്നതിന് കഠിനവും മൃദുവുമായ നിയമ സമീപനങ്ങളുടെ മികച്ച ഘടകങ്ങൾ ഇത് സംയോജിപ്പിക്കുന്നു.

ചോദിക്കേണ്ട നാല് പ്രധാന ചോദ്യങ്ങൾ

ജോൺ വില്ലസെനോർ, ഇലക്ട്രിക്കൽ എഞ്ചിനീയറിംഗ്, നിയമം, പബ്ലിക് പോളിസി ആൻഡ് മാനേജ്മെന്റ് പ്രൊഫസർ, കാലിഫോർണിയ യൂണിവേഴ്സിറ്റി, ലോസ് ഏഞ്ചൽസ്

The അസാധാരണമായ സമീപകാല പുരോഗതി വലിയ ഭാഷയിൽ മോഡൽ അധിഷ്ഠിത ജനറേറ്റീവ് AI പുതിയ AI- നിർദ്ദിഷ്‌ട നിയന്ത്രണം സൃഷ്‌ടിക്കുന്നതിനുള്ള ആവശ്യത്തെ പ്രോത്സാഹിപ്പിക്കുന്നു. സ്വയം ചോദിക്കേണ്ട നാല് പ്രധാന ചോദ്യങ്ങൾ ഇതാ:

1) AI-യ്ക്ക് പുതിയ പ്രത്യേക നിയന്ത്രണത്തിന്റെ ആവശ്യമുണ്ടോ? 

AI സിസ്റ്റങ്ങളുടെ പ്രശ്‌നസാധ്യതയുള്ള പല ഫലങ്ങളും നിലവിലുള്ള ചട്ടക്കൂടുകളാൽ പരിഹരിക്കപ്പെട്ടിരിക്കുന്നു. വായ്പാ അപേക്ഷകൾ വിലയിരുത്താൻ ബാങ്ക് ഉപയോഗിക്കുന്ന ഒരു AI അൽഗോരിതം വംശീയ വിവേചനപരമായ വായ്പാ തീരുമാനങ്ങളിലേക്ക് നയിച്ചാൽ, അത് ഫെയർ ഹൗസിംഗ് നിയമത്തെ ലംഘിക്കും.ഡ്രൈവറില്ലാ കാറിലെ AI സോഫ്റ്റ്‌വെയർ അപകടമുണ്ടാക്കിയാൽ, ഉൽപ്പന്ന ബാധ്യതാ നിയമം പ്രതിവിധികൾ പിന്തുടരുന്നതിനുള്ള ചട്ടക്കൂട് .

2) സമയത്തിന്റെ സ്‌നാപ്പ്‌ഷോട്ടിനെ അടിസ്ഥാനമാക്കി അതിവേഗം വികസിച്ചുകൊണ്ടിരിക്കുന്ന സാങ്കേതികവിദ്യയെ നിയന്ത്രിക്കുന്നതിന്റെ അപകടസാധ്യതകൾ എന്തൊക്കെയാണ്? 

ഇതിന്റെ ഒരു ക്ലാസിക് ഉദാഹരണമാണ് സംഭരിച്ച ആശയവിനിമയ നിയമം , 1986-ൽ ഇ-മെയിൽ പോലുള്ള നൂതന ഡിജിറ്റൽ കമ്മ്യൂണിക്കേഷൻ സാങ്കേതിക വിദ്യകളെ അഭിസംബോധന ചെയ്യുന്നതിനായി നിയമമാക്കി. എസ്‌സി‌എ നടപ്പിലാക്കുന്നതിൽ, 180 ദിവസത്തിലധികം പഴക്കമുള്ള ഇമെയിലിന് കോൺഗ്രസ് വളരെ കുറച്ച് സ്വകാര്യത പരിരക്ഷ നൽകി.

പരിമിതമായ സംഭരണം അർത്ഥമാക്കുന്നത് പുതിയവയ്ക്ക് ഇടം നൽകുന്നതിനായി പഴയ സന്ദേശങ്ങൾ ഇല്ലാതാക്കിക്കൊണ്ട് ആളുകൾ അവരുടെ ഇൻബോക്സുകൾ നിരന്തരം വൃത്തിയാക്കുന്നു എന്നതാണ്. തൽഫലമായി, 180 ദിവസത്തിലധികം ആർക്കൈവുചെയ്‌ത സന്ദേശങ്ങൾക്ക് സ്വകാര്യത വീക്ഷണകോണിൽ നിന്ന് പ്രാധാന്യം കുറവാണ്. ഈ യുക്തിക്ക് എപ്പോഴെങ്കിലും അർത്ഥമുണ്ടോ എന്ന് വ്യക്തമല്ല, ഞങ്ങളുടെ മിക്ക ഇമെയിലുകളും മറ്റ് ആർക്കൈവുചെയ്‌ത ഡിജിറ്റൽ ആശയവിനിമയങ്ങളും ആറ് മാസത്തിലധികം പഴക്കമുള്ള 20-കളിൽ ഇത് തീർച്ചയായും അർത്ഥമാക്കുന്നില്ല.

കാലക്രമേണ ഒരൊറ്റ സ്നാപ്പ്ഷോട്ടിനെ അടിസ്ഥാനമാക്കി സാങ്കേതികവിദ്യയെ നിയന്ത്രിക്കുന്നതിനെക്കുറിച്ചുള്ള ആശങ്കകളോടുള്ള പൊതുവായ പ്രതികരണം ഇതാണ്: ഒരു നിയമമോ നിയന്ത്രണമോ കാലഹരണപ്പെട്ടാൽ, അത് അപ്ഡേറ്റ് ചെയ്യുക. പറഞ്ഞുതീർക്കുന്നതിനേക്കാൾ എളുപ്പമാണ്. പതിറ്റാണ്ടുകൾക്ക് മുമ്പ് SCA കാലഹരണപ്പെട്ടതായി മിക്ക ആളുകളും സമ്മതിക്കുന്നു. എന്നാൽ 180 ദിവസത്തെ വ്യവസ്ഥ എങ്ങനെ പരിഷ്കരിക്കണമെന്ന് കോൺഗ്രസിന് പ്രത്യേകമായി അംഗീകരിക്കാൻ കഴിയാത്തതിനാൽ, അത് നടപ്പിലാക്കി ഒരു നൂറ്റാണ്ടിന്റെ മൂന്നിലൊന്ന് കഴിഞ്ഞിട്ടും അത് ഇപ്പോഴും പുസ്തകങ്ങളിൽ ഉണ്ട്.

3) പ്രതീക്ഷിക്കാത്ത പ്രത്യാഘാതങ്ങൾ എന്തൊക്കെയാണ്? 

Il 2017-ലെ ഓൺലൈൻ ലൈംഗിക കടത്ത് നിയമത്തിനെതിരെ പോരാടാൻ സംസ്ഥാനങ്ങളെയും ഇരകളെയും അനുവദിക്കുക 2018-ൽ പാസാക്കിയ നിയമമാണ് അദ്ദേഹം പരിഷ്കരിച്ചത് വകുപ്പ് 230 കമ്മ്യൂണിക്കേഷൻസ് ഡിസെൻസി ആക്ട്, ലൈംഗിക കടത്ത് തടയുക എന്ന ലക്ഷ്യത്തോടെ. അയാൾ ലൈംഗിക കടത്ത് കുറച്ചതിന് തെളിവുകൾ കുറവാണെങ്കിലും, അയാൾക്ക് എ വളരെ പ്രശ്നകരമായ ആഘാതം മറ്റൊരു കൂട്ടം ആളുകളിൽ: അപകടകരമായ ക്ലയന്റുകളെക്കുറിച്ചുള്ള വിവരങ്ങൾ കൈമാറാൻ FOSTA-SESTA ഓഫ്‌ലൈനായി എടുത്ത വെബ്‌സൈറ്റുകളെ ആശ്രയിച്ച ലൈംഗികത്തൊഴിലാളികൾ. നിർദിഷ്ട ചട്ടങ്ങളുടെ സാധ്യതയുള്ള പ്രത്യാഘാതങ്ങൾ വിശാലമായി പരിശോധിക്കേണ്ടതിന്റെ പ്രാധാന്യം ഈ ഉദാഹരണം കാണിക്കുന്നു.

4) സാമ്പത്തികവും ഭൗമരാഷ്ട്രീയവുമായ പ്രത്യാഘാതങ്ങൾ എന്തൊക്കെയാണ്? 

യുഎസിലെ റെഗുലേറ്റർമാർ AI-യുടെ പുരോഗതി മനഃപൂർവ്വം മന്ദഗതിയിലാക്കാൻ നടപടിയെടുക്കുകയാണെങ്കിൽ, അത് നിക്ഷേപവും നൂതനത്വവും - ഫലമായുണ്ടാകുന്ന തൊഴിലവസരങ്ങളും - മറ്റെവിടെയെങ്കിലും തള്ളും. ഉയർന്നുവരുന്ന AI നിരവധി ആശങ്കകൾ ഉയർത്തുമ്പോൾ, ഇത് പോലുള്ള മേഖലകളിൽ വലിയ നേട്ടങ്ങൾ കൊണ്ടുവരുമെന്ന് വാഗ്ദാനം ചെയ്യുന്നു നിർദ്ദേശം , മരുന്ന് , ഉത്പാദനം , ഗതാഗത സുരക്ഷ , കാർഷിക , മുൻകാല കാലാവസ്ഥാ ശാസ്ത്രം , നിയമ സേവനങ്ങളിലേക്കുള്ള പ്രവേശനം കൂടാതെ കൂടുതൽ.

മേൽപ്പറഞ്ഞ നാല് ചോദ്യങ്ങൾ മനസ്സിൽ വെച്ചുകൊണ്ട് തയ്യാറാക്കിയ AI നിയന്ത്രണങ്ങൾ, AI-യുടെ ഗുണങ്ങളിലേക്കുള്ള പ്രവേശനം ഉറപ്പാക്കുമ്പോൾ തന്നെ അതിന്റെ സാധ്യതയുള്ള ദോഷങ്ങളെ വിജയകരമായി പരിഹരിക്കാൻ കൂടുതൽ സാധ്യതയുണ്ടെന്ന് ഞാൻ വിശ്വസിക്കുന്നു.

ഈ ലേഖനം അക്കാദമിക് വിദഗ്ധരുടെ അറിവ് പങ്കിടുന്നതിനായി സമർപ്പിച്ചിരിക്കുന്ന ഒരു സ്വതന്ത്ര ലാഭേച്ഛയില്ലാതെ പ്രവർത്തിക്കുന്ന വാർത്താ ഓർഗനൈസേഷനായ സംഭാഷണത്തിൽ നിന്ന് സ്വതന്ത്രമായി എടുത്തതാണ്.

അനുബന്ധ വായനകൾ

BlogInnovazione.it

ഇന്നൊവേഷൻ വാർത്താക്കുറിപ്പ്
നവീകരണത്തെക്കുറിച്ചുള്ള ഏറ്റവും പ്രധാനപ്പെട്ട വാർത്തകൾ നഷ്ടപ്പെടുത്തരുത്. ഇമെയിൽ വഴി അവ സ്വീകരിക്കുന്നതിന് സൈൻ അപ്പ് ചെയ്യുക.

സമീപകാല ലേഖനങ്ങൾ

കുട്ടികൾക്കുള്ള കളറിംഗ് പേജുകളുടെ പ്രയോജനങ്ങൾ - എല്ലാ പ്രായക്കാർക്കും മാന്ത്രിക ലോകം

കളറിംഗ് വഴി മികച്ച മോട്ടോർ കഴിവുകൾ വികസിപ്പിക്കുന്നത് എഴുത്ത് പോലെയുള്ള കൂടുതൽ സങ്കീർണ്ണമായ കഴിവുകൾക്ക് കുട്ടികളെ സജ്ജമാക്കുന്നു. നിറം കൊടുക്കാൻ...

20 മെയ് 2013

ഭാവി ഇതാ: ഷിപ്പിംഗ് വ്യവസായം ആഗോള സമ്പദ്‌വ്യവസ്ഥയെ എങ്ങനെ വിപ്ലവം ചെയ്യുന്നു

നാവിക മേഖല ഒരു യഥാർത്ഥ ആഗോള സാമ്പത്തിക ശക്തിയാണ്, അത് 150 ബില്യൺ വിപണിയിലേക്ക് നാവിഗേറ്റ് ചെയ്തു...

20 മെയ് 2013

ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് പ്രോസസ്സ് ചെയ്യുന്ന വിവരങ്ങളുടെ ഒഴുക്ക് നിയന്ത്രിക്കുന്നതിനുള്ള കരാറുകളിൽ പ്രസാധകരും ഓപ്പൺഎഐയും ഒപ്പുവെക്കുന്നു

കഴിഞ്ഞ തിങ്കളാഴ്ച, ഫിനാൻഷ്യൽ ടൈംസ് ഓപ്പൺഎഐയുമായി ഒരു കരാർ പ്രഖ്യാപിച്ചു. FT അതിൻ്റെ ലോകോത്തര പത്രപ്രവർത്തനത്തിന് ലൈസൻസ് നൽകുന്നു…

ഏപ്രിൽ 29 ഏപ്രിൽ

ഓൺലൈൻ പേയ്‌മെൻ്റുകൾ: സ്ട്രീമിംഗ് സേവനങ്ങൾ നിങ്ങളെ എക്കാലവും പണമടയ്ക്കുന്നത് എങ്ങനെയെന്ന് ഇതാ

ദശലക്ഷക്കണക്കിന് ആളുകൾ സ്ട്രീമിംഗ് സേവനങ്ങൾക്കായി പണമടയ്ക്കുന്നു, പ്രതിമാസ സബ്സ്ക്രിപ്ഷൻ ഫീസ് നൽകുന്നു. നിങ്ങൾ എന്നത് പൊതുവായ അഭിപ്രായമാണ്...

ഏപ്രിൽ 29 ഏപ്രിൽ

നിങ്ങളുടെ ഭാഷയിൽ ഇന്നൊവേഷൻ വായിക്കുക

ഇന്നൊവേഷൻ വാർത്താക്കുറിപ്പ്
നവീകരണത്തെക്കുറിച്ചുള്ള ഏറ്റവും പ്രധാനപ്പെട്ട വാർത്തകൾ നഷ്ടപ്പെടുത്തരുത്. ഇമെയിൽ വഴി അവ സ്വീകരിക്കുന്നതിന് സൈൻ അപ്പ് ചെയ്യുക.

പിന്തുടരുക ഞങ്ങളെ

സമീപകാല ലേഖനങ്ങൾ

ടാഗ്