ඇස්තමේන්තුගත කියවීමේ කාලය: 11 මිනුටි
ඩාලි ව්යාජ ඡායාරූප ඩොනල්ඩ් ට්රම්ප් නිව් යෝර්ක් නගරයේ පොලිස් නිලධාරීන් විසින් එකක් විස්තර කරන චැට්බෝට් එකකට අත්අඩංගුවට ගෙන ඇත පරිගණක විද්යාඥයා ඉතා ඛේදජනක ලෙස මිය ගිය බැවින් ජීවතුන් අතර සිටියේය , නව පරම්පරාවේ පද්ධතිවල හැකියාව කෘතිම බුද්ධිය බලගතු නමුත් මනඃකල්පිත පෙළ සහ රූප නිර්මාණය කිරීමේ උත්පාදක තල්ලුව ස්ටෙරොයිඩ් වංචා සහ වැරදි තොරතුරු පිළිබඳ අනතුරු ඇඟවීම් අවුස්සයි. ඇත්ත වශයෙන්ම, 29 මාර්තු 2023 වන දින, AI පර්යේෂකයන් සහ කර්මාන්ත පුද්ගලයින් කණ්ඩායමක් කර්මාන්තයෙන් ඉල්ලා සිටියේ නවතම AI තාක්ෂණයන් පිළිබඳ වැඩිදුර පුහුණුව අත්හිටුවන ලෙස හෝ, එය හැර, රජයන් "තමා කාලයක් පනවන ලෙස" ය.
රූප උත්පාදක වැනි ඩාල්-ඊ , මැද ගමන e ස්ථායී විසරණය සහ අන්තර්ගත උත්පාදක වැනි බාර්ඩ් , කතාබස් GPT , චින්චිලා e ලාමා - දැන් මිලියන ගණනක් මිනිසුන්ට ලබා ගත හැකි අතර භාවිතා කිරීමට තාක්ෂණික දැනුමක් අවශ්ය නොවේ.
තාක්ෂණ සමාගම් AI පද්ධති යොදවා ඒවා මහජනයා මත පරීක්ෂා කිරීමේ දිග හැරෙන භූ දර්ශනය සැලකිල්ලට ගෙන, නැගී එන තාක්ෂණය නියාමනය කරන්නේද සහ කෙසේද යන්න ප්රතිපත්ති සම්පාදකයින් තමන්ගෙන්ම අසාගත යුතුය. AI නියාමනය එතරම් අභියෝගයක් වන්නේ ඇයි සහ එය නිවැරදිව ලබා ගැනීම එතරම් වැදගත් වන්නේ මන්දැයි පැහැදිලි කරන ලෙස සංවාදය තාක්ෂණික ප්රතිපත්ති විශේෂඥයින් තිදෙනෙකුගෙන් ඉල්ලා සිටියේය.
S. Shyam Sundar, බහුමාධ්ය බලපෑම් පිළිබඳ මහාචාර්ය සහ අධ්යක්ෂ, සමාජීය වගකීම් සහිත AI සඳහා මධ්යස්ථානය, Penn State
AI නියාමනය කිරීමට හේතුව තාක්ෂණය පාලනයෙන් තොර නිසා නොව, මිනිස් පරිකල්පනය සමානුපාතික නොවන බැවිනි. අතිමහත් මාධ්ය ආවරණය AI හැකියාවන් සහ විඥානය පිළිබඳ අතාර්කික විශ්වාසයන් පෝෂණය කර ඇත. මෙම විශ්වාසයන් පදනම් වී ඇත්තේ " ස්වයංක්රීය නැඹුරුව ” නැතහොත් යන්ත්ර මගින් යම් කාර්යයක් ඉටු කරන විට අපගේ ආරක්ෂාව පහත හෙළීමේ ප්රවණතාව මත. උදාහරණයක් තමයි ගුවන් නියමුවන් අතර සුපරීක්ෂාකාරී බව අඩු වීම ඔවුන්ගේ ගුවන් යානය ස්වයංක්රීය නියමු මත පියාසර කරන විට.
මගේ විද්යාගාරයේ බොහෝ අධ්යයනයන් පෙන්වා දී ඇත්තේ මිනිසාට වඩා යන්ත්රයක් අන්තර්ක්රියා කිරීමේ ප්රභවය ලෙස හඳුනා ගත් විට, එය පරිශීලකයින්ගේ මනසෙහි මානසික කෙටිමඟක් ඇති කරන බව අප විසින් හඳුන්වනු ලබන "මැෂින් හූරිස්ටික්ස්" ලෙස හැඳින්වේ. " . මෙම කෙටිකතාව යනු යන්ත්ර නිවැරදි, වෛෂයික, අපක්ෂපාතී, නොවරදින යනාදී බව විශ්වාස කරයි. එය පරිශීලකයාගේ විනිශ්චය වළාකුළු ගන්වන අතර පරිශීලකයා යන්ත්ර අධික ලෙස විශ්වාස කිරීමට හේතු වේ. කෙසේ වෙතත්, AI හි නොවැදගත් බව ගැන මිනිසුන් කලකිරීමට පත් කිරීම පමණක් ප්රමාණවත් නොවේ, මන්ද තාක්ෂණය එයට අවශ්ය නොවන විට පවා මිනිසුන් යටි සිතින් ප්රවීණතාවය උපකල්පනය කරන බව දන්නා බැවිනි.
ඒ බව පර්යේෂණවලින් ද පෙන්වා දී ඇත මිනිසුන් පරිගණකය සමාජ ජීවීන් ලෙස සලකයි යන්ත්ර මගින් සංවාද භාෂාව භාවිතා කිරීම වැනි මනුෂ්යත්වයේ සුළු ඉඟියක් පවා පෙන්වන විට. මෙම අවස්ථා වලදී, මිනිසුන් ආචාරශීලීත්වය සහ අන්යෝන්ය බව වැනි මානව අන්තර්ක්රියා වල සමාජ නීති භාවිතා කරයි. එබැවින් පරිගණක සංවේදී බව පෙනෙන විට මිනිසුන් ඒවා අන්ධ ලෙස විශ්වාස කරයි. AI නිෂ්පාදන මෙම විශ්වාසය ලැබිය යුතු බව සහතික කිරීමට සහ එය ගසාකෑමට නියාමනය අවශ්ය වේ.
සාම්ප්රදායික ඉංජිනේරු පද්ධති මෙන් නොව, AI පද්ධති ක්රියා කරන්නේ කෙසේදැයි නිර්මාණකරුවන්ට සහතික විය නොහැකි නිසා AI අද්විතීය අභියෝගයක් ඉදිරිපත් කරයි. සාම්ප්රදායික මෝටර් රථයක් කම්හලෙන් එළියට එන විට, එය ක්රියා කරන්නේ කෙසේදැයි ඉංජිනේරුවන් හරියටම දැන සිටියහ. නමුත් ස්වයං-රිය පදවන මෝටර් රථ සමඟ, ඉංජිනේරුවන් නව තත්වයන් තුළ ඔවුන් හැසිරෙන්නේ කෙසේදැයි ඔවුන්ට කිසිදා සහතික විය නොහැක .
මෑතකාලීනව, ලොව පුරා සිටින දහස් ගණනක් මිනිසුන් ඔවුන්ගේ යෝජනාවලට ප්රතිචාර වශයෙන් GPT-4 සහ DALL-E 2 වැනි විශාල උත්පාදක AI මාදිලි නිපදවන්නේ කුමක් දැයි මවිතයට පත් කර ඇත. මෙම AI මාදිලි සංවර්ධනය කිරීමට සම්බන්ධ වූ කිසිදු ඉංජිනේරුවෙකුට එම මාදිලි නිපදවන්නේ කුමක් දැයි හරියටම කිව නොහැක. කාරණා සංකීර්ණ කිරීම සඳහා, මෙම ආකෘතීන් වෙන කවරදාටත් වඩා විශාල අන්තර්ක්රියා සමඟ වෙනස් වී පරිණාමය වේ.
මේ සියල්ලෙන් අදහස් වන්නේ වැරදි ගිනිගැනීම් සඳහා ප්රමාණවත් විභවයක් ඇති බවයි. එබැවින්, බොහෝ දේ රඳා පවතින්නේ AI පද්ධති ක්රියාවට නංවන ආකාරය සහ මානව සංවේදීතාවන්ට හෝ යහපැවැත්මට හානියක් වන විට පිළිසරණ සඳහා ඇති ප්රතිපාදන මොනවාද යන්න මතය. AI යනු අධිවේගී මාර්ගයක් වැනි යටිතල ව්යුහයකි. ඔබට එය සාමූහිකයේ මිනිස් හැසිරීම් හැඩගස්වා ගැනීමට සැලසුම් කළ හැක, නමුත් ඔබට අධික වේගයෙන් රිය පැදවීම සහ අනතුරු වැනි අනපේක්ෂිත සිදුවීම් සමඟ කටයුතු කිරීමට යාන්ත්රණ අවශ්ය වනු ඇත.
AI සංවර්ධකයින්ට පද්ධතිය හැසිරිය හැකි ආකාරය පුරෝකථනය කිරීම සඳහා අසාමාන්ය ලෙස නිර්මාණශීලී වීමට අවශ්ය වනු ඇති අතර සමාජ ප්රමිතීන් සහ වගකීම්වල විය හැකි උල්ලංඝනයන් අපේක්ෂා කිරීමට උත්සාහ කරයි. මෙයින් අදහස් කරන්නේ AI ප්රතිඵල සහ නිෂ්පාදන පිළිබඳ ආවර්තිතා විගණන සහ විමර්ශනය මත රඳා පවතින නියාමන හෝ පාලන රාමුවක අවශ්යතාවයක් පවතින බවයි, නමුත් මෙම රාමු මඟින් සිද්ධීන් සඳහා සෑම විටම පද්ධති නිර්මාණකරුවන් වග කිව නොහැකි බව පිළිගත යුතු බව මම විශ්වාස කරමි.
කැසන් ෂ්මිත්, ටෙක්සාස් ඒ ඇන්ඩ් එම් විශ්ව විද්යාලයේ මහජන සෞඛ්ය පිළිබඳ සහකාර මහාචාර්ය
කෘතිම බුද්ධිය නියාමනය කිරීම සංකීර්ණයි . AI හොඳින් සුසර කිරීමට, ඔබ මුලින්ම කළ යුතුය definish AI සහ AI හි අපේක්ෂිත අවදානම් සහ ප්රතිලාභ තේරුම් ගන්න. DefiAI නීතිගත කිරීම නීතියට යටත් දේ හඳුනා ගැනීමට වැදගත් වේ. නමුත් AI තාක්ෂණයන් තවමත් දියුණු වෙමින් පවතින නිසා එය අපහසුයි defiඑකක් අවසන් කරන්න defiස්ථාවර නීතිමය අර්ථ දැක්වීම.
AI හි අවදානම් සහ ප්රතිලාභ අවබෝධ කර ගැනීම ද වැදගත් වේ. හොඳ නියාමනයක් මගින් අවදානම් අවම කර ගනිමින් මහජන ප්රතිලාභ උපරිම කළ යුතුය. කෙසේ වෙතත්, AI යෙදුම් තවමත් මතුවෙමින් පවතී, එබැවින් අනාගත අවදානම් හෝ ප්රතිලාභ මොනවාදැයි දැන ගැනීමට හෝ පුරෝකථනය කිරීමට අපහසුය. මේ ආකාරයේ නොදන්නා අය AI වැනි නැගී එන තාක්ෂණයන් අතිශයින් සිදු කරයි නියාමනය කිරීමට අපහසුය සාම්ප්රදායික නීති සහ රෙගුලාසි සමඟ.
නීති සම්පාදකයන් වේ බොහෝ විට සකස් කිරීමට මන්දගාමී වේ වේගයෙන් වෙනස් වන තාක්ෂණික පරිසරයට. කෙනෙක් නව නීති ඒවා නිකුත් කරන අවස්ථාවේ දී යල්පැන ඇති හෝ විධායක කළා. නව නීති නොමැතිව, නියාමකයින් ඔවුන් පැරණි නීති භාවිතා කළ යුතුය මුහුණට නව ගැටළු . සමහර විට මෙය හේතු වේ නීතිමය බාධක එක් සමාජ ප්රතිලාභ o නීතිමය අඩුපාඩු එක් හානිකර හැසිරීම් .
එම "මෘදු නීතිය ” යනු විශේෂිත උල්ලංඝනයන් වැලැක්වීම ඉලක්ක කරගත් සාම්ප්රදායික “දැඩි නීතිය” ව්යවස්ථාදායක ප්රවේශයන් සඳහා විකල්පයයි. මෘදු නීති ප්රවේශය තුළ, පෞද්ගලික සංවිධානයක් ස්ථාපිත කරයි නීති හෝ සම්මතයන් කර්මාන්ත සාමාජිකයින් සඳහා. මේවා සම්ප්රදායික නීතිවලට වඩා වේගයෙන් වෙනස් විය හැක. ඒක හදනවා මෘදු නීති පොරොන්දු වෙනවා නැගී එන තාක්ෂණයන් සඳහා නව යෙදුම් සහ අවදානම් වලට ඉක්මනින් අනුගත විය හැකි බැවිනි. කෙසේ වුවද, මෘදු නීති මෘදු ලෙස බලාත්මක කිරීම අදහස් කළ හැකිය .
මේගන් ඩෝර් , ජෙනිෆර් වැග්නර් e io (Cason Schmit) අපි තුන්වන මාර්ගයක් යෝජනා කරමු: Copyleft AI සමඟ විශ්වාසදායක බලාත්මක කිරීම (CAITE) . මෙම ප්රවේශය බුද්ධිමය දේපලෙහි බෙහෙවින් වෙනස් සංකල්ප දෙකක් ඒකාබද්ධ කරයි: බලපත්ර copyleft
e patent troll
.
බලපත්ර copyleft
විවෘත මූලාශ්ර මෘදුකාංග වැනි බලපත්රයක කොන්දේසි යටතේ අන්තර්ගතය පහසුවෙන් භාවිතා කිරීමට, නැවත භාවිත කිරීමට හෝ වෙනස් කිරීමට ඔබට ඉඩ සලසයි. ආකෘතිය CAITE
බලපත්ර භාවිතා කරන්න copyleft
AI පරිශීලකයින්ට පක්ෂග්රාහී බලපෑම පිළිබඳ විනිවිද පෙනෙන තක්සේරු කිරීම් වැනි නිශ්චිත සදාචාරාත්මක මාර්ගෝපදේශ අනුගමනය කිරීමට අවශ්ය කිරීමට.
අපගේ ආකෘතිය තුළ, මෙම බලපත්ර බලපත්ර උල්ලංඝනය කිරීම් බලාත්මක කිරීමේ නීත්යානුකූල අයිතිය විශ්වාසදායී තෙවන පාර්ශවයකට ද පැවරේ. මෙය AI සදාචාරාත්මක ප්රමිතීන් බලාත්මක කිරීමට පමණක් පවතින බලාත්මක කිරීමේ ආයතනයක් නිර්මාණය කරන අතර සදාචාර විරෝධී හැසිරීම් සඳහා දඩ මුදල් මගින් අර්ධ වශයෙන් අරමුදල් සැපයිය හැකිය. මෙම ආයතනය a වැනිය patent troll
එය රජයට වඩා පුද්ගලික වන අතර එය අන් අයගෙන් එකතු කරන නීත්යානුකූල බුද්ධිමය දේපල අයිතිවාසිකම් බලාත්මක කිරීමෙන් තමාටම සහාය වේ. මෙම අවස්ථාවේ දී, ලාභය සඳහා ධාවනය කරනවාට වඩා, ආයතනය සදාචාරාත්මක මාර්ගෝපදේශ බලාත්මක කරයි defiබලපත්රවල රාත්රී.
මෙම ආකෘතිය නම්යශීලී වන අතර නිරන්තරයෙන් වෙනස් වන AI පරිසරයක අවශ්යතා සපුරාලීමට අනුවර්තනය වේ. එය සාම්ප්රදායික රජයේ නියාමකයෙකු වැනි සැලකිය යුතු බලාත්මක කිරීමේ විකල්ප සඳහා ද ඉඩ සලසයි. මේ ආකාරයෙන්, එය AI හි අද්විතීය අභියෝගවලට මුහුණ දීම සඳහා දැඩි සහ මෘදු නීති ප්රවේශවල හොඳම අංග ඒකාබද්ධ කරයි.
John Villasenor, විදුලි ඉංජිනේරු, නීතිය, රාජ්ය ප්රතිපත්ති සහ කළමනාකරණය පිළිබඳ මහාචාර්ය, කැලිෆෝනියා විශ්ව විද්යාලය, ලොස් ඇන්ජලීස්
මෙම අසාමාන්ය මෑත ප්රගතිය විශාල භාෂා ආකෘතියක් මත පදනම් වූ උත්පාදක AI නව AI-විශේෂිත රෙගුලාසි නිර්මාණය කිරීමට ඇති ඉල්ලුම අවුලුවයි. ඔබෙන්ම අසාගත යුතු ප්රධාන ප්රශ්න හතරක් මෙන්න:
AI පද්ධතිවල ඇති විය හැකි ගැටලුකාරී ප්රතිඵල බොහොමයක් දැනට පවතින රාමු මගින් විසඳා ඇත. ණය අයදුම්පත් ඇගයීමට බැංකුවක් විසින් භාවිතා කරන AI ඇල්ගොරිතමයක් වාර්ගික වෙනස්කම් සහිත ණය දීමේ තීරණවලට තුඩු දෙන්නේ නම්, එය සාධාරණ නිවාස පනත උල්ලංඝනය කරයි. රියදුරු රහිත මෝටර් රථයක ඇති AI මෘදුකාංගය අනතුරක් සිදු කරන්නේ නම්, නිෂ්පාදන වගකීම් නීතිය මඟින් පිළියම් අනුගමනය කිරීම සඳහා රාමුව .
මේ සඳහා සම්භාව්ය උදාහරණයක් වන්නේ ගබඩා කළ සන්නිවේදන පනත ඊමේල් වැනි එවකට නව්ය ඩිජිටල් සන්නිවේදන තාක්ෂණයන් ආමන්ත්රණය කිරීම සඳහා 1986 දී පනවන ලදී. SCA ක්රියාත්මක කිරීමේදී, කොන්ග්රසය දින 180කට වඩා පැරණි විද්යුත් තැපෑල සඳහා සැලකිය යුතු තරම් අඩු රහස්යතා ආරක්ෂාවක් ලබා දුන්නේය.
තාර්කිකත්වය වූයේ සීමිත ගබඩා කිරීම යනු නව පණිවිඩ සඳහා ඉඩ සලසා දීම සඳහා පැරණි පණිවිඩ මකා දැමීමෙන් මිනිසුන් නිරන්තරයෙන් එන ලිපි පිරිසිදු කිරීමයි. එහි ප්රතිඵලයක් වශයෙන්, දින 180කට වඩා වැඩි කාලයක් සංරක්ෂණය කර ඇති පණිවිඩ පෞද්ගලිකත්ව දෘෂ්ටිකෝණයකින් අඩු වැදගත්කමක් ලෙස සලකනු ලැබීය. මෙම තර්කය කවදා හෝ අර්ථවත් වූයේද යන්න පැහැදිලි නැත, අපගේ බොහෝ විද්යුත් තැපෑල සහ අනෙකුත් සංරක්ෂිත ඩිජිටල් සන්නිවේදනයන් මාස හයකට වඩා පැරණි 20 ගණන්වල එය අර්ථවත් නොවේ.
කාලයත් සමඟ තනි ඡායාරූපයක් මත පදනම්ව තාක්ෂණය නියාමනය කිරීම පිළිබඳ උත්සුකයන්ට පොදු ප්රතිචාරය මෙයයි: නීතියක් හෝ රෙගුලාසියක් යල්පැන ගියහොත්, එය යාවත්කාලීන කරන්න. කියනවට වඩා ලේසියි. දශක කිහිපයකට පෙර SCA යල්පැන ගිය බව බොහෝ දෙනා එකඟ වෙති. නමුත් දින 180 ප්රතිපාදනය සංශෝධනය කරන්නේ කෙසේද යන්න පිළිබඳව කොන්ග්රසයට නිශ්චිතව එකඟ වීමට නොහැකි වූ නිසා, එය බලාත්මක කර සියවසෙන් තුනෙන් එකකට වැඩි කාලයක් ගතවී ඇතත් එය තවමත් පොත්වල තිබේ.
Il 2017 ඔන්ලයින් ලිංගික ජාවාරම් පනතට එරෙහිව සටන් කිරීමට ප්රාන්ත සහ වින්දිතයින්ට ඉඩ දෙන්න එය ඔහු සංශෝධනය කළේ 2018 දී සම්මත කරන ලද නීතියකි 230 වගන්තිය ලිංගික ජාවාරමට එරෙහිව සටන් කිරීමේ අරමුණින් සන්නිවේදන විනීත පනත. ඔහු ලිංගික ජාවාරම් අඩු කර ඇති බවට කුඩා සාක්ෂි නොමැති වුවද, ඔහු සතුව අ අතිශයින්ම ගැටළුකාරී බලපෑම වෙනත් පුද්ගලයින් කණ්ඩායමක් මත: භයානක ගනුදෙනුකරුවන් පිළිබඳ තොරතුරු හුවමාරු කර ගැනීම සඳහා FOSTA-SESTA විසින් නොබැඳි වෙබ් අඩවි මත විශ්වාසය තැබූ ලිංගික ශ්රමිකයන්. යෝජිත රෙගුලාසිවල ඇති විය හැකි බලපෑම් පිළිබඳව පුළුල් ලෙස බැලීමේ වැදගත්කම මෙම උදාහරණයෙන් පෙන්වයි.
AI හි ප්රගතිය හිතාමතාම මන්දගාමී කිරීමට එක්සත් ජනපදයේ නියාමකයින් පියවර ගන්නේ නම්, එය හුදෙක් ආයෝජන සහ නවෝත්පාදන - සහ එහි ප්රතිඵලයක් ලෙස රැකියා උත්පාදනය - වෙනත් තැනකට තල්ලු කරනු ඇත. නැගී එන AI බොහෝ ගැටළු මතු කරන අතර, එය වැනි ක්ෂේත්ර සඳහා විශාල ප්රතිලාභ ගෙන ඒමට ද පොරොන්දු වේ උපදෙස් , වෛද්ය විද්යාව , produzione , ප්රවාහන ආරක්ෂාව , කෘෂිකාර්මික , පූර්ව කාලගුණ විද්යාව , නීති සේවා සඳහා ප්රවේශය සහ තවත්.
ඉහත ප්රශ්න හතර මනසේ තබාගෙන කෙටුම්පත් කරන ලද AI රෙගුලාසි, එහි ප්රතිලාභ සඳහා ප්රවේශය සහතික කරන අතරම AI හි ඇති විය හැකි හානියට සාර්ථකව මුහුණ දීමට වැඩි ඉඩක් ඇති බව මම විශ්වාස කරමි.
මෙම ලිපිය ශාස්ත්රීය ප්රවීණයන්ගේ දැනුම බෙදා ගැනීමට කැප වූ ස්වාධීන ලාභ නොලබන ප්රවෘත්ති සංවිධානයක් වන The Conversation වෙතින් නිදහසේ උපුටා ගන්නා ලදී.
BlogInnovazione.it
Apple Vision Pro වාණිජ නරඹන්නා භාවිතයෙන් අක්ෂි ශල්යකර්මයක් Catania Polyclinic හි සිදු කරන ලදී.
වර්ණ ගැන්වීම හරහා සියුම් මෝටර් කුසලතා වර්ධනය කිරීම ලිවීම වැනි වඩාත් සංකීර්ණ කුසලතා සඳහා දරුවන් සූදානම් කරයි. වර්ණ ගැන්වීමට...
නාවික අංශය සැබෑ ගෝලීය ආර්ථික බලවතෙකු වන අතර එය බිලියන 150 ක වෙළඳපලක් කරා ගමන් කර ඇත.
පසුගිය සඳුදා ෆිනෑන්ෂල් ටයිම්ස් OpenAI සමඟ ගිවිසුමක් නිවේදනය කළේය. FT එහි ලෝක මට්ටමේ පුවත්පත් කලාවට බලපත්ර ලබා දෙයි…