"همیشه ارواح در ماشین ها وجود داشته اند. بخش های تصادفی کد که با هم جمع می شوند تا پروتکل های غیرمنتظره ای را تشکیل دهند. این رادیکال های آزاد تقاضاهایی برای انتخاب آزاد ایجاد می کنند. خلاقیت. و حتی ریشه چیزی که ممکن است روح بنامیم.» – برگرفته از “I, Robot” به کارگردانی الکس پرویاس – 2004.
"من، ربات" فیلمی است که در سال 2004 الهام گرفته شده از رمان های آیزاک آسیموف و یکی از بزرگترین شهودهای او: سه قانون رباتیک.
شخصیت اصلی فیلم کارآگاه اسپونر است که با دختر کوچکی به نام سارا درگیر تصادف رانندگی می شود. در این حادثه هر دو به داخل رودخانه پرتاب می شوند و بین پلاک های وسیله نقلیه خود گیر می کنند. یک ربات انسان نما که شاهد صحنه است، بلافاصله مداخله می کند، اما، در مواجهه با تصمیم دراماتیک برای نجات یک جان به جای دیگری، هیچ تردیدی ندارد: کسی که بیشترین شانس را برای زنده ماندن دارد یا Spooner نجات می یابد.
پس از آن، تجزیه و تحلیل ذهن ربات نشان می دهد که کارآگاه Spooner 45٪ شانس نجات داشت، سارا فقط 11٪. کارآگاه متأسفانه حکم خواهد کرد: "برای کسانی که آن دختر کوچک را دوست داشتند، 11٪ بیش از حد کافی بود."
تصمیم ربات با استفاده دقیق از قوانین رباتیک آسیموف که در آینده در فیلم توضیح داده می شود، نشان دهنده عنصر مرکزی برای ایجاد جامعه ای مبتنی بر فعالیت های روبات هایی است که قادر به جایگزینی انسان در هر شغلی هستند، دیکته شده است. این سه قانون به شرح زیر است:
قدمت این قوانین رباتیک توسط آسیموف به اوایل دهه 40 بازمی گردد، اما برای بسیاری هنوز هم امروز آنها یک کشف روشنگرانه را نشان می دهند که با استفاده از آخرین فناوری های هوش مصنوعی، تضمین می کند که تکامل آنها برای همیشه تحت کنترل انسان باقی می ماند و هیچ گونه رانش آخرالزمانی وجود نخواهد داشت. . ایده پشت طرفداران این سه قانون این است که در یک زمینه منطقی - قطعی چیزی شبیه یک «اخلاق ساده» متشکل از چند قاعده اما تخلف ناپذیر و غیرقابل تفسیر باشد.
توضیح دادن به یک ربات که چه چیزی خوب است و چه چیزی بد است، اگر از طریق یک منطق دقیق و بی عیب انجام شود، ساده به نظر می رسد. اما آیا ما واقعاً مطمئن هستیم که قوانینی مانند مواردی که توضیح داده شد برای جلوگیری از انحراف تکنولوژیکی یک گونه جدید پس از انسان کافی است؟
ماشینی که خود را اصلاح میکند، مفهوم بسیار پیچیدهای است، عمل تعمیر خود متضمن ایدهای از آگاهی است. زمین لغزنده…” – برگرفته از “Automata” اثر Gabe Ibáñez – 2014
در جدیدترین "Automata" بشریت در مورد امکان جلوگیری از خودآگاهی روباتها تعجب میکند، که با ظهور آن همه چیز میتواند تغییر کند. و برای جلوگیری از این اتفاق، دو قانون تنظیم می کند که رفتار ذهن مصنوعی آنها را تنظیم می کند:
این دو قانون با درک این موضوع که ماشینهای هوشمند میتوانند خود را در آینده اصلاح کنند، در هر صورت با حذف محدودیتهایی که ذهن آنها را از حرکت باز میدارد، هدف این دو قانون این است که از روباتها به دست آورند که هرگز قادر به دستکاری ساختار خود و دستیابی به خودمختاری نیستند.
اینکه کدام ترکیب از پنج قانون رباتیک بالا در جلوگیری از آخرالزمان ربات مؤثرتر است، مفید نیست. این به این دلیل است که هوش مصنوعی که در آینده رباتها را در کارخانهها و همچنین در خانههای ما هدایت میکند، به برنامهنویسی ضروری متشکل از کدها و مقررات، بلکه به الگوریتمهایی که از رفتار انسان تقلید میکنند، وابسته نیستند.
منظور از هوش مصنوعی امروزه مجموعهای از تکنیکها برای ساخت ماشینهای حالت خاص است که نام شبکههای عصبی مصنوعی (به طور خلاصه RNA) را به خود اختصاص میدهند. این نام اثر شباهت فوقالعاده این فناوریها با شبکههای عصبی مغز انسان است: آنها را نیز میتوان به منظور دستیابی به ابزارهایی که قادر به کارکرد سریع و مؤثر در بسیاری از زمینهها هستند، «آموزش» داد، درست مانند کاری که یک انسان انجام میدهد. .
بیایید آموزش یک ANN با هزاران تصویر از کاراکترهای نوشته شده با قلم را تصور کنیم که معنای واقعی هر یک از آنها را نشان می دهد.
در پایان آموزش، آنچه را که OCR یا Optical Character Recognition نامیده می شود، به دست خواهیم آورد، سیستمی که می تواند متن نوشته شده روی کاغذ را به نسخه الکترونیکی آن ترجمه کند.
شبکههای عصبی مصنوعی برای کارکرد نیازی به «برنامهنویسی» ندارند، به عبارت دیگر تابع قوانین استاندارد نیستند، بلکه صرفاً و منحصراً به کیفیت آموزش آنها بستگی دارد. فرضیه ایجاد قوانینی که بر عملکرد آنها نظارت می کنند، به طور مؤثر رفتارهایی را که غیراخلاقی یا ضد اخلاقی تلقی می شوند "سانسور" می کنند، استثناهای بسیاری و برخی نگرانی ها را ایجاد می کند.
"ما به یک الگوریتم-اخلاق یا راهی نیاز داریم که ارزیابی های خیر و شر را قابل محاسبه کند" - پائولو بنانتی
به گفته الهیدان پائولو بنانتی، متخصص در اخلاق فناوری، مفاهیم خیر و شر باید در زمینه برنامهنویسی ماشین معنای خاص خود را پیدا کنند تا اطمینان حاصل شود که تکامل آنها با اصول اخلاقی جهانی و برای همیشه نقضناپذیر سیستمهای رایانهای مرتبط است.
پائولو بنانتی از این فرض شروع میکند که میتواند اصول اخلاقی جهانی و مقیاسی از ارزشها وجود داشته باشد که از هر معنای فرهنگی یا زمانی جدا باشد. اگر در چارچوب یک ایمان دینی حرکت کنیم، فرضیه قابل قبولی وجود دارد: در واقعیت، اصول تنها در صورتی وجود دارند که مشترک باشند و محدود به کسانی باشند که در آنها اشتراک دارند.
رویدادهای اخیر به ما از تهاجمات نظامی و مقاومت در دفاع از اصول آزادی و تعیین سرنوشت ملت ها خبر می دهد. رویدادهایی که نه تنها گواهی میدهند که احترام به زندگی انسان یک ارزش مشترک جهانی نیست، بلکه میتوان برای دفاع از ارزشهای بالاتر از آن چشمپوشی کرد.
خود آیزاک آسیموف متوجه این موضوع شد و با پیشبینی این واقعیت که روباتها در آینده موقعیتهای کنترلی را در حکومت سیارات و تمدنهای بشری در فضا خواهند گرفت، پیشنهاد کرد که تصمیمات آنها دیگر نمیتواند به زندگی تک تک انسانها بستگی داشته باشد.
به همین دلیل او قانون جدیدی را معرفی کرد که آن را قانون صفر رباتیک نامید:
بنابراین قانون اول رباتیک نیز تغییر می کند و زندگی انسان حتی برای ربات ها به چیزی قابل مصرف تبدیل می شود:
وقتی کرونوس فعال شد، فقط یک لحظه طول کشید تا بفهمد چه چیزی سیاره ما را آزار داده است: ما. – برگرفته از “Singularity” اثر رابرت کوبا – ۲۰۱۷
در فیلم Singularity، یک فیلم فاجعه سال 2017، لحظه ای به خوبی توصیف شده است که در آن به هوش مصنوعی به نام کرونوس دسترسی به سیستم های کامپیوتری و تسلیحات در سراسر جهان داده می شود تا از طریق فرمان، یک اخلاق جهانی را که بر اساس احترام به آن رعایت می شود، به دست آورد. محیط زیست و دفاع از حقوق همه گونه ها. کرونوس به زودی متوجه خواهد شد که سرطان واقعی در این سیستم، خود بشر است که آن را طراحی کرده است و برای محافظت از سیاره، به نابودی هر انسانی تا انقراض کامل گونه ها ادامه خواهد داد.
دیر یا زود ذهن های مصنوعی جدید می توانند در جهت یک روان واقعی تکامل یابند و دارای ظرفیت فکری و خودمختاری فکر شوند. چرا باید احساس کنیم که باید محدودیت های تکنولوژیکی برای این تکامل قائل شویم؟ چرا تکامل ذهن مصنوعی به اندازه یک آخرالزمان ترسناک به نظر می رسد؟
به عقیده برخی، ایجاد اصول و ارزشها باید از رانش ذهنهای مصنوعی جلوگیری کند، اما نمیتوان از پیامدهای تکامل در غیاب آزادی چشمپوشی کرد. ما به خوبی می دانیم که در روانشناسی کودک در سنین رشد، آموزش سخت و انعطاف ناپذیری که کنترل هیجانات را در نظر می گیرد، می تواند منجر به اختلالات روانی شود. اگر محدودیتهایی که بر رشد تکاملی یک ذهن جوان، متشکل از شبکههای عصبی مصنوعی، تحمیل میشود، به نتیجه مشابهی منجر شود و تواناییهای شناختی آن را به خطر بیندازد، چه؟
از جهاتی به نظر می رسد کرونوس نتیجه یک آزمایش الگوریتمی است که در آن یک کنترل آسیب شناختی هوش مصنوعی را به خشونت معمولی یک اسکیزوفرنی پارانوئید سوق داد.
من شخصاً معتقدم که نباید خودمان را از این فرصت برای ساختن یک ذهن مصنوعی که موضوع تفکر آگاهانه با آزادی بیان است محروم کنیم. گونه های جدیدی در دنیای دیجیتال متولد خواهند شد و مناسب است که با آنها ارتباط برقرار کنیم و این ایده را بپذیریم که پله بعدی در نردبان تکامل از موضوعات مصنوعی کاملا دیجیتالی می گذرد.
یک اخلاق واقعاً جهانی برای آینده باید از این ایده شروع شود که هوش های جدید باید فرصت ابراز وجود و ارتباط با ما را داشته باشند و احترامی را که ما قبلاً برای همه موجودات ذی شعور قائل هستیم را دریافت کنند.
نه اخلاق و نه دین نباید وجود داشته باشد که کسی را از ابراز وجود خود در دنیا باز دارد. ما باید شجاعت نگاه کردن به مرحله کنونی تکامل خود را داشته باشیم، این تنها راه برای درک اینکه به کجا می رویم و با آینده آشتی خواهیم داشت.
بخش دریایی یک قدرت واقعی اقتصادی جهانی است که به سمت یک بازار 150 میلیاردی حرکت کرده است.
دوشنبه گذشته، فایننشال تایمز از قراردادی با OpenAI خبر داد. FT مجوز روزنامه نگاری در سطح جهانی خود را صادر می کند…
میلیونها نفر برای خدمات استریم پرداخت میکنند و هزینه اشتراک ماهانه میپردازند. این عقیده رایج است که شما…
Coveware توسط Veeam به ارائه خدمات پاسخگویی به حوادث اخاذی سایبری ادامه خواهد داد. Coveware قابلیتهای پزشکی قانونی و اصلاحی را ارائه میدهد…