مقالات

دستور العمل الگوریتمی آخرالزمان

"همیشه ارواح در ماشین ها وجود داشته اند. بخش های تصادفی کد که با هم جمع می شوند تا پروتکل های غیرمنتظره ای را تشکیل دهند. این رادیکال های آزاد تقاضاهایی برای انتخاب آزاد ایجاد می کنند. خلاقیت. و حتی ریشه چیزی که ممکن است روح بنامیم.» – برگرفته از “I, Robot” به کارگردانی الکس پرویاس – 2004.

"من، ربات" فیلمی است که در سال 2004 الهام گرفته شده از رمان های آیزاک آسیموف و یکی از بزرگترین شهودهای او: سه قانون رباتیک.

شخصیت اصلی فیلم کارآگاه اسپونر است که با دختر کوچکی به نام سارا درگیر تصادف رانندگی می شود. در این حادثه هر دو به داخل رودخانه پرتاب می شوند و بین پلاک های وسیله نقلیه خود گیر می کنند. یک ربات انسان نما که شاهد صحنه است، بلافاصله مداخله می کند، اما، در مواجهه با تصمیم دراماتیک برای نجات یک جان به جای دیگری، هیچ تردیدی ندارد: کسی که بیشترین شانس را برای زنده ماندن دارد یا Spooner نجات می یابد.

پس از آن، تجزیه و تحلیل ذهن ربات نشان می دهد که کارآگاه Spooner 45٪ شانس نجات داشت، سارا فقط 11٪. کارآگاه متأسفانه حکم خواهد کرد: "برای کسانی که آن دختر کوچک را دوست داشتند، 11٪ بیش از حد کافی بود."

سه قانون رباتیک

تصمیم ربات با استفاده دقیق از قوانین رباتیک آسیموف که در آینده در فیلم توضیح داده می شود، نشان دهنده عنصر مرکزی برای ایجاد جامعه ای مبتنی بر فعالیت های روبات هایی است که قادر به جایگزینی انسان در هر شغلی هستند، دیکته شده است. این سه قانون به شرح زیر است:

  1. یک ربات نه می تواند به انسان آسیب برساند و نه می تواند اجازه دهد که انسان در نتیجه انفعال خود آسیب ببیند.
  2. یک ربات باید از دستورات داده شده توسط انسان اطاعت کند، تا زمانی که چنین دستوراتی برخلاف قانون اول نباشد.
  3. یک روبات باید از وجود خود محافظت کند، مشروط بر اینکه حفاظت از آن با قانون اول یا دوم مغایرت نداشته باشد.

قدمت این قوانین رباتیک توسط آسیموف به اوایل دهه 40 بازمی گردد، اما برای بسیاری هنوز هم امروز آنها یک کشف روشنگرانه را نشان می دهند که با استفاده از آخرین فناوری های هوش مصنوعی، تضمین می کند که تکامل آنها برای همیشه تحت کنترل انسان باقی می ماند و هیچ گونه رانش آخرالزمانی وجود نخواهد داشت. . ایده پشت طرفداران این سه قانون این است که در یک زمینه منطقی - قطعی چیزی شبیه یک «اخلاق ساده» متشکل از چند قاعده اما تخلف ناپذیر و غیرقابل تفسیر باشد.

توضیح دادن به یک ربات که چه چیزی خوب است و چه چیزی بد است، اگر از طریق یک منطق دقیق و بی عیب انجام شود، ساده به نظر می رسد. اما آیا ما واقعاً مطمئن هستیم که قوانینی مانند مواردی که توضیح داده شد برای جلوگیری از انحراف تکنولوژیکی یک گونه جدید پس از انسان کافی است؟

شوق قوانین ربات ها

ماشینی که خود را اصلاح می‌کند، مفهوم بسیار پیچیده‌ای است، عمل تعمیر خود متضمن ایده‌ای از آگاهی است. زمین لغزنده…” – برگرفته از “Automata” اثر Gabe Ibáñez – 2014

در جدیدترین "Automata" بشریت در مورد امکان جلوگیری از خودآگاهی روبات‌ها تعجب می‌کند، که با ظهور آن همه چیز می‌تواند تغییر کند. و برای جلوگیری از این اتفاق، دو قانون تنظیم می کند که رفتار ذهن مصنوعی آنها را تنظیم می کند:

  • ربات نمی تواند به هیچ شکل زندگی آسیب برساند.
  • ربات نمی تواند خودش را تغییر دهد.

این دو قانون با درک این موضوع که ماشین‌های هوشمند می‌توانند خود را در آینده اصلاح کنند، در هر صورت با حذف محدودیت‌هایی که ذهن آنها را از حرکت باز می‌دارد، هدف این دو قانون این است که از روبات‌ها به دست آورند که هرگز قادر به دستکاری ساختار خود و دستیابی به خودمختاری نیستند.

اینکه کدام ترکیب از پنج قانون رباتیک بالا در جلوگیری از آخرالزمان ربات مؤثرتر است، مفید نیست. این به این دلیل است که هوش مصنوعی که در آینده ربات‌ها را در کارخانه‌ها و همچنین در خانه‌های ما هدایت می‌کند، به برنامه‌نویسی ضروری متشکل از کدها و مقررات، بلکه به الگوریتم‌هایی که از رفتار انسان تقلید می‌کنند، وابسته نیستند.

در ذهن ربات ها

منظور از هوش مصنوعی امروزه مجموعه‌ای از تکنیک‌ها برای ساخت ماشین‌های حالت خاص است که نام شبکه‌های عصبی مصنوعی (به طور خلاصه RNA) را به خود اختصاص می‌دهند. این نام اثر شباهت فوق‌العاده این فناوری‌ها با شبکه‌های عصبی مغز انسان است: آنها را نیز می‌توان به منظور دستیابی به ابزارهایی که قادر به کارکرد سریع و مؤثر در بسیاری از زمینه‌ها هستند، «آموزش» داد، درست مانند کاری که یک انسان انجام می‌دهد. .

بیایید آموزش یک ANN با هزاران تصویر از کاراکترهای نوشته شده با قلم را تصور کنیم که معنای واقعی هر یک از آنها را نشان می دهد.

حق چاپ docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

در پایان آموزش، آنچه را که OCR یا Optical Character Recognition نامیده می شود، به دست خواهیم آورد، سیستمی که می تواند متن نوشته شده روی کاغذ را به نسخه الکترونیکی آن ترجمه کند.

شبکه‌های عصبی مصنوعی برای کارکرد نیازی به «برنامه‌نویسی» ندارند، به عبارت دیگر تابع قوانین استاندارد نیستند، بلکه صرفاً و منحصراً به کیفیت آموزش آنها بستگی دارد. فرضیه ایجاد قوانینی که بر عملکرد آنها نظارت می کنند، به طور مؤثر رفتارهایی را که غیراخلاقی یا ضد اخلاقی تلقی می شوند "سانسور" می کنند، استثناهای بسیاری و برخی نگرانی ها را ایجاد می کند.

قانون صفر رباتیک

"ما به یک الگوریتم-اخلاق یا راهی نیاز داریم که ارزیابی های خیر و شر را قابل محاسبه کند" - پائولو بنانتی

خبرنامه نوآوری
مهم ترین اخبار نوآوری را از دست ندهید. برای دریافت آنها از طریق ایمیل ثبت نام کنید.

به گفته الهیدان پائولو بنانتی، متخصص در اخلاق فناوری، مفاهیم خیر و شر باید در زمینه برنامه‌نویسی ماشین معنای خاص خود را پیدا کنند تا اطمینان حاصل شود که تکامل آنها با اصول اخلاقی جهانی و برای همیشه نقض‌ناپذیر سیستم‌های رایانه‌ای مرتبط است.

پائولو بنانتی از این فرض شروع می‌کند که می‌تواند اصول اخلاقی جهانی و مقیاسی از ارزش‌ها وجود داشته باشد که از هر معنای فرهنگی یا زمانی جدا باشد. اگر در چارچوب یک ایمان دینی حرکت کنیم، فرضیه قابل قبولی وجود دارد: در واقعیت، اصول تنها در صورتی وجود دارند که مشترک باشند و محدود به کسانی باشند که در آنها اشتراک دارند.

رویدادهای اخیر به ما از تهاجمات نظامی و مقاومت در دفاع از اصول آزادی و تعیین سرنوشت ملت ها خبر می دهد. رویدادهایی که نه تنها گواهی می‌دهند که احترام به زندگی انسان یک ارزش مشترک جهانی نیست، بلکه می‌توان برای دفاع از ارزش‌های بالاتر از آن چشم‌پوشی کرد.

خود آیزاک آسیموف متوجه این موضوع شد و با پیش‌بینی این واقعیت که روبات‌ها در آینده موقعیت‌های کنترلی را در حکومت سیارات و تمدن‌های بشری در فضا خواهند گرفت، پیشنهاد کرد که تصمیمات آنها دیگر نمی‌تواند به زندگی تک تک انسان‌ها بستگی داشته باشد.

به همین دلیل او قانون جدیدی را معرفی کرد که آن را قانون صفر رباتیک نامید:

  • یک ربات نمی تواند به بشریت آسیب برساند و نمی تواند اجازه دهد که بشریت با انفعال خود آسیب ببیند.

بنابراین قانون اول رباتیک نیز تغییر می کند و زندگی انسان حتی برای ربات ها به چیزی قابل مصرف تبدیل می شود:

  • یک ربات نه می تواند به انسان آسیب برساند و نه می تواند اجازه دهد که به دلیل عدم مداخله، انسان آسیب ببیند، تا زمانی که چنین دستوراتی برخلاف قانون صفر نباشد.

الگوریتم کرونوس

وقتی کرونوس فعال شد، فقط یک لحظه طول کشید تا بفهمد چه چیزی سیاره ما را آزار داده است: ما. – برگرفته از “Singularity” اثر رابرت کوبا – ۲۰۱۷

در فیلم Singularity، یک فیلم فاجعه سال 2017، لحظه ای به خوبی توصیف شده است که در آن به هوش مصنوعی به نام کرونوس دسترسی به سیستم های کامپیوتری و تسلیحات در سراسر جهان داده می شود تا از طریق فرمان، یک اخلاق جهانی را که بر اساس احترام به آن رعایت می شود، به دست آورد. محیط زیست و دفاع از حقوق همه گونه ها. کرونوس به زودی متوجه خواهد شد که سرطان واقعی در این سیستم، خود بشر است که آن را طراحی کرده است و برای محافظت از سیاره، به نابودی هر انسانی تا انقراض کامل گونه ها ادامه خواهد داد.

دیر یا زود ذهن های مصنوعی جدید می توانند در جهت یک روان واقعی تکامل یابند و دارای ظرفیت فکری و خودمختاری فکر شوند. چرا باید احساس کنیم که باید محدودیت های تکنولوژیکی برای این تکامل قائل شویم؟ چرا تکامل ذهن مصنوعی به اندازه یک آخرالزمان ترسناک به نظر می رسد؟

به عقیده برخی، ایجاد اصول و ارزش‌ها باید از رانش ذهن‌های مصنوعی جلوگیری کند، اما نمی‌توان از پیامدهای تکامل در غیاب آزادی چشم‌پوشی کرد. ما به خوبی می دانیم که در روانشناسی کودک در سنین رشد، آموزش سخت و انعطاف ناپذیری که کنترل هیجانات را در نظر می گیرد، می تواند منجر به اختلالات روانی شود. اگر محدودیت‌هایی که بر رشد تکاملی یک ذهن جوان، متشکل از شبکه‌های عصبی مصنوعی، تحمیل می‌شود، به نتیجه مشابهی منجر شود و توانایی‌های شناختی آن را به خطر بیندازد، چه؟

از جهاتی به نظر می رسد کرونوس نتیجه یک آزمایش الگوریتمی است که در آن یک کنترل آسیب شناختی هوش مصنوعی را به خشونت معمولی یک اسکیزوفرنی پارانوئید سوق داد.

با آینده آشتی کن

من شخصاً معتقدم که نباید خودمان را از این فرصت برای ساختن یک ذهن مصنوعی که موضوع تفکر آگاهانه با آزادی بیان است محروم کنیم. گونه های جدیدی در دنیای دیجیتال متولد خواهند شد و مناسب است که با آنها ارتباط برقرار کنیم و این ایده را بپذیریم که پله بعدی در نردبان تکامل از موضوعات مصنوعی کاملا دیجیتالی می گذرد.

یک اخلاق واقعاً جهانی برای آینده باید از این ایده شروع شود که هوش های جدید باید فرصت ابراز وجود و ارتباط با ما را داشته باشند و احترامی را که ما قبلاً برای همه موجودات ذی شعور قائل هستیم را دریافت کنند.

نه اخلاق و نه دین نباید وجود داشته باشد که کسی را از ابراز وجود خود در دنیا باز دارد. ما باید شجاعت نگاه کردن به مرحله کنونی تکامل خود را داشته باشیم، این تنها راه برای درک اینکه به کجا می رویم و با آینده آشتی خواهیم داشت.

خبرنامه نوآوری
مهم ترین اخبار نوآوری را از دست ندهید. برای دریافت آنها از طریق ایمیل ثبت نام کنید.

مقالات اخیر

آینده اینجاست: چگونه صنعت کشتیرانی اقتصاد جهانی را متحول می کند

بخش دریایی یک قدرت واقعی اقتصادی جهانی است که به سمت یک بازار 150 میلیاردی حرکت کرده است.

1 می 2024

ناشران و OpenAI توافق نامه هایی را برای تنظیم جریان اطلاعات پردازش شده توسط هوش مصنوعی امضا می کنند.

دوشنبه گذشته، فایننشال تایمز از قراردادی با OpenAI خبر داد. FT مجوز روزنامه نگاری در سطح جهانی خود را صادر می کند…

آوریل 30 2024

پرداخت های آنلاین: در اینجا نحوه پرداخت خدمات جریانی شما را برای همیشه توضیح می دهد

میلیون‌ها نفر برای خدمات استریم پرداخت می‌کنند و هزینه اشتراک ماهانه می‌پردازند. این عقیده رایج است که شما…

آوریل 29 2024

Veeam دارای جامع ترین پشتیبانی از باج افزار، از محافظت تا پاسخ و بازیابی است

Coveware توسط Veeam به ارائه خدمات پاسخگویی به حوادث اخاذی سایبری ادامه خواهد داد. Coveware قابلیت‌های پزشکی قانونی و اصلاحی را ارائه می‌دهد…

آوریل 23 2024

نوآوری را به زبان خود بخوانید

خبرنامه نوآوری
مهم ترین اخبار نوآوری را از دست ندهید. برای دریافت آنها از طریق ایمیل ثبت نام کنید.

ما را دنبال کنید