بضائع

الوصفة الحسابية لنهاية العالم

"كانت هناك دائمًا أشباح في السيارات. مقاطع عشوائية من التعليمات البرمجية تتجمع معًا لتشكل بروتوكولات غير متوقعة. هذه الجذور الحرة تولد مطالب للاختيار الحر. إِبداع. وحتى أصل ما يمكن أن نطلق عليه روحًا ". - مأخوذ من فيلم "I، Robot" للمخرج Alex Proyas - 2004.

فيلم "I، Robot" هو فيلم عام 2004 مستوحى من روايات إسحاق أسيموف وأحد أعظم أفكاره: قوانين الروبوتات الثلاثة.

بطل الفيلم هو المحقق سبونر الذي تعرض لحادث سيارة مع فتاة صغيرة تدعى سارة. في الحادث ، ألقي كلاهما في نهر وعلقوا بين لوحات سيارتهم. يتدخل الإنسان الآلي الذي يشاهد المشهد على الفور ، ولكن في مواجهة القرار الدراماتيكي بإنقاذ حياة واحدة بدلاً من الأخرى ، لا يتردد: الشخص الذي لديه أكبر فرصة للبقاء على قيد الحياة أو سيتم إنقاذ Spooner.

بعد ذلك ، سيظهر تحليل لعقل الروبوت أن المحقق سبونر لديه فرصة 45٪ في النجاة ، وسارة 11٪ فقط. "بالنسبة لأولئك الذين أحبوا تلك الفتاة الصغيرة ، كان 11٪ أكثر من كافٍ" ، سيحكم المحقق للأسف ، متأثرًا بمشاعر عميقة بالذنب لأنه نجا من تلك الحياة الصغيرة.

قوانين الروبوتات الثلاثة

تم إملاء قرار الروبوت من خلال التطبيق الصارم لقوانين الروبوتات لأسيموف والتي ، في المستقبل الموصوفة في الفيلم ، تمثل العنصر المركزي لإنشاء مجتمع قائم على أنشطة الروبوتات القادرة على استبدال البشر في أي وظيفة. تنص القوانين الثلاثة على ما يلي:

  1. لا يمكن للروبوت أن يؤذي الإنسان ولا يمكنه أن يسمح للإنسان أن يعاني من الأذى نتيجة تقاعسه عن العمل.
  2. يجب أن يطيع الروبوت الأوامر الصادرة عن البشر ، طالما أن هذه الأوامر لا تتعارض مع القانون الأول.
  3. يجب أن يحمي الروبوت وجوده ، بشرط ألا تتعارض حمايته مع القانون الأول أو الثاني.

يعود تاريخ قوانين الروبوتات هذه من قبل Asimov إلى أوائل الأربعينيات من القرن الماضي ، ومع ذلك فهي تمثل بالنسبة للكثيرين حتى اليوم اكتشافًا مستنيرًا ، عند تطبيقه على أحدث تقنيات الذكاء الاصطناعي ، سيضمن بقاء تطورها إلى الأبد تحت السيطرة البشرية ولن يكون هناك انجرافات مروعة . الفكرة من وراء محبي القوانين الثلاثة هي توصيل شيء يشبه "الأخلاق البسيطة" ، ضمن سياق حتمي منطقي ، يتكون من عدة قواعد ولكنها غير قابلة للانتهاك وغير قابلة للتفسير.

إن شرح ما هو جيد وما هو سيئ للروبوت يبدو بسيطًا إذا تم تنفيذه من خلال منطق صارم وخالي من العيوب. ولكن هل نحن متأكدون حقًا من أن القواعد مثل تلك التي وصفناها للتو كافية لتجنب الانجراف التكنولوجي لأنواع جديدة ما بعد الإنسان؟

جنون قوانين الروبوتات

"الآلة التي تعدل نفسها هي مفهوم معقد للغاية ، فعل إصلاح نفسها ينطوي على فكرة ما عن الوعي. أرض زلقة ... "- مأخوذة من فيلم" Automata "للمخرج غابي إيبانيز - 2014

في أحدث "Automata" تتساءل البشرية عن إمكانية منع الإدراك الذاتي للروبوتات ، مع ظهور الأشياء التي يمكن أن تأخذ منعطفًا سيئًا. ولمنع حدوث ذلك ، فإنها تضع قانونين ينظمان سلوك عقولهم الاصطناعية:

  • لا يمكن للروبوت أن يؤذي أي شكل من أشكال الحياة.
  • الروبوت لا يمكنه تعديل نفسه.

بعد أن أدركنا أن الآلات الذكية يمكنها تعديل نفسها في المستقبل ، إذا كان هناك أي شيء عن طريق إزالة القيود التي تمنع عقولهم من الانجراف ، يهدف هذان القانونان إلى الحصول من الروبوتات على أنها غير قادرة على التلاعب بهيكلها وتحقيق تقرير المصير.

ليس من المثمر اللغز بشأن أي مجموعة من قوانين الروبوتات الخمسة المذكورة أعلاه ستكون أكثر فاعلية في منع حدوث نهاية العالم للروبوت. هذا لأن الذكاء الاصطناعي الذي سيوجه الروبوتات في المستقبل في المصانع وكذلك في منازلنا لا يعتمد على البرمجة الإلزامية المكونة من الأكواد واللوائح ، ولكن أيضًا على الخوارزميات التي تحاكي السلوك البشري.

في عقل الروبوتات

نعني بالذكاء الاصطناعي اليوم مجموعة من التقنيات لبناء آلات حالة معينة تحمل اسم الشبكات العصبية الاصطناعية (باختصار RNA). هذا الاسم هو تأثير التشابه غير العادي لهذه التقنيات مع الشبكات العصبية للدماغ البشري: يمكن أيضًا "تدريبهم" من أجل الحصول على أدوات قادرة على العمل بسرعة وفعالية في العديد من السياقات ، تمامًا كما يفعل الإنسان .

لنتخيل تدريب ANN بآلاف الصور المكتوبة بالقلم والتي تشير إلى المعنى الحقيقي لكل منها.

حقوق الطبع والنشر docsumo.com - https://docsumo.com/blog/intelligent-character-recognition-icr

في نهاية التدريب ، سنكون قد حصلنا على ما يسمى OCR أو التعرف الضوئي على الأحرف ، وهو نظام قادر على ترجمة نص مكتوب على الورق إلى نسخته الإلكترونية.

من أجل العمل ، لا تتطلب شبكات ANN أي "برمجة" ، أي أنها لا تخضع للقواعد القياسية ، ولكنها تعتمد فقط وحصريًا على جودة تعليمها. إن افتراض إنشاء القواعد التي تشرف على عملها ، و "الرقابة" الفعالة على السلوكيات التي تعتبر غير أخلاقية أو معادية للأخلاق ، يثير العديد من الاستثناءات وبعض المخاوف.

قانون الروبوتات الصفري

"نحتاج إلى خوارزمية - أخلاقيات ، أو طريقة تجعل تقييمات الخير والشر قابلة للحساب" - باولو بينانتي

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

وفقًا لعالم اللاهوت باولو بينانتي ، الخبير في أخلاقيات التكنولوجيا ، يجب أن تجد مفاهيم الخير والشر دلالاتها الخاصة في مجال برمجة الآلة ، من أجل ضمان ارتباط تطورها بالمبادئ الأخلاقية العالمية وغير القابلة للانتهاك من أنظمة الكمبيوتر.

يبدأ Paolo Benanti من افتراض أنه يمكن أن تكون هناك مبادئ أخلاقية عالمية ومقياس قيم منفصل عن أي دلالة ثقافية أو زمنية. فرضية معقولة إذا تحركنا في سياق إيمان ديني: في الواقع ، لا توجد المبادئ إلا إذا كانت مشتركة ومحدودة لأولئك الذين يشاركونها.

تخبرنا الأحداث الأخيرة عن غزوات عسكرية ومقاومة دفاعاً عن مبادئ الحرية وتقرير المصير للشعوب. الأحداث التي تشهد ليس فقط أن احترام الحياة البشرية ليس قيمة مشتركة عالميًا ، ولكن أيضًا يمكن التنازل عنها للدفاع عن القيم العليا.

أدرك إسحاق أسيموف ذلك بنفسه ، وتوقعًا لحقيقة أن الروبوتات ستتولى في المستقبل مناصب السيطرة في حكومة الكواكب والحضارات البشرية في الفضاء ، اقترح أن قراراتهم لم تعد تعتمد على كل حياة بشرية.

لهذا السبب ، قدم قانونًا جديدًا أطلق عليه القانون الصفري للروبوتات:

  • لا يمكن للروبوت أن يؤذي البشرية ولا يمكنه أن يسمح للإنسانية أن تتضرر بسبب تقاعسه عن العمل.

وهكذا أيضًا تغير القانون الأول للروبوتات وأصبحت حياة الإنسان شيئًا يمكن الاستغناء عنه حتى بالنسبة للروبوتات:

  • لا يمكن للروبوت أن يؤذي إنسانًا ولا يمكنه أن يسمح بذلك ، بسبب عدم تدخله ، يعاني الإنسان من الأذى ، طالما أن مثل هذه الأوامر لا تتعارض مع قانون الصفر.

خوارزمية كرونوس

"عندما تم تنشيط Kronos ، لم يستغرق الأمر سوى دقيقة واحدة لفهم ما ابتلى كوكبنا: نحن." - مأخوذ من "التفرد" لروبرت كوبا - 2017

في فيلم Singularity ، وهو فيلم عن الكوارث لعام 2017 ، تم وصف اللحظة التي يتم فيها منح ذكاء اصطناعي يسمى Kronos إمكانية الوصول إلى أنظمة الكمبيوتر والأسلحة في جميع أنحاء العالم من أجل الحصول ، عن طريق الأمر ، على تطبيق أخلاقيات عالمية تحترم حقوق الإنسان. البيئة والدفاع عن حقوق جميع الأنواع. سوف يدرك كرونوس قريبًا أن السرطان الحقيقي في النظام هو الإنسان نفسه الذي صممه ولحماية الكوكب ، فإنه سيواصل القضاء على كل إنسان حتى الانقراض التام للأنواع.

عاجلاً أم آجلاً ، ستكون العقول الاصطناعية الجديدة قادرة على التطور في اتجاه نفسية حقيقية وستمنح القدرة الفكرية واستقلالية الفكر ؛ لماذا نشعر بالحاجة إلى وضع حدود تكنولوجية على هذا التطور؟ لماذا يبدو تطور العقل الاصطناعي مخيفًا مثل نهاية العالم؟

وفقًا للبعض ، يجب أن يمنع ترسيخ المبادئ والقيم انجراف العقول الاصطناعية ، لكن لا يمكننا التغاضي عن عواقب التطور في غياب الحرية. نحن ندرك جيدًا أنه في علم نفس الطفل في سن النمو ، يمكن أن يؤدي التعليم الجامد وغير المرن الذي يفكر في التحكم في العواطف إلى اضطرابات نفسية. ماذا لو فرضت أي قيود على التطور التطوري لعقل شاب ، مكون من شبكات عصبية اصطناعية ، تؤدي إلى نتيجة مماثلة ، مما يضر بقدراته المعرفية؟

من بعض النواحي ، يبدو أن كرونوس هو نتيجة تجربة خوارزمية حيث دفع عنصر تحكم مرضي الذكاء الاصطناعي إلى العنف المعتاد لمرض انفصام الشخصية المصحوب بجنون العظمة.

تصالح مع المستقبل

أنا شخصياً أعتقد أنه لا ينبغي لنا أن نحرم أنفسنا من فرصة بناء عقل اصطناعي يكون موضوع تفكير واعي يتمتع بحرية التعبير. ستولد أنواع جديدة في العالم الرقمي وسيكون من المناسب إنشاء علاقة معها ، مع تبني فكرة أن الخطوة التالية في السلم التطوري تمر عبر مواضيع اصطناعية رقمية بالكامل.

يجب أن تبدأ الأخلاق العالمية الحقيقية للمستقبل من فكرة أن الذكاءات الجديدة يجب أن تتاح لها الفرصة للتعبير عن أنفسهم والتواصل معنا وتلقي الاحترام الذي نمنحه بالفعل لجميع الكائنات الحية.

يجب ألا يكون هناك أخلاق ولا دين يمنع أي شخص من التعبير عن وجوده في العالم. يجب أن نتحلى بالشجاعة للنظر إلى ما بعد المرحلة الحالية من تطورنا ، وستكون هذه هي الطريقة الوحيدة لفهم إلى أين نحن ذاهبون والتصالح مع المستقبل.

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

المقالات الأخيرة

يتميز Veeam بالدعم الأكثر شمولاً لبرامج الفدية، بدءًا من الحماية وحتى الاستجابة والاسترداد

سوف تستمر شركة Coveware by Veeam في تقديم خدمات الاستجابة لحوادث الابتزاز السيبراني. ستوفر Coveware إمكانات الطب الشرعي والمعالجة...

أبريل 23 2024

الثورة الخضراء والرقمية: كيف تعمل الصيانة التنبؤية على تغيير صناعة النفط والغاز

تُحدث الصيانة التنبؤية ثورة في قطاع النفط والغاز، من خلال اتباع نهج مبتكر واستباقي لإدارة المحطات.

أبريل 22 2024

منظم مكافحة الاحتكار في المملكة المتحدة يثير إنذار BigTech بشأن GenAI

أصدرت هيئة أسواق المال في المملكة المتحدة تحذيرًا بشأن سلوك شركات التكنولوجيا الكبرى في سوق الذكاء الاصطناعي. هناك…

أبريل 18 2024

كازا جرين: ثورة الطاقة من أجل مستقبل مستدام في إيطاليا

اختتم مرسوم "البيوت الخضراء"، الذي صاغه الاتحاد الأوروبي لتعزيز كفاءة استخدام الطاقة في المباني، عمليته التشريعية مع…

أبريل 18 2024

اقرأ الابتكار بلغتك

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

تابعنا