بضائع

قواعد حماية البيانات OpenAI والاتحاد الأوروبي ، بعد إيطاليا المزيد من القيود القادمة

تمكنت شركة OpenAI من الاستجابة بشكل إيجابي لسلطات البيانات الإيطالية و رفع الحظر الفعلي للبلاد على ChatGPT الأسبوع الماضي ، لكن معركته ضد المنظمين الأوروبيين لم تنته بعد. 

وقت القراءة المقدر: 9 دقيقة

في أوائل عام 2023 ، واجه برنامج الدردشة ChatGPT الشهير والمثير للجدل التابع لشركة OpenAI مشكلة قانونية كبيرة: حظر فعال في إيطاليا. اتهمت هيئة حماية البيانات الإيطالية (GPDP) شركة OpenAI بانتهاك قواعد حماية البيانات في الاتحاد الأوروبي ، ووافقت الشركة على تقييد الوصول إلى الخدمة في إيطاليا لأنها تحاول حل المشكلة. في 28 أبريل ، عادت ChatGPT إلى البلاد ، مع معالجة OpenAI بشكل طفيف لمخاوف GPDP دون إجراء أي تغييرات كبيرة على خدمتها - وهو انتصار واضح.

أجب على ضامن الخصوصية الإيطالي

أكد GPDP "للترحيب" بالتغييرات التي أجراها ChatGPT. ومع ذلك ، فإن القضايا القانونية للشركة - وتلك الخاصة بالشركات التي تبني روبوتات محادثة مماثلة - ربما بدأت للتو. يبحث المنظمون في العديد من البلدان في كيفية جمع أدوات الذكاء الاصطناعي هذه وإنتاجها، نقلاً عن مجموعة من المخاوف من الشركات التي تجمع بيانات التدريب غير المرخصة إلى ميل روبوتات المحادثة لنشر معلومات مضللة. 

الاتحاد الأوروبي واللائحة العامة لحماية البيانات

في الاتحاد الأوروبي ، يقومون بفرض اللائحة العامة لحماية البيانات (GDPR) ، وهي واحدة من أقوى الأطر القانونية للخصوصية في العالم ، والتي من المحتمل أن تظهر آثارها خارج أوروبا أيضًا. وفي الوقت نفسه ، يعمل المشرعون الأوروبيون على قانون يعالج الذكاء الاصطناعي على وجه التحديد ، ومن المحتمل أن يفتح الباب أمام حقبة جديدة من التنظيم لأنظمة مثل ChatGPT. 

شعبية ChatGPT

يعد ChatGPT أحد الأمثلة الأكثر شيوعًا للذكاء الاصطناعي التوليدي ، وهو مصطلح شامل يغطي الأدوات التي تنتج النصوص والصور والفيديو والصوت بناءً على طلبات المستخدم. يقال إن الخدمة أصبحت واحدة من التطبيقات الاستهلاكية الأسرع نموًا في التاريخ بعد الوصول إلى 100 مليون مستخدم نشط شهريًا في شهرين فقط بعد إطلاقه في نوفمبر 2022 (لم تؤكد شركة OpenAI هذه الأرقام مطلقًا). 

يستخدمه الناس لترجمة النص إلى لغات مختلفة والكتابة مقالات جامعية وإنشاء رمز. لكن النقاد ، بمن فيهم المنظمون ، سلطوا الضوء على ناتج ChatGPT غير الموثوق به ، وقضايا حقوق النشر المربكة ، وممارسات حماية البيانات المشبوهة.

كانت إيطاليا أول دولة تحركت. في 31 مارس ، سلط الضوء على أربع طرق يعتقد أن OpenAI تنتهك فيها اللائحة العامة لحماية البيانات:

  • السماح لـ ChatGPT بتقديم معلومات غير دقيقة أو مضللة ،
  • عدم إبلاغ المستخدمين بممارسات جمع البيانات ،
  • استيفاء أي من المبررات القانونية الستة الممكنة لمعالجة البيانات personali e
  • عدم تقييد استخدام الأطفال الذين تقل أعمارهم عن 13 عامًا للخدمة بشكل كافٍ. 

أوروبا وغير أوروبا

لم تتخذ أي دولة أخرى مثل هذا الإجراء. لكن منذ مارس ، ثلاث دول على الأقل في الاتحاد الأوروبي - ألمانيا , فرنسا e إسبانيا - بدأوا تحقيقهم الخاص في ChatGPT. 

في غضون ذلك ، على الجانب الآخر من المحيط الأطلسي ، كندا يقوم بتقييم مخاوف الخصوصية بموجب قانون حماية المعلومات الشخصية والوثائق الإلكترونية ، أو PIPEDA. حتى أن مجلس حماية البيانات الأوروبي (EDPB) قد أنشأ واحدًا فريق عمل مخصص للمساعدة في تنسيق التحقيق. وإذا طلبت هذه الوكالات إجراء تغييرات على OpenAI ، فقد تؤثر على كيفية عمل الخدمة للمستخدمين في جميع أنحاء العالم. 

يمكن تقسيم اهتمامات المنظمين على نطاق واسع إلى فئتين:

  • من أين تأتي بيانات تدريب ChatGPT من البريد الإلكتروني
  • كيف توفر OpenAI المعلومات لمستخدميها.

يستخدم ChatGPT نماذج OpenAI's GPT-3.5 و GPT-4 اللغوية الكبيرة (LLMs) ، والتي يتم تدريبها على كميات كبيرة من النصوص التي ينتجها الإنسان. يتوخى برنامج OpenAI الحذر بشأن النص التدريبي الذي يستخدمه بالضبط ، لكنه يقول إنه يعتمد على "مجموعة متنوعة من مصادر البيانات المتاحة والمُنشأة والمرخصة للجمهور ، والتي قد تتضمن معلومات شخصية متاحة للجمهور".

الموافقة الصريحة

من المحتمل أن يشكل هذا مشكلات ضخمة بموجب اللائحة العامة لحماية البيانات. تم سن القانون في 2018 ويغطي جميع الخدمات التي تجمع أو تعالج بيانات مواطني الاتحاد الأوروبي ، بغض النظر عن مكان وجود المنظمة المسؤولة. تتطلب قواعد القانون العام لحماية البيانات (GDPR) من الشركات الحصول على موافقة صريحة قبل جمع البيانات الشخصية ، وأن يكون لديها مبرر قانوني لسبب جمعها ، وأن تكون شفافة بشأن كيفية استخدامها وتخزينها.

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

يقول المنظمون الأوروبيون إن سرية بيانات التدريب الخاصة بـ OpenAI تعني أنه لا توجد طريقة لتأكيد ما إذا كانت المعلومات الشخصية التي تم إدخالها قد تم تزويدها في البداية بموافقة المستخدم ، وقد جادلت GPDP على وجه التحديد بأن OpenAI ليس لديها "أساس قانوني" لجمعها في المقام الأول. حتى الآن ، تخلصت شركة OpenAI وآخرون من دون تمحيص بسيط ، لكن هذا البيان يضيف علامة استفهام كبيرة لجهود إزالة البيانات المستقبلية.

الحق في النسيان

ثم هناك " الحق في النسيان "من القانون العام لحماية البيانات (GDPR) ، والذي يسمح للمستخدمين بمطالبة الشركات بتصحيح معلوماتهم الشخصية أو إزالتها تمامًا. افتح AI قام سابقًا بتحديث سياسة الخصوصية الخاصة به لتسهيل مثل هذه الطلبات ، ولكن نعم هو كذلك ديسكوسو ما إذا كان من الممكن تقنيًا إدارتها ، نظرًا لمدى تعقيد الفصل بيانات محددة بمجرد إدخالهم في هذه النماذج اللغوية الكبيرة.

تقوم OpenAI أيضًا بجمع المعلومات مباشرة من المستخدمين. مثل أي منصة إنترنت ، فإنه يجمع ملف مجموعة بيانات المستخدم القياسية (مثل الاسم ومعلومات الاتصال وتفاصيل البطاقة وما إلى ذلك). ولكن الأهم من ذلك ، أنه يسجل تفاعلات المستخدمين مع ChatGPT. مثل مذكور في التعليمات ، يمكن مراجعة هذه البيانات من قبل موظفي OpenAI وتستخدم لتدريب الإصدارات المستقبلية من نموذجها. نظرًا للأسئلة الحميمة التي يطرحها الأشخاص على ChatGPT ، باستخدام الروبوت كمعالج أو طبيب ، فهذا يعني أن الشركة تجمع جميع أنواع البيانات الحساسة.

ربما تم جمع بعض هذه البيانات على الأقل من الأطفال ، بينما تنص سياسة OpenAI على أنها "لا تجمع معلومات شخصية عن قصد من الأطفال دون سن 13 عامًا" ، فلا توجد قيود صارمة على العمر. لا يتوافق هذا بشكل جيد مع قواعد الاتحاد الأوروبي ، التي تحظر جمع البيانات من الأشخاص الذين تقل أعمارهم عن 13 عامًا وتتطلب (في بعض البلدان) موافقة الوالدين للأطفال دون سن 16 عامًا. من ناحية الإخراج ، قال GPDP أن افتقار ChatGPT لمرشحات العمر يفضح القاصرين a "استجابات غير كافية على الإطلاق مقارنة بدرجة تطورهم ووعيهم الذاتي". 

معلومات خاطئة

أيضا ميل ChatGPT إلى تقديم معلومات خاطئة يمكن أن يكون مشكلة. تنص لوائح GDPR على أن جميع البيانات الشخصية يجب أن تكون دقيقة ، وهو أمر أبرزه GPDP في إعلانه. اعتمادا على كيفية حدوث ذلك definite ، قد يتسبب في حدوث مشكلات لمعظم برامج إنشاء نصوص الذكاء الاصطناعي ، والتي تكون عرضة لـ " الهلوسة ": مصطلح جيد في المجال للإجابات غير الصحيحة أو غير ذات الصلة على استعلام. لقد شهد هذا بالفعل بعض التداعيات في العالم الحقيقي في أماكن أخرى ، كما فعل عمدة إقليمي أسترالي هدد بمقاضاة OpenAI بتهمة التشهير بعد أن زعم ​​موقع ChatGPT زوراً أنه قضى عقوبة بالسجن بتهمة الفساد.

إن شعبية ChatGPT وهيمنة الذكاء الاصطناعي الحالية على السوق تجعلها هدفًا جذابًا بشكل خاص ، ولكن لا يوجد سبب لعدم تعرض منافسيها ومساهميها ، مثل Google مع Bard أو Microsoft باستخدام Azure AI القائم على OpenAI ، للتمحيص. قبل ChatGPT ، حظرت إيطاليا منصة chatbot Replika لجمع المعلومات عن القاصرين وظلت محظورة حتى الآن. 

في حين أن اللائحة العامة لحماية البيانات هي مجموعة قوية من القوانين ، إلا أنها لم تُنشأ لمعالجة قضايا محددة تتعلق بالذكاء الاصطناعي. القواعد التي , ومع ذلك ، قد يكونون في الأفق. 

قانون الذكاء الاصطناعي

في عام 2021 ، قدم الاتحاد الأوروبي مسودة أولى لملفقانون الذكاء الاصطناعي (AIA) ، التشريعات التي ستعمل جنبًا إلى جنب مع اللائحة العامة لحماية البيانات (GDPR). ينظم القانون أدوات الذكاء الاصطناعي بناءً على مخاطرها المتصورة ، من "الحد الأدنى" (أشياء مثل مرشحات البريد العشوائي) إلى "مرتفع" (أدوات الذكاء الاصطناعي لإنفاذ القانون أو التعليم) أو "غير مقبول" وبالتالي ممنوع (مثل نظام الائتمان الاجتماعي). بعد انفجار نماذج اللغات الكبيرة مثل ChatGPT العام الماضي ، يتسابق المشرعون الآن لإضافة قواعد لـ "النماذج الأساسية" و "أنظمة الذكاء الاصطناعي للأغراض العامة (GPAI)" - وهما مصطلحان للمقياس الاصطناعي لأنظمة الذكاء بما في ذلك LLM - وربما يصنف على أنه خدمات عالية الخطورة.

المشرعين في الاتحاد الأوروبي قد توصلوا إلى اتفاق مبدئي بشأن قانون الذكاء الاصطناعي في 27 أبريل. وستصوت لجنة على المشروع في 11 مايو / أيار ، ومن المتوقع تقديم الاقتراح النهائي في منتصف يونيو / حزيران. لذلك ، يتعين على المجلس الأوروبي والبرلمان والمفوضية القيام بذلك حل أي نزاعات متبقية قبل تنفيذ القانون. إذا سارت الأمور بسلاسة ، يمكن اعتمادها بحلول النصف الثاني من عام 2024 ، خلف الهدف بقليل رسمي الانتخابات الأوروبية في مايو 2024.

لا يزال لدى OpenAI أهداف يتعين تحقيقها. هناك حتى 30 سبتمبر لإنشاء حد عمر أكثر صرامة لإبعاد الأطفال دون سن 13 عامًا والمطالبة بموافقة الوالدين للمراهقين الأكبر سنًا دون السن القانونية. إذا فشل ، فقد يتم حظره مرة أخرى. لكنها قدمت مثالاً لما تعتبره أوروبا سلوكًا مقبولاً لشركة ذكاء اصطناعي ، على الأقل حتى يتم إصدار قوانين جديدة.

قراءات ذات صلة

Ercole Palmeri

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

المقالات الأخيرة

يوقع الناشرون وOpenAI اتفاقيات لتنظيم تدفق المعلومات التي تتم معالجتها بواسطة الذكاء الاصطناعي

أعلنت صحيفة فاينانشيال تايمز يوم الاثنين الماضي عن صفقة مع OpenAI. "فاينانشيال تايمز" ترخص صحافتها ذات المستوى العالمي...

أبريل 30 2024

المدفوعات عبر الإنترنت: إليك كيف تجعلك خدمات البث تدفع إلى الأبد

يدفع الملايين من الأشخاص مقابل خدمات البث، ويدفعون رسوم الاشتراك الشهرية. من الشائع أنك…

أبريل 29 2024

يتميز Veeam بالدعم الأكثر شمولاً لبرامج الفدية، بدءًا من الحماية وحتى الاستجابة والاسترداد

سوف تستمر شركة Coveware by Veeam في تقديم خدمات الاستجابة لحوادث الابتزاز السيبراني. ستوفر Coveware إمكانات الطب الشرعي والمعالجة...

أبريل 23 2024

الثورة الخضراء والرقمية: كيف تعمل الصيانة التنبؤية على تغيير صناعة النفط والغاز

تُحدث الصيانة التنبؤية ثورة في قطاع النفط والغاز، من خلال اتباع نهج مبتكر واستباقي لإدارة المحطات.

أبريل 22 2024

اقرأ الابتكار بلغتك

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

تابعنا