بضائع

جيل مزيف

مرة أخرى في 31 يناير 2022 ، نشرنا على مدونة ليلى ملف المادة الأولى يتكون من خوارزمية توليدية ، لتوضيح خوارزمية تتبع نفس البنية التكنولوجية لـ شات جي بي تي تم تطويره بواسطة OpenAI.

لم تكن الأولى ولن تكون الأخيرة defiلقد نشرنا nitiva 4 دائمًا ما يشير صراحةً إلى من كتبهم.

لكن التجارب ذهبت إلى أبعد من ذلك ، فقد أنشأنا العشرات من المحتويات حتى أعلنت الخوارزمية ، في إطار التركيز على آفاق التسويق العقاري في عام 2023 ، عن الاقتباس التالي:

صرح رئيس جمعية مشتري المنازل في هونج كونج مارك شين هانج لصحيفة South China Morning Post أنه على الرغم من انخفاض قيمة المنازل المكتملة حديثًا في الإقليم ، إلا أن حجم المبيعات لا يزال مرتفعًا. قال شين هانج: "هذا لأن الأشخاص الذين لديهم خطط استثمارية قوية دخلوا السوق بالفعل من الخارج".

عنصر الطمأنينة

ظهر هذا الاقتباس كملف عنصر الطمأنينة يناسب تمامًا سياق المقال. ولكن قبل إرسالها عبر الإنترنت ، قررنا التحقق من المصدر من أجل الاكتمال بهدف الاستشهاد به بشكل مناسب. حسنًا ، ما اكتشفناه هو أن Mark Chien-hang غير موجود ، تمامًا كما لا توجد جمعية مشتري المنازل في هونغ كونغ. لا يظهر النص المقتبس منه على الويب وإذا اعتقد شخص ما أنه قد تكون هناك أرشيفات للمعلومات تغذي أنظمة الذكاء الاصطناعي هذه التي لا يمكن الوصول إليها مباشرة عبر الإنترنت ، حسنًا ، هذا ليس هو الحال: الاقتباس مخترع تمامًا!

تتمتع أنظمة الذكاء الاصطناعي التوليدية بالقدرة على "إنشاء" محتوى بأسلوب وشكل المحتوى الذي تدربت عليه، لكنها لا "تخزن" البيانات ولا تستطيع استعادتها إلى شكلها الأصلي. يعمل الذكاء الاصطناعي التوليدي مثل الصناديق السوداء، المكونة من شبكات عصبية اصطناعية لا يمكن تطبيق أي شكل من أشكال الذكاء عليها. الهندسة العكسية. بمعنى آخر ، تصبح بيانات التدريب أرقامًا ولا توجد علاقة مباشرة بين هذه الأرقام والبيانات التي ولّدتها.

حتى الآن لم يعثروا على أي تطبيق تجاري نظرًا لخطر إمكانية تقديم معلومات غير صحيحة تمامًا في سياقات حساسة.

تقرأ شروط استخدام OpenAI لـ ChatGPT: 

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

«يُنظر إلى المدخلات والمخرجات بشكل جماعي على أنها" محتوى ". [...] المستخدم مسؤول عن المحتويات فيما يتعلق بضمان عدم انتهاكها لأي مادة من مواد القانون [...] »

إذا كانت المعلومات التي تم إنشاؤها بواسطة ChatGPT تعرض أولئك الذين يستخدمونها لخطر نشر انتهاكات كاذبة أو تشهيرية أو غيرها من انتهاكات القانون ، لهذا السبب بالذات ، تحمي OpenAI نفسها من خلال رفض أي مسؤولية عن الكشف عن المحتويات الناتجة عن ذكاءها الاصطناعي.

في الوقت الحالي ، فإن العقول العظيمة لـ آلة التعلم ولم يتمكنوا بعد من إنتاج أي شيء أفضل من الأنظمة التي تجيب على كل سؤال فقط من خلال الكذب من خلال أسنانهم. وإذا استجابت أنظمة الذكاء الاصطناعي هذه بشكل صحيح في بعض الأحيان، فهذا مجرد صدفة وليس أكثر.

أرتيكولو دي Gianfranco Fedele

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

المقالات الأخيرة

يوقع الناشرون وOpenAI اتفاقيات لتنظيم تدفق المعلومات التي تتم معالجتها بواسطة الذكاء الاصطناعي

أعلنت صحيفة فاينانشيال تايمز يوم الاثنين الماضي عن صفقة مع OpenAI. "فاينانشيال تايمز" ترخص صحافتها ذات المستوى العالمي...

أبريل 30 2024

المدفوعات عبر الإنترنت: إليك كيف تجعلك خدمات البث تدفع إلى الأبد

يدفع الملايين من الأشخاص مقابل خدمات البث، ويدفعون رسوم الاشتراك الشهرية. من الشائع أنك…

أبريل 29 2024

يتميز Veeam بالدعم الأكثر شمولاً لبرامج الفدية، بدءًا من الحماية وحتى الاستجابة والاسترداد

سوف تستمر شركة Coveware by Veeam في تقديم خدمات الاستجابة لحوادث الابتزاز السيبراني. ستوفر Coveware إمكانات الطب الشرعي والمعالجة...

أبريل 23 2024

الثورة الخضراء والرقمية: كيف تعمل الصيانة التنبؤية على تغيير صناعة النفط والغاز

تُحدث الصيانة التنبؤية ثورة في قطاع النفط والغاز، من خلال اتباع نهج مبتكر واستباقي لإدارة المحطات.

أبريل 22 2024

اقرأ الابتكار بلغتك

النشرة الإخبارية
لا تفوّت أهم أخبار الابتكار. قم بالتسجيل لتلقيهم عن طريق البريد الإلكتروني.

تابعنا