Генеративний ШІ

Ще 31 січня 2022 року ми опублікували в блозі Лейли перша стаття складається з генеративного алгоритму, так би мовити, алгоритму, який дотримується тієї ж технологічної архітектури, що й ChatGPT розроблений OpenAI.

Це не перший і не останній, зрештою ми опублікували 4 з них, завжди чітко вказуючи, хто їх написав.

Але експерименти пішли далі, ми створили десятки вмісту доалгоритм, зосереджуючись на перспективах маркетингу нерухомості у 2023 році, не повідомила таку цитату:

«Президент Асоціації покупців житла Гонконгу Марк Чієн Ханг сказав South China Morning Post, що хоча вартість нещодавно завершених будинків на території падає, обсяг продажів все ще високий. «Це тому, що люди з серйозними інвестиційними планами вже вийшли на ринок з-за кордону», — сказав Чієн Ханг.

елемент заспокоєння

Ця цитата з'явилася як a елемент заспокоєння ідеально вписується в контекст статті. Але перед тим, як надіслати його онлайн, ми вирішили перевірити джерело для повноти з метою відповідного цитування. Що ж, ми з’ясували, що Марка Чіенханга не існує, так само як немає Гонконгської асоціації покупців житла. Цитований текст не з’являється в Інтернеті, і якщо хтось подумає, що можуть існувати архіви інформації, які живлять ці штучні інтелекти, які недоступні безпосередньо в Інтернеті, то це не так: цитата повністю вигадана!

Генеративний штучний інтелект має здатність «генерувати» контент у стилі та формі контенту, на якому вони навчаються, але вони не «зберігають» дані та не можуть відновити їх до початкової форми. Генеративний ШІ працює як чорні скриньки, що складаються зі штучних нейронних мереж, для яких жодна форма зворотне проектування. Іншими словами, навчальні дані стають числами, і немає прямого зв’язку між цими числами та даними, які їх створили.

На сьогоднішній день вони все ще не знаходять комерційного застосування через ризик того, що вони можуть надавати абсолютно невірну інформацію в конфіденційних контекстах.

Умови використання OpenAI для ChatGPT гласять: 

«Вхід і вихід слід розглядати разом як «Вміст». [...] Користувач несе відповідальність за Вміст щодо гарантії того, що він не порушує жодної статті Закону [...]»

Якщо інформація, створена ChatGPT, наражає тих, хто її використовує, на ризик публікації неправдивих, наклепницьких чи інших порушень закону, саме з цієї причини OpenAI захищає себе, відмовляючись від будь-якої відповідальності за розголошення вмісту, створеного своїми власними засобами. штучний інтелект.

На даний момент великі уми в навчання за допомогою машини вони ще не змогли виробити нічого кращого, ніж системи, які відповідають на кожне питання лише брешем крізь зуби. І якщо ці штучні інтелекти іноді реагують правильно, то це звичайний збіг і не більше того.

Артиколо ді Gianfranco Fedele

Авторе

Вам може бути цікаво…