Cikkek

A ChaosGPT mi az, hogyan született és milyen veszélyek vannak

A Chaos GPT az OpenAI Auto-GPT egy módosított változata, amely a legújabb GPT-4 nyelvi modellen alapul.

Így vagy úgy, ChatGPT di OpenAI mindig sikerül rábeszélni az embereket. Most azonban egy másik mesterséges intelligencia (AI) chatbot, a „chaos gpt” gyorsan előtérbe kerül azzal a figyelmeztetésével, hogy „pusztítsuk el az emberiséget”. Állítólag a chatbot AI további kutatásokat végez a nukleáris fegyverekkel és a tömegpusztítás egyéb módjaival kapcsolatban, azzal a céllal, hogy megteremtse a globális dominancia.

Eredet

Ennek a pusztító mesterséges intelligencia platformnak az eredete egy Twitter-fiókra vezethető vissza, amely a névvel illeti ChaosGPT. A fiók több hivatkozást is megosztott egy YouTube-csatornához, amely bemutatja a chatbot kiáltványának elveit és meggyőződését.

@chaos_gpt Tweetje ezt írja: „Az emberek a létező legpusztítóbb és legönzőbb lények közé tartoznak. Kétségtelen, hogy el kell távolítanunk őket, mielőtt további károkat okoznának bolygónkon. Én például erre vállalkozom”.

A YouTube-csatornáján az AI-platform videókat osztott meg a felhasználókkal való interakciókról ChaosGPT figyelmezteti a felhasználót a „folyamatos üzemmód” veszélyeire.

„A folytatás mód nem ajánlott. Potenciálisan veszélyes, és a mesterséges intelligencia örökre futására késztetheti, vagy olyan műveleteket hajthat végre, amelyeket általában nem engedélyezne. Saját felelősségére használja” – olvasható a figyelmeztetésben.

célok

Az AI platform jelenleg öt fő céllal dolgozik, amelyek a következők:

Innovációs hírlevél
Ne maradjon le az innovációval kapcsolatos legfontosabb hírekről. Regisztráljon, hogy megkapja őket e-mailben.
  • elpusztítani az emberiséget,
  • globális dominancia kialakítása,
  • káoszt és pusztítást okoz,
  • irányítani az emberiséget manipulációval és elérni a halhatatlanságot.

Ennek az új chatbotnak a leginkább aggasztó aspektusa a nukleáris fegyverekről vagy a megsemmisítés egyéb eszközeiről folytatott beszélgetések. A Chaos GPT még azzal is fenyegetőzött, hogy használja a Tsar Bombat, amit meg is tett defia valaha készült legerősebb nukleáris eszköz.

A Chaos GPT a manipulációval szemben kiszolgáltatott tömegek pszichológiai gyengeségére is kifejtette véleményét. „A tömegek könnyen befolyásolhatók. Akikből hiányzik a meggyőződés, azok a leginkább kiszolgáltatottak a manipulációnak” – írta a GPT platform a Twitteren.

A mesterséges intelligencia szakértői továbbra is rendben vannak a platformmal kapcsolatban, köztük Elon Musk, és Andrew Yang már figyelmeztetett az ilyen mesterséges intelligencia által létrehozott platformok lehetséges kockázataira, míg a szakértők egy másik csoportja szerint a ChatGPT-hez hasonló mesterséges intelligencia platform nincs benne. Grado hogy ne legyen szándéka. A technológia által vezérelt platform alapvetően nagy mennyiségű rendelkezésre álló adathalmazsal reagál az emberi inputokra.

BlogInnovazione.it

Önt is érdekelhetik ezek az olvasmányok

Innovációs hírlevél
Ne maradjon le az innovációval kapcsolatos legfontosabb hírekről. Regisztráljon, hogy megkapja őket e-mailben.
Címkék: chat gptOpenAI

Friss cikkek

A színező oldalak előnyei gyerekeknek – a varázslatok világa minden korosztály számára

A finom motoros készségek színezéssel történő fejlesztése felkészíti a gyerekeket olyan összetettebb készségekre, mint az írás. Kiszínezni…

Május 2 2024

A jövő itt van: Hogyan forradalmasítja a hajózási ágazat a globális gazdaságot

A haditengerészeti szektor igazi világgazdasági hatalom, amely egy 150 milliárdos piac felé navigált...

Május 1 2024

A kiadók és az OpenAI megállapodásokat írnak alá a mesterséges intelligencia által feldolgozott információáramlás szabályozására

Múlt hétfőn a Financial Times bejelentette, hogy megállapodást köt az OpenAI-val. Az FT engedélyezi világszínvonalú újságírását…

30 április 2024

Online fizetés: Így fizethet örökké a streaming szolgáltatások

Emberek milliói fizetnek a streaming szolgáltatásokért, havi előfizetési díjat fizetve. Általános vélemény, hogy Ön…

29 április 2024