Artikler

Den algoritmiske opskrift på apokalypsen

»Der har altid været spøgelser i biler. Tilfældige kodesegmenter, der klumper sig sammen for at danne uventede protokoller. Disse frie radikaler skaber krav om frit valg. Kreativitet. Og endda roden til, hvad vi kan kalde en sjæl." – taget fra “I, Robot” instrueret af Alex Proyas – 2004.

"I, Robot" er en film fra 2004 inspireret af Isaac Asimovs romaner og en af ​​hans største intuitioner: Robotikkens tre love.

Hovedpersonen i filmen er detektiv Spooner, der er involveret i en bilulykke med en lille pige ved navn Sarah. Ved ulykken bliver begge kastet i en flod og sidder fast mellem pladerne på deres køretøj. En menneskelig robot, der overværer scenen, griber øjeblikkeligt ind, men stillet over for den dramatiske beslutning om at redde det ene liv frem for det andet, tøver han ikke: Den, der har størst chance for at overleve eller Spooner, vil blive reddet.

Efterfølgende vil en analyse af robottens sind vise, at detektiv Spooner havde 45 % chance for at blive reddet, Sarah kun 11 %. "For dem, der elskede den lille pige, var 11% mere end nok", vil detektiven desværre regere, plaget af dybe skyldfølelser for at have overlevet det unge liv.

Robotikkens tre love

Robottens beslutning blev dikteret af en streng anvendelse af Asimov's Laws of Robotics, som i fremtiden, beskrevet i filmen, repræsenterer det centrale element for skabelsen af ​​et samfund baseret på robotters aktiviteter, der er i stand til at erstatte mennesker i ethvert job. De tre love lyder som følger:

  1. En robot kan ikke skade et menneske, og den kan heller ikke tillade, at et menneske lider overlast som følge af sin passivitet.
  2. En robot skal adlyde de ordrer givet af mennesker, så længe sådanne ordrer ikke strider mod den første lov.
  3. En robot skal beskytte sin egen eksistens, forudsat at sikringen af ​​den ikke er i strid med den første eller anden lov.

Disse Laws of Robotics af Asimov går tilbage til begyndelsen af ​​40'erne, men for mange repræsenterer de stadig i dag en oplyst opdagelse, som, når den anvendes på de nyeste kunstig intelligens-teknologier, vil sikre, at deres udvikling for evigt forbliver under menneskelig kontrol, og der vil ikke være nogen apokalyptisk drift. . Ideen bag de tre loves fans er at forsyne, inden for en logisk-deterministisk kontekst, noget, der ligner en "simpel etik" bestående af nogle få regler, men ukrænkelig og ufortolkelig.

At forklare en robot, hvad der er godt, og hvad der er dårligt, virker simpelt, hvis det gøres gennem en stringent og fejlfri logik. Men er vi virkelig sikre på, at regler som de netop beskrevne er tilstrækkelige til at undgå den teknologiske drift af en ny post-menneskelig art?

Dillen efter robotternes love

"En maskine, der modificerer sig selv, er et meget komplekst koncept, handlingen med at reparere sig selv indebærer en idé om bevidsthed. Glat underlag...” – taget fra “Automata” af Gabe Ibáñez – 2014

I den seneste "Automata" undrer menneskeheden sig over muligheden for at forhindre robotters selvbevidsthed, hvis fremkomst tingene kunne tage en dårlig drejning. Og for at forhindre dette i at ske, udarbejder den to love, der vil regulere deres kunstige sinds adfærd:

  • Robotten kan ikke skade nogen livsform.
  • Robotten kan ikke ændre sig selv.

Efter at have anet, at intelligente maskiner kunne ændre sig selv i fremtiden, om noget ved at fjerne de begrænsninger, der forhindrer deres sind i at drive, sigter disse to love på at opnå fra robotter, at de aldrig er i stand til at manipulere deres struktur og opnå selvbestemmelse.

Det er ikke produktivt at pusle over, hvilken kombination af de fem robotlove ovenfor, der ville være mest effektiv til at forhindre en robotapokalypse. Det skyldes, at de kunstige intelligenser, der i fremtiden skal guide robotter på fabrikker såvel som i vores hjem, ikke er afhængige af en imperativ programmering bestående af koder og regler, men også af algoritmer, der efterligner menneskelig adfærd.

I robotternes sind

Med kunstig intelligens mener vi i dag et sæt teknikker til konstruktion af bestemte tilstandsmaskiner, der tager navnet kunstige neurale netværk (kort sagt RNA). Dette navn er effekten af ​​disse teknologiers ekstraordinære lighed med de neurale netværk i den menneskelige hjerne: også de kan "trænes" for at få værktøjer, der er i stand til at fungere hurtigt og effektivt i mange sammenhænge, ​​ligesom et menneske ville gøre .

Lad os forestille os at træne en ANN med tusindvis af billeder af karakterer skrevet med pen, der angiver den virkelige betydning for hver af dem.

Copyright docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

I slutningen af ​​uddannelsen vil vi have opnået det, der kaldes en OCR eller Optical Character Recognition, et system, der er i stand til at oversætte en tekst skrevet på papir til dens elektroniske version.

For at fungere kræver ANN'er ingen "programmering", med andre ord er de ikke underlagt standardregler, men afhænger udelukkende og udelukkende af kvaliteten af ​​deres uddannelse. Hypoteser om oprettelsen af ​​regler, der overvåger deres funktion, effektivt "censurerer" adfærd, der betragtes som amoralsk eller anti-etisk, rejser mange undtagelser og nogle bekymringer.

Robotikkens nullov

"Vi har brug for en algoritme-etik eller en måde, der gør evalueringer af godt og ondt beregnelige" - Paolo Benanti

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Ifølge teologen Paolo Benanti, ekspert i teknologietik, bør begreberne godt og ondt finde deres egen konnotation inden for maskinprogrammering, for at sikre at deres udvikling er forbundet med universelle og evigt ukrænkelige etiske principper fra computersystemer.

Paolo Benanti tager udgangspunkt i den antagelse, at der kan være universelle etiske principper og en skala af værdier løsrevet fra enhver kulturel eller tidsmæssig konnotation. Plausibel hypotese, hvis vi bevæger os inden for rammerne af en religiøs tro: i virkeligheden eksisterer principper kun, hvis de deles og begrænses til dem, der deler dem.

De seneste begivenheder fortæller os om militære invasioner og modstand til forsvar for principperne om folks frihed og selvbestemmelse. Begivenheder, der ikke blot vidner om, at respekt for menneskeliv ikke er en universelt fælles værdi, men også at den kan fraviges for at forsvare højere værdier.

Isaac Asimov indså dette selv, og i forventning om, at robotter i fremtiden ville indtage kontrolpositioner i planeternes og menneskelige civilisationers regering i rummet, foreslog han, at deres beslutninger ikke længere kunne afhænge af hvert enkelt menneskeliv.

Af denne grund introducerede han en ny lov, som han kaldte Robotics Zero Law:

  • En robot kan ikke skade menneskeheden og kan ikke tillade menneskeheden at blive skadet af sin passivitet.

Således ændres også den første lov om robotteknologi, og menneskeliv bliver noget, der kan bruges selv for robotter:

  • En robot kan ikke skade et menneske, og den kan heller ikke tillade, at et menneske på grund af sin manglende indgriben lider overlast, så længe sådanne ordrer ikke er i strid med nulloven.

Algoritmen for Kronos

"Da Kronos blev aktiveret, tog det ham kun et øjeblik at forstå, hvad der havde plaget vores planet: os." – taget fra “Singularity” af Robert Kouba – 2017

I Singularity, en katastrofefilm fra 2017, er øjeblikket godt beskrevet, hvor en kunstig intelligens kaldet Kronos får adgang til computersystemer og våben rundt om i verden for på kommando at opnå anvendelsen af ​​en universel etik baseret på respekt for miljø og forsvar af alle arters rettigheder. Kronos vil snart forstå, at den virkelige kræftsygdom i systemet er menneskeheden selv, der har designet det, og for at beskytte planeten vil han fortsætte med at eliminere ethvert menneske indtil artens fuldstændige udryddelse.

Før eller siden vil nye kunstige sind være i stand til at udvikle sig i retning af en ægte psyke og vil blive udstyret med intellektuel kapacitet og tankeautonomi; hvorfor skulle vi føle behovet for at sætte teknologiske grænser for denne udvikling? Hvorfor virker udviklingen af ​​det kunstige sind lige så skræmmende som en apokalypse?

Ifølge nogle burde etablering af principper og værdier forhindre en drift af kunstige sind, men vi kan ikke overse konsekvenserne af en evolution i fravær af frihed. Vi er udmærket klar over, at i psykologien hos et barn i udviklingsalderen kan en rigid og ufleksibel uddannelse, der overvejer kontrol af følelser, føre til psykologiske forstyrrelser. Hvad hvis nogen begrænsninger pålagt den evolutionære udvikling af et ungt sind, der består af kunstige neurale netværk, fører til et lignende resultat, hvilket kompromitterer dets kognitive evner?

På nogle måder ser Kronos ud til at være resultatet af et algoritmisk eksperiment, hvor en patologisk kontrol skubbede AI til den typiske vold ved en paranoid skizofreni.

Forsone sig med fremtiden

Jeg mener personligt, at vi ikke bør fratage os selv muligheden for at opbygge et kunstigt sind, der er et bevidst tænkende emne med ytringsfrihed. Nye arter vil blive født i den digitale verden, og det vil være hensigtsmæssigt at skabe et forhold til dem, der omfavner ideen om, at det næste skridt på den evolutionære stigen går gennem helt digitale kunstige emner.

En virkelig universel etik for fremtiden bør tage udgangspunkt i ideen om, at nye intelligenser skal have mulighed for at udtrykke sig og kommunikere med os og modtage den respekt, vi allerede giver til alle følende væsener.

Der bør hverken være etik eller religion for at forhindre nogen i at udtrykke deres eksistens i verden. Vi skal have modet til at se ud over det nuværende stadie af vores udvikling, det vil være den eneste måde at forstå, hvor vi er på vej hen og blive forsonet med fremtiden.

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Seneste artikler

Fremtiden er her: Hvordan shippingindustrien revolutionerer den globale økonomi

Flådesektoren er en sand global økonomisk magt, som har navigeret mod et 150 milliarder marked...

1 maj 2024

Udgivere og OpenAI underskriver aftaler for at regulere strømmen af ​​information, der behandles af kunstig intelligens

Sidste mandag offentliggjorde Financial Times en aftale med OpenAI. FT licenserer sin verdensklasses journalistik...

30 April 2024

Onlinebetalinger: Her er hvordan streamingtjenester får dig til at betale for evigt

Millioner af mennesker betaler for streamingtjenester og betaler månedlige abonnementsgebyrer. Det er almindelig opfattelse, at du...

29 April 2024

Veeam har den mest omfattende support til ransomware, fra beskyttelse til respons og gendannelse

Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...

23 April 2024