»Der har altid været spøgelser i biler. Tilfældige kodesegmenter, der klumper sig sammen for at danne uventede protokoller. Disse frie radikaler skaber krav om frit valg. Kreativitet. Og endda roden til, hvad vi kan kalde en sjæl." – taget fra “I, Robot” instrueret af Alex Proyas – 2004.
"I, Robot" er en film fra 2004 inspireret af Isaac Asimovs romaner og en af hans største intuitioner: Robotikkens tre love.
Hovedpersonen i filmen er detektiv Spooner, der er involveret i en bilulykke med en lille pige ved navn Sarah. Ved ulykken bliver begge kastet i en flod og sidder fast mellem pladerne på deres køretøj. En menneskelig robot, der overværer scenen, griber øjeblikkeligt ind, men stillet over for den dramatiske beslutning om at redde det ene liv frem for det andet, tøver han ikke: Den, der har størst chance for at overleve eller Spooner, vil blive reddet.
Efterfølgende vil en analyse af robottens sind vise, at detektiv Spooner havde 45 % chance for at blive reddet, Sarah kun 11 %. "For dem, der elskede den lille pige, var 11% mere end nok", vil detektiven desværre regere, plaget af dybe skyldfølelser for at have overlevet det unge liv.
Robottens beslutning blev dikteret af en streng anvendelse af Asimov's Laws of Robotics, som i fremtiden, beskrevet i filmen, repræsenterer det centrale element for skabelsen af et samfund baseret på robotters aktiviteter, der er i stand til at erstatte mennesker i ethvert job. De tre love lyder som følger:
Disse Laws of Robotics af Asimov går tilbage til begyndelsen af 40'erne, men for mange repræsenterer de stadig i dag en oplyst opdagelse, som, når den anvendes på de nyeste kunstig intelligens-teknologier, vil sikre, at deres udvikling for evigt forbliver under menneskelig kontrol, og der vil ikke være nogen apokalyptisk drift. . Ideen bag de tre loves fans er at forsyne, inden for en logisk-deterministisk kontekst, noget, der ligner en "simpel etik" bestående af nogle få regler, men ukrænkelig og ufortolkelig.
At forklare en robot, hvad der er godt, og hvad der er dårligt, virker simpelt, hvis det gøres gennem en stringent og fejlfri logik. Men er vi virkelig sikre på, at regler som de netop beskrevne er tilstrækkelige til at undgå den teknologiske drift af en ny post-menneskelig art?
"En maskine, der modificerer sig selv, er et meget komplekst koncept, handlingen med at reparere sig selv indebærer en idé om bevidsthed. Glat underlag...” – taget fra “Automata” af Gabe Ibáñez – 2014
I den seneste "Automata" undrer menneskeheden sig over muligheden for at forhindre robotters selvbevidsthed, hvis fremkomst tingene kunne tage en dårlig drejning. Og for at forhindre dette i at ske, udarbejder den to love, der vil regulere deres kunstige sinds adfærd:
Efter at have anet, at intelligente maskiner kunne ændre sig selv i fremtiden, om noget ved at fjerne de begrænsninger, der forhindrer deres sind i at drive, sigter disse to love på at opnå fra robotter, at de aldrig er i stand til at manipulere deres struktur og opnå selvbestemmelse.
Det er ikke produktivt at pusle over, hvilken kombination af de fem robotlove ovenfor, der ville være mest effektiv til at forhindre en robotapokalypse. Det skyldes, at de kunstige intelligenser, der i fremtiden skal guide robotter på fabrikker såvel som i vores hjem, ikke er afhængige af en imperativ programmering bestående af koder og regler, men også af algoritmer, der efterligner menneskelig adfærd.
Med kunstig intelligens mener vi i dag et sæt teknikker til konstruktion af bestemte tilstandsmaskiner, der tager navnet kunstige neurale netværk (kort sagt RNA). Dette navn er effekten af disse teknologiers ekstraordinære lighed med de neurale netværk i den menneskelige hjerne: også de kan "trænes" for at få værktøjer, der er i stand til at fungere hurtigt og effektivt i mange sammenhænge, ligesom et menneske ville gøre .
Lad os forestille os at træne en ANN med tusindvis af billeder af karakterer skrevet med pen, der angiver den virkelige betydning for hver af dem.
I slutningen af uddannelsen vil vi have opnået det, der kaldes en OCR eller Optical Character Recognition, et system, der er i stand til at oversætte en tekst skrevet på papir til dens elektroniske version.
For at fungere kræver ANN'er ingen "programmering", med andre ord er de ikke underlagt standardregler, men afhænger udelukkende og udelukkende af kvaliteten af deres uddannelse. Hypoteser om oprettelsen af regler, der overvåger deres funktion, effektivt "censurerer" adfærd, der betragtes som amoralsk eller anti-etisk, rejser mange undtagelser og nogle bekymringer.
"Vi har brug for en algoritme-etik eller en måde, der gør evalueringer af godt og ondt beregnelige" - Paolo Benanti
Ifølge teologen Paolo Benanti, ekspert i teknologietik, bør begreberne godt og ondt finde deres egen konnotation inden for maskinprogrammering, for at sikre at deres udvikling er forbundet med universelle og evigt ukrænkelige etiske principper fra computersystemer.
Paolo Benanti tager udgangspunkt i den antagelse, at der kan være universelle etiske principper og en skala af værdier løsrevet fra enhver kulturel eller tidsmæssig konnotation. Plausibel hypotese, hvis vi bevæger os inden for rammerne af en religiøs tro: i virkeligheden eksisterer principper kun, hvis de deles og begrænses til dem, der deler dem.
De seneste begivenheder fortæller os om militære invasioner og modstand til forsvar for principperne om folks frihed og selvbestemmelse. Begivenheder, der ikke blot vidner om, at respekt for menneskeliv ikke er en universelt fælles værdi, men også at den kan fraviges for at forsvare højere værdier.
Isaac Asimov indså dette selv, og i forventning om, at robotter i fremtiden ville indtage kontrolpositioner i planeternes og menneskelige civilisationers regering i rummet, foreslog han, at deres beslutninger ikke længere kunne afhænge af hvert enkelt menneskeliv.
Af denne grund introducerede han en ny lov, som han kaldte Robotics Zero Law:
Således ændres også den første lov om robotteknologi, og menneskeliv bliver noget, der kan bruges selv for robotter:
"Da Kronos blev aktiveret, tog det ham kun et øjeblik at forstå, hvad der havde plaget vores planet: os." – taget fra “Singularity” af Robert Kouba – 2017
I Singularity, en katastrofefilm fra 2017, er øjeblikket godt beskrevet, hvor en kunstig intelligens kaldet Kronos får adgang til computersystemer og våben rundt om i verden for på kommando at opnå anvendelsen af en universel etik baseret på respekt for miljø og forsvar af alle arters rettigheder. Kronos vil snart forstå, at den virkelige kræftsygdom i systemet er menneskeheden selv, der har designet det, og for at beskytte planeten vil han fortsætte med at eliminere ethvert menneske indtil artens fuldstændige udryddelse.
Før eller siden vil nye kunstige sind være i stand til at udvikle sig i retning af en ægte psyke og vil blive udstyret med intellektuel kapacitet og tankeautonomi; hvorfor skulle vi føle behovet for at sætte teknologiske grænser for denne udvikling? Hvorfor virker udviklingen af det kunstige sind lige så skræmmende som en apokalypse?
Ifølge nogle burde etablering af principper og værdier forhindre en drift af kunstige sind, men vi kan ikke overse konsekvenserne af en evolution i fravær af frihed. Vi er udmærket klar over, at i psykologien hos et barn i udviklingsalderen kan en rigid og ufleksibel uddannelse, der overvejer kontrol af følelser, føre til psykologiske forstyrrelser. Hvad hvis nogen begrænsninger pålagt den evolutionære udvikling af et ungt sind, der består af kunstige neurale netværk, fører til et lignende resultat, hvilket kompromitterer dets kognitive evner?
På nogle måder ser Kronos ud til at være resultatet af et algoritmisk eksperiment, hvor en patologisk kontrol skubbede AI til den typiske vold ved en paranoid skizofreni.
Jeg mener personligt, at vi ikke bør fratage os selv muligheden for at opbygge et kunstigt sind, der er et bevidst tænkende emne med ytringsfrihed. Nye arter vil blive født i den digitale verden, og det vil være hensigtsmæssigt at skabe et forhold til dem, der omfavner ideen om, at det næste skridt på den evolutionære stigen går gennem helt digitale kunstige emner.
En virkelig universel etik for fremtiden bør tage udgangspunkt i ideen om, at nye intelligenser skal have mulighed for at udtrykke sig og kommunikere med os og modtage den respekt, vi allerede giver til alle følende væsener.
Der bør hverken være etik eller religion for at forhindre nogen i at udtrykke deres eksistens i verden. Vi skal have modet til at se ud over det nuværende stadie af vores udvikling, det vil være den eneste måde at forstå, hvor vi er på vej hen og blive forsonet med fremtiden.
Flådesektoren er en sand global økonomisk magt, som har navigeret mod et 150 milliarder marked...
Sidste mandag offentliggjorde Financial Times en aftale med OpenAI. FT licenserer sin verdensklasses journalistik...
Millioner af mennesker betaler for streamingtjenester og betaler månedlige abonnementsgebyrer. Det er almindelig opfattelse, at du...
Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...