Artificiell intelligens

Identifiering är ingen etisk princip utan ett smutsigt knep!

Sedan jag började jobba med projektet Laila, ett ekosystem av artificiell intelligens för att stödja en konversationsagent dedikerad till företag, lärde jag mig att AI erbjuder enorma möjligheter för utveckling och innovation, men majoriteten av företag som hävdar att de använder det tillämpar tyvärr bara en marknadsföringsstrategi.

Google Duplex viral video

Så snart det presenterades för världen, fångade Google Duplex omedelbart webbens uppmärksamhet. Presenteras under Google IO 2018, lyckas denna teknik baserad på artificiell intelligens att imitera en människa som avser att för sin användares räkning boka en session hos frisören och ett bord på restaurangen, och upprätthålla ett ganska flytande telefonsamtal med båda företagen.

Videodemon verkar dock verklig för många den är oäkta. Säkert är konversationerna, som verkar ganska komplexa, om de inte har sammanställts på ett konstigt sätt, verkligen resultatet av många försök och lite tur: vid två framgångsrika telefonsamtal vet vi inte hur många andra Google Duplex som kan ha misslyckats kapitalt.

Effekten som frambringas av presentationen påminner mig om det fantastiska föredrag som Amazon höll när den 2013, med en video på Youtube, presenterade för världen Amazon Prime Air, det innovativa leveranssystemet baserat på drönare; detta revolutionära system, efter många år, är fortfarande i experimentfasen och vi bara dödliga har vant oss vid tanken att "all" denna science fiction som hittats i slutändan bara är ett nytt sätt att göra virala videor.

Det som slog mig med Google Duplex är den lilla teatern som inrättats kring en påstådd etisk fråga som redan togs upp några timmar efter publiceringen av videon och omedelbart återlanserades av de viktigaste nättidningarna. Kort sagt, enligt vissa: AI:er som simulerar mänskligt beteende utgör ett etiskt problem om de döljer sin natur och utger sig för att vara människor.

Ögonblicksbild av Googles svar: "Duplex kommer omedelbart att kunna identifieras av din samtalspartner".

Låt oss ta ett steg tillbaka

Google har alltid vant oss vid att använda dess teknik, och aldrig avslöjat hur de är tillverkade och hur de fungerar. Dess sökmotor är representativ för denna filosofi: algoritmen som ligger bakom den är en industriell hemlighet av ovärderligt värde, ingen anser sig kunna avslöja dess hemligheter. Och just på grund av dess outgrundliga natur har vi blivit vana vid att inte ifrågasätta dess effektivitet, vare sig den är verklig eller förmodad. Vi använder det bara.

Det spelar ingen roll om antalet resultat ändras om du går från en sida till en annan i en sökning; eller om det kommer fram något från vår forskning som vi aldrig trodde att vi skulle associera med vår avsikt.

Ändå framstår dessa små misslyckanden i våra ögon som enkla brister, små brister i ett system så sofistikerat att vi ibland undrar om Google hade rätt och om vi hade fel.

Ta till exempel Google Search Suggest, systemet för automatisk komplettering med vilket Google föreslår vad du ska leta efter medan vi skriver. Detta system, som för mig väcker många fler etiska problem än Google Duplex, verkar användbart och intelligent, men bakom dess effektivitet döljer det sig ett trick av riktiga hackare: Googles sökmotor arbetar med "sökord", grupper av ord som representerar sökavsikten av sina användare. Varje nytt sökord är ett uttryck för ett behov och kräver specifik bearbetning för att Google ska kunna svara adekvat. Google har oerhört stor datorkraft, men idag är det opraktiskt att föreställa sig att organisera resultaten av sin motor enligt "alla möjliga kombinationer av ord".

Nyhetsbrev för innovation
Missa inte de viktigaste nyheterna om innovation. Registrera dig för att få dem via e-post.
Google Search Suggest tar upp mycket mer etiska frågor än Google Duplex.

Av denna anledning uppmärksammar Google endast sökord som har uttryckts tillräckligt många gånger för att skapa ett utbrett behov. För allt annat, improvisera: liknande ord, analogier med andra nyckelord, identifiering av slumpmässiga texter är de system som används för att komma till botten med de situationer som annars inte verkar ha någon utväg.

Antalet resultat, som sidorna, ändrar söksidan framåt och det är aldrig möjligt att inspektera resultaten bortom en viss sida: märk väl, resultaten som finns på sidan 30 är till ingen nytta för någon, men varför underhålla att Har sökordet "tryckta stammar" 160 300 resultat om färre än XNUMX kan visas?

Google Search Suggest är Googles sätt att försöka "förutse" oss: genom att föreslå sökavsikter som redan är kända för Google försöker Google vägleda oss mot en sökning som den kan svara utan knep: genom att övertyga användaren att använda en söknyckel Sök bland de som den har i magen ger Google inte bara ett användbart resultat utan räddar sig själv från att behöva lägga till ett nytt sökord till listan över de som det kommer att behöva spendera en del av sin datorkraft för.

Den operativa-funktionella överseendet

Om vi ​​går tillbaka till Google Duplex, vi är i 2022 och det har inte pratats om det på ett tag, men av den här erfarenheten har vi lärt oss att att identifiera oss som ett konstgjort samtalssystem inte är svaret på ett etiskt problem utan snarare ett hackers trick : om den som pratar med Duplex är medveten om att han pratar med ett automatiserat system vet han också att han måste röra sig på rätt sätt, stödja honom i samtalet och hjälpa honom att förstå dess innehåll.

För Google Duplex är att identifiera sig som ett artificiellt system inte svaret på ett etiskt problem utan snarare ett hackers trick.

När vi kommunicerar med Cortana, Alexa, Siri använder vi automatiskt alltid samma uttryck, samma formler eftersom detta är viktigt om vi vill undvika att inte bli förstådda av våra system.

Identifiering är för Google Duplex ett sätt att få från människor att "förstå" sina gränser, en form av operativt-funktionell överseende som alla vi människor har lärt oss att ha gentemot den teknik som, samtidigt som den gör en ansträngning, inte ger tillbaka allt som är skapare som de lovar.

Artikel av Gianfranco Fedele

Nyhetsbrev för innovation
Missa inte de viktigaste nyheterna om innovation. Registrera dig för att få dem via e-post.

Articoli recenti

Brittisk antitrustregulator väcker larm över BigTech över GenAI

UK CMA har utfärdat en varning om Big Techs beteende på marknaden för artificiell intelligens. Där…

18 April 2024

Casa Green: energirevolution för en hållbar framtid i Italien

Dekretet "Gröna hus", formulerat av Europeiska unionen för att förbättra energieffektiviteten i byggnader, har avslutat sin lagstiftningsprocess med...

18 April 2024

E-handel i Italien på +27 % enligt den nya rapporten från Casaleggio Associati

Casaleggio Associatis årsrapport om e-handel i Italien presenteras. Rapport med titeln "AI-Commerce: gränserna för e-handel med artificiell intelligens"....

17 April 2024

Briljant idé: Bandalux presenterar Airpure®, gardinen som renar luften

Resultat av ständig teknisk innovation och engagemang för miljön och människors välbefinnande. Bandalux presenterar Airpure®, ett tält...

12 April 2024