Intelligenza Artificial

Identificatie is geen ethisch principe maar een vuile truc!

Sinds ik aan het project begon te werken Laila, een ecosysteem van kunstmatige intelligentie ter ondersteuning van een gespreksagent die zich toelegt op bedrijven, heb ik geleerd dat AI enorme kansen biedt voor ontwikkeling en innovatie, maar de meerderheid van de bedrijven die beweren het te gebruiken brengt helaas slechts een marketingstrategie in de praktijk.

De virale video van Google Duplex

Zodra het in de wereld werd geïntroduceerd, trok Google Duplex meteen de aandacht van het web. Gepresenteerd tijdens de Google IO 2018, slaagt deze technologie op basis van kunstmatige intelligentie erin zich voor te doen als een mens die namens de gebruiker een sessie bij de kapper en een tafel in het restaurant wil boeken, waardoor met beide bedrijven een nogal vloeiend telefoongesprek wordt gevoerd.

De videodemo ziet er echt uit, ook al is het voor velen het is nep. Zeker, de gesprekken, die behoorlijk ingewikkeld lijken, als ze niet kunstig zijn samengesteld, zijn zeker het resultaat van vele pogingen en een beetje geluk: bij twee succesvolle telefoontjes weten we niet hoeveel andere Google Duplexen jammerlijk zijn mislukt.

Het effect van de presentatie doet me denken aan het geweldige gesprek dat Amazon deed toen het in 2013 met een video op YouTube aan de wereld presenteerde Amazon Prime Air, het innovatieve bezorgsysteem op basis van drones; dit revolutionaire systeem bevindt zich na vele jaren nog steeds in de experimentele fase en wij gewone stervelingen zijn gewend geraakt aan het idee dat "al" deze gevonden sciencefiction uiteindelijk slechts een nieuwe manier is om virale video's te maken.

Wat me opviel aan Google Duplex is het kleine theater dat is samengesteld rond een vermeende ethische kwestie die al een paar uur nadat de video was gepubliceerd en onmiddellijk opnieuw werd gelanceerd door de belangrijkste online kranten. Kortom, volgens sommigen: AI's die menselijk gedrag simuleren, vormen een ethisch probleem als ze hun aard verhullen en doen alsof ze mens zijn.

Momentopname van de reactie van Google: "Duplex is onmiddellijk herkenbaar voor uw gesprekspartner'.

Laten we een stapje terug doen

Google heeft ons er altijd aan gewend om zijn technologieën te gebruiken door nooit te onthullen hoe ze zijn gemaakt en hoe ze werken. De zoekmachine is representatief voor deze filosofie: het onderliggende algoritme is een industrieel geheim van onschatbare waarde, niemand acht zichzelf in staat zijn geheimen te onthullen. En juist vanwege zijn ondoorgrondelijke aard zijn we eraan gewend geraakt om de effectiviteit ervan, of die nu echt of verondersteld is, niet in twijfel te trekken. Wij gebruiken het gewoon.

Het maakt niet uit of u van de ene naar de andere pagina van een zoekopdracht gaat, het aantal resultaten verandert; of als er iets naar voren komt uit ons onderzoek waarvan we nooit hadden gedacht dat we het zouden associëren met onze intentie.

Toch lijken deze kleine fouten in onze ogen slechts onvolkomenheden, kleine fouten in een systeem dat zo geavanceerd is dat we er soms aan twijfelen of Google gelijk had en wij ongelijk.

Neem bijvoorbeeld de Google Search Suggest, het auto-aanvulsysteem waarmee Google suggereert waar we op moeten letten terwijl we aan het schrijven zijn. Dit systeem, dat voor mij veel meer ethische problemen oproept dan Google Duplex, lijkt nuttig en intelligent, maar achter zijn effectiviteit verbergt het een truc van echte hackers: de Google-zoekmachine werkt op "trefwoorden", groepen woorden die de zoekintentie vertegenwoordigen van zijn gebruikers. Elk nieuw zoekwoord is de uitdrukking van een behoefte en vereist een specifieke verwerking om Google adequaat te laten reageren. Google heeft een enorm grote rekenkracht, maar vandaag de dag is het onpraktisch om je voor te stellen dat de resultaten van zijn engine worden georganiseerd volgens "elke mogelijke combinatie van woorden".

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.
Google Search Suggest roept veel meer ethische problemen op dan Google Duplex.

Om deze reden besteedt Google alleen aandacht aan zoekwoorden die vaak genoeg zijn uitgedrukt om een ​​wijdverbreide behoefte te zijn. Voor al het andere improviseert hij: soortgelijke woorden, overeenkomsten met andere trefwoorden, identificatie van willekeurige teksten zijn de systemen die worden toegepast om situaties aan te pakken die anders zonder uitweg verschijnen.

Het aantal resultaten, zoals dat van pagina's, verandert door de zoekpagina naar voren te verplaatsen en het lukt je nooit om de resultaten buiten een bepaalde pagina te bekijken: laten we duidelijk zijn, de resultaten op pagina 30 zijn voor niemand nuttig, maar waarom beweren dat het zoekwoord "bedrukte stengels" 160 resultaten heeft als er minder dan 300 kunnen worden bekeken?

Google Search Suggest is de manier waarop Google probeert "op ons te anticiperen": door een reeds bekende zoekintentie voor te stellen, probeert Google ons te leiden naar een zoekopdracht waarop het zonder trucs kan antwoorden: de gebruiker overtuigen om een ​​sleutel te gebruiken Google geeft niet alleen een nuttig resultaat, maar bespaart zichzelf ook de noodzaak om een ​​nieuw trefwoord toe te voegen aan de lijst met zoekwoorden waarvoor het een deel van zijn rekenkracht zal moeten besteden.

Operationeel-functionele verwennerij

Terugkerend naar Google Duplex, we zijn in 2022 en we hebben het er al een tijdje niet meer over gehad, maar uit deze ervaring hebben we geleerd dat identificeren als een kunstmatig gesprekssysteem niet het antwoord is op een ethisch probleem, maar een hackertruc: als degenen die converseren met Duplex weet dat hij met een geautomatiseerd systeem praat, hij weet ook dat hij adequaat moet bewegen, hem moet ondersteunen in het gesprek en hem moet helpen de inhoud ervan te begrijpen.

Voor Google Duplex is het identificeren als een kunstmatig systeem niet het antwoord op een ethisch probleem, maar een hackertruc.

Als we met Cortana, Alexa, Siri praten, gebruiken we altijd automatisch dezelfde uitdrukkingen, dezelfde formules, omdat dit essentieel is als we willen voorkomen dat we niet begrepen worden door onze systemen.

Identificatie is voor Google Duplex een manier om van mensen "begrijpen" te krijgen van hun grenzen, een vorm van operationeel-functionele verwennerij die wij mensen allemaal hebben geleerd te hebben met betrekking tot die technologie die, hoewel hij zich inspant, niet alles teruggeeft wat zijn makers die ze beloven.

Artikel di Gianfranco Fedele

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.

Recente artikelen

De Britse antitrusttoezichthouder slaat BigTech-alarm over GenAI

De Britse CMA heeft een waarschuwing afgegeven over het gedrag van Big Tech op de markt voor kunstmatige intelligentie. Daar…

April 18 2024

Casa Green: energierevolutie voor een duurzame toekomst in Italië

Het "Case Green"-decreet, opgesteld door de Europese Unie om de energie-efficiëntie van gebouwen te verbeteren, heeft zijn wetgevingsproces afgesloten met...

April 18 2024

E-commerce in Italië met +27% volgens het nieuwe rapport van Casaleggio Associati

Casaleggio Associati's jaarverslag over e-commerce in Italië gepresenteerd. Rapport getiteld “AI-Commerce: the frontiers of Ecommerce with Artificial Intelligence”.…

April 17 2024

Briljant idee: Bandalux presenteert Airpure®, het gordijn dat de lucht zuivert

Resultaat van voortdurende technologische innovatie en toewijding aan het milieu en het welzijn van mensen. Bandalux presenteert Airpure®, een tent…

April 12 2024