“Wanneer nieuwsartikelen kritiekloos PR-verklaringen herhalen, te veel beelden van robots gebruiken, agentschappen toeschrijven aan AI-tools of hun beperkingen bagatelliseren, misleiden en informeren ze de lezers verkeerd over het potentieel en de beperkingen van AI”, schreven twee computerwetenschappers van Princeton in een checklist van AI-verslaggevingsvalkuilen.
“Als we het hebben over #AI” zegt Kapoor, “hebben we de neiging om dingen te zeggen als ‘AI doet X – #artificialintelligence geeft je huiswerk een cijfer.’ Zo praten we over geen enkele andere #technologie – we zeggen niet: ‘de vrachtwagen rijdt op de weg’ of ‘een telescoop kijkt naar een ster.’ Het is verhelderend om te bedenken waarom we AI anders beschouwen dan andere instrumenten. In werkelijkheid is het gewoon een ander gereedschap om een taak uit te voeren.”
Dat is niet hoe AI gewoonlijk wordt afgeschilderd in de media of in aankondigingen van onderzoekers en bedrijven die op dit gebied actief zijn. Daar worden de systemen beschreven als systemen die minstens even goed als, of zelfs beter dan mensen hebben leren lezen, papieren beoordelen of ziekten diagnosticeren.
Kapoor denkt dat sommige onderzoekers proberen het menselijk vernuft achter hun AI-systemen te verbergen omdat het gemakkelijker is investeerders en publiciteit aan te trekken met beweringen over AI doorbraken – op dezelfde manier als “dot-com” rond het jaar 2000 een marketingstunt was of “crypto” vandaag.
Wat meestal wordt weggelaten is dat de successen van de machines slechts in beperkte gevallen van toepassing zijn, of dat het bewijs van hun prestaties dubieus is. Enkele jaren geleden werd de onderwijswereld opgeschrikt door een studie die beweerde aan te tonen dat de cijfers van machines en mensen voor een selectie van essays van studenten vergelijkbaar waren.
De claim werd aangevochten door onderzoekers die de methodologie en de resultaten in twijfel trokken, maar niet voordat er koppen verschenen in nationale kranten zoals: “Software voor het beoordelen van essays biedt professoren een kans.” Een criticus en MIT-professor bouwde vervolgens een systeem dat hij de Basic Automatic B.S. Essay Language Generator, of Babel, noemde en waarmee hij aantoonde dat de machine geen verschil kon maken tussen wartaal en overtuigend schrijven.
Een meer recente bewering was dat AI-systemen “net zo effectief kunnen zijn als medische specialisten bij het diagnosticeren van ziekten”, zoals een CNN-artikel in 2019 beweerde. Het diagnosesysteem in kwestie, aldus het artikel, maakte gebruik van “#algoritmen, #bigdata, en rekenkracht om menselijke intelligentie na te bootsen.”
Dat zijn modewoorden die de valse indruk wekken dat het systeem daadwerkelijk “menselijke intelligentie nabootst”, merkte Kapoor op. Het artikel maakte evenmin duidelijk dat het vermeende succes van het AI-systeem slechts werd waargenomen bij een zeer beperkt aantal ziekten.
AI #hype is niet alleen een gevaar voor het begrip van leken op dit gebied, maar dreigt ook het gebied zelf te ondermijnen. Een sleutel tot mens-machine-interactie is vertrouwen, maar als mensen zien dat een sector te veel belooft en te weinig levert, wordt de weg naar acceptatie door het publiek alleen maar langer.
Geschreven door: Dr. Jeffrey Funk (Linkedin)