7 manieren waarop AI faalt: Een deel van het probleem is dat de neurale netwerktechnologie die veel AI-systemen aanstuurt, kapot kan gaan op manieren die voor onderzoekers een mysterie blijven. “Het is onvoorspelbaar bij welke problemen kunstmatige intelligentie goed zal zijn, omdat we intelligentie zelf niet zo goed begrijpen,” zegt computerwetenschapper Dan Hendrycks van de University of California, Berkeley.

1) #Brittleness – Een AI kan vaak “alleen een patroon herkennen dat het eerder heeft gezien”, zegt Nguyen. “Als je het een nieuw patroon laat zien, is het makkelijk voor de gek te houden.”

2) #EmbeddedBias – Steeds vaker wordt AI gebruikt om belangrijke beslissingen te ondersteunen, zoals wie een lening krijgt, de lengte van een gevangenisstraf, en wie het eerst gezondheidszorg krijgt. De hoop is dat AI’s onpartijdiger beslissingen kunnen nemen dan mensen vaak hebben gedaan, maar veel onderzoek heeft uitgewezen dat vooroordelen die zijn ingebakken in de gegevens waarop deze AI’s worden getraind, massaal kunnen leiden tot automatische discriminatie, wat enorme risico’s voor de samenleving met zich meebrengt.

3) #CatastrophicForgetting – de neiging van een AI om informatie die hij eerder wist volledig en abrupt te vergeten nadat hij nieuwe informatie heeft geleerd, waarbij hij in wezen de kennis uit het verleden overschrijft met nieuwe kennis. “Kunstmatige neurale netwerken hebben een verschrikkelijk geheugen,”

4) #Explainability – Waarom vermoedt een AI dat iemand een crimineel is of kanker heeft? De verklaring voor deze en andere voorspellingen van groot belang kan veel juridische, medische en andere gevolgen hebben. De manier waarop AI’s tot conclusies komen is lang beschouwd als een mysterieuze zwarte doos, wat heeft geleid tot vele pogingen om manieren te bedenken om de innerlijke werking van AI’s te verklaren.

5) #Quantifying #Uncertainty – Op dit moment kunnen AI’s “heel zeker zijn, ook al hebben ze het heel erg mis,” zegt Kessler van Oxford dat als een algoritme een beslissing neemt, “we een robuust idee moeten hebben van hoe zeker het is in die beslissing, vooral voor een medische diagnose of een zelfrijdende auto, en als het heel onzeker is, dan kan een mens ingrijpen en [zijn] eigen oordeel of beoordeling van de situatie geven.”

6) #CommonSense – Het ontbreekt aan gezond verstand – het vermogen om tot aanvaardbare, logische conclusies te komen op basis van een enorme context van alledaagse kennis die mensen meestal als vanzelfsprekend beschouwen, zegt computerwetenschapper Xiang Ren van de University of Southern California. “Als je niet heel veel aandacht besteedt aan wat deze modellen eigenlijk leren, kunnen ze sluiproutes leren die ertoe leiden dat ze zich misdragen,” zegt hij.

7) #Math #Wiskunde – Hoewel conventionele computers goed zijn in het kraken van getallen, zijn AI’s “verrassend genoeg helemaal niet goed in wiskunde,” zegt Hendrycks van Berkeley. “Je kunt de nieuwste en beste modellen hebben die honderden GPU’s nodig hebben om te trainen, en ze zijn nog steeds niet zo betrouwbaar als een zakrekenmachine.”

Bron: https://spectrum.ieee.org/ai-failures 

Leave A Comment