De voortdurende strijd tussen visies gaat door: “kunstmatige intelligentie kan de overhand krijgen” versus “dat is sciencefiction”. Maar is een groot deel van de discussie eigenlijk niet gewoon sciencefiction?
Het artikel wijst erop dat vroeger als randopvattingen beschouwde overtuigingen nu terrein winnen, namelijk dat machines plotseling menselijke intelligentie kunnen overtreffen en besluiten de mensheid te vernietigen. Zelfs gerenommeerde wetenschappers op dit gebied versnellen hun eigen tijdlijnen en geloven dat computers binnen vijf tot twintig jaar slimmer dan mensen kunnen worden en manipulatief kunnen handelen.
Er zijn echter ook veel onderzoekers en ingenieurs die van mening zijn dat de zorgen over moorddadige AI’s Ć la Skynet uit de Terminator-films niet gebaseerd zijn op goede wetenschap. Deze zorgen leiden af van de werkelijke problemen die de technologie nu al veroorzaakt, zoal:
1) auteursrechtenchaos
2) digitale privacy en surveillance
3) zwaktes in cyberverdediging
4) de inzet van dodelijke wapens zonder menselijke controle.
Geoffrey Hinton, die eerder verkondigde dat niemand meer radiologie hoefde te studeren omdat AI het binnen vijf jaar zou overnemen, is nu van mening dat dit geen sciencefiction is. Hij gelooft nu dat slimmere AI binnen vijf tot twintig jaar realiteit kan worden, in tegenstelling tot zijn eerdere schatting van dertig tot honderd jaar.
Aan de andere kant geloven veel ingenieurs die nauw betrokken zijn bij de technologie niet dat een AI-overname iets is waar we ons op dit moment zorgen over moeten maken. Onderzoekers die actief bezig zijn op dit gebied richten zich meer op de huidige risico’s dan op existentiĆ«le risico’s, zo stelt een onderzoeker.
De discussie draait ook om de aard van AI. Sommigen beschouwen het slechts als algoritmen die herhalen wat ze online hebben gezien, terwijl anderen vinden dat deze algoritmen opkomende eigenschappen vertonen, zoals creativiteit, redenering en planning. Google CEO Sundar Pichai benadrukt dat we bescheiden moeten blijven in onze benadering van dit onderwerp.
Enkele jaren geleden begonnen vier onderzoekers met kritiek op grote taalmodellen, waarbij ze zeiden dat de modellen begrepen moeten worden als “stochastische papegaaien”. Ze waren van mening dat de modellen simpelweg heel goed waren in het voorspellen van het volgende woord in een zin op basis van waarschijnlijkheid, zonder enig besef van de betekenis van wat ze zeiden. Ze documenteerden ook hoe deze modellen regelmatig seksistische en racistische inhoud produceerden. Het onderzoek van een van hen, Timnit Gebru, werd onderdrukt door Google, waarna ze werd ontslagen. Enige tijd later werd ook Margaret Mitchell ontslagen.
Onlangs hebben de vier schrijvers een eigen brief opgesteld als reactie op de brief die door Musk en anderen was ondertekend. Ze benadrukken dat het gevaarlijk is om ons af te leiden met een gefantaseerde AI-gebaseerde utopie of apocalyps. In plaats daarvan moeten we ons richten op de daadwerkelijke en actuele uitbuitende praktijken van de bedrijven die beweren AI te ontwikkelen, aangezien deze bedrijven snel macht centraliseren en sociale ongelijkheden vergroten.
Gebaseerd op een Linkedin post van