Volgens robotica-onderzoeker en AI-expert Rodney Brooks overschatten we de grote taalmodellen van OpenAI, zoals chatbot ChatGPT, aanzienlijk. In een interview met IEEE Spectrum beweert Brooks dat deze tools niet zo slim zijn als we denken. Ze zijn verre van in staat om met mensen te concurreren op intellectueel niveau. We zijn volgens hem vaak schuldig aan het onrealistisch voorspellen van de toekomst van AI.

De grote vraag is: kan AI zich ontwikkelen tot een Algemene Kunstmatige Intelligentie (AGI) die op een vergelijkbaar intellectueel niveau met mensen kan opereren? “Nee, het heeft geen onderliggend model van de wereld. Het heeft geen verbinding met de wereld. Het is correlatie tussen taal,” zegt Brooks.

Brooks’ opmerkingen zijn een belangrijke realiteitscheck en herinneren ons aan de huidige beperkingen van AI-technologie. We moeten voorzichtig zijn met het toeschrijven van betekenis aan de output van AI, die is ontworpen om te klinken – niet om te redeneren – als mensen. “Onze modellen om te generaliseren van een prestatie naar een competentie zijn niet van toepassing op AI-systemen,” merkt hij op. Huidige taalmodellen kunnen dus geen logische betekenis afleiden, ook al laten ze het klinken alsof ze dat wel kunnen.

Brooks onthulde dat hij experimenteerde met grote taalmodellen voor complexe codering, maar stuitte op serieuze problemen. “Het geeft een antwoord met volledige vertrouwen, en ik geloof het soort van,” zei hij. “En de helft van de tijd is het compleet verkeerd.” Dat is volgens Brooks niet hetzelfde als intelligentie.

In conclusie, Brooks gelooft dat toekomstige iteraties van de technologie op interessante plaatsen kunnen eindigen, maar zeker niet bij AGI. Gezien de risico’s van een AI-systeem dat de intelligentie van een mens overstijgt, is het waarschijnlijk beter zo.

Eerder verschenen op: https://futurism.com/the-byte/ai-expert-chatgpt-way-stupider

Leave A Comment