Sinds vrij kort is AI het buzzword, en die fase lijkt zelfs al weer gepasseerd. Hoewel onderzoek naar AI al redelijk oud is, heeft het lange tijd het brede publiek alleen bereikt in de vorm van science fiction. Maar sinds OpenAI met haar large language model kwam, is ineens iedereen deskundig.
Een vraag die daarbij vaak aan de orde komt is natuurlijk of deze AI wel echt intelligent is. Om die vraag te kunnen beantwoorden zou je verwachten dat men eerst een goede definitie geeft van intelligentie. Immers, hoe kan je iets intelligents zeggen over de intelligentie van kunstmatige intelligentie als je niet weet wat intelligentie is? Aan het woordenboek hebben we dan vrij weinig: verstandelijk vermogen, en kunstmatige intelligentie is volgens datzelfde woordenboek het nabootsen van menselijk denken. ja toedels, wat is denken dan?
Wat mij al een tijdje opvalt is dat mensen “intelligentie” de facto lijken te definiëren als “dat wat mensen wel kunnen en machines niet”. En heel gek, maar met die definitie blijken machines nou nooit echt intelligent te worden.
Sinds OpenAI is de term stochastische papegaai redelijk populair geworden. Het suggereert dat wat modellen als ChatGPT en CoPilot doen niks met intelligentie te maken heeft, maar uitsluitend op basis van statistiek woorden napraten is.
Ik zal die analyse niet weerspreken. Maar ik heb wel een tegenvraag: wat doen mensen dan precies méér?