Studie: AI-zoekmachines geven in 60% van de gevallen onjuiste antwoorden
- Mark Baars
- Mar 23
- 1 min read
Een recent onderzoek van het Columbia Journalism Review's Tow Center for Digital Journalism onthult ernstige problemen met de nauwkeurigheid van AI-gestuurde zoekmachines. De onderzoekers testten acht AI-tools door ze te vragen om originele koppen, uitgevers, publicatiedata en URL's van nieuwsartikelen te identificeren. De resultaten zijn zorgwekkend: in meer dan 60% van de gevallen citeerden de AI-modellen bronnen onjuist.

Gezien ongeveer 1 op de 4 Amerikanen nu AI-modellen gebruikt als alternatief voor traditionele zoekmachines, roept dit vragen op over de betrouwbaarheid van deze technologie. De foutpercentages varieerden aanzienlijk tussen platforms: Perplexity gaf in 37% van de gevallen onjuiste informatie, ChatGPT Search in 67%, en Grok 3 presteerde het slechtst met een foutpercentage van 94%.
AI-modellen geven, in plaats van een foutmelding als ze iets niet kunnen vinden, een aannemelijk klinkend, maar onjuist of speculatief antwoord. Opvallend genoeg presteerden betaalde premium versies in sommige opzichten zelfs slechter dan hun gratis tegenhangers.
Het onderzoek toonde ook aan dat sommige AI-tools de Robot Exclusion Protocol-instellingen negeerden, waarmee uitgevers aangeven dat webcrawlers bepaalde content moeten vermijden. Daarnaast verwezen de tools vaak naar gesyndikeerde versies van content in plaats van naar originele uitgeverssites, en meer dan de helft van de citaten van Google's Gemini en Grok 3 leidde naar gefabriceerde of niet-werkende URL's.
Deze bevindingen plaatsen uitgevers voor een dilemma: AI-crawlers blokkeren kan leiden tot volledig verlies van attributie, terwijl ze toestaan resulteert in wijdverbreid hergebruik zonder verkeer naar de websites van uitgevers te leiden.
Comments