Ga naar hoofdinhoud

De 5 grootste AI blunders en waarom je altijd scherp moet blijven

Van een Chevrolet voor één dollar tot het advies om stenen te eten. Lees de top 5 AI-blunders en ontdek waarom je nooit blind op de techniek moet vertrouwen.

3 min lezen
De 5 grootste AI blunders en waarom je altijd scherp moet blijven

De 5 grootste AI blunders en waarom je altijd scherp moet blijven

In mijn sessies laat ik altijd een paar flinke AI-blunders zien. Naast dat het grappig is, heeft het ook een serieuze ondertoon. Je ziet namelijk steeds vaker dat bedrijven besluiten om mensen te vervangen door AI. Maar als je AI niet goed inzet, kan dit flink misgaan.

De onderstaande vijf verhalen gebruik ik vaak in mijn lezingen en ze zijn echt gebeurd.

1. McDonald's en de kipnuggets drive-thru

McDonald's testte een tijdje een systeem dat automatisch bestellingen opnam bij de drive-thru. Het idee was dat een AI-robot sneller en efficiënter bestellingen zou kunnen verwerken. Maar dit ging enorm mis. Op TikTok verschenen er filmpjes van klanten waarbij de AI-robot oneindig veel kipnuggets aan een bestelling bleef toevoegen zonder dat er iemand ingreep. Na drie jaar testen besloot McDonald’s in 2024 de stekker eruit te trekken en weer over te gaan op mensen die de bestellingen opnemen.

2. Een nieuwe Chevrolet voor één dollar

Bij een dealer in Californië dachten ze slim te zijn door een chatbot op de website te zetten. Een handige klant deed een testje en kwam erachter dat de chatbot met alles akkoord ging. Zo kocht hij voor één dollar een nieuwe auto van 60.000 dollar. Het probleem was dat de chatbot gebruikmaakte van ChatGPT maar niet goed was ingesteld. Daardoor was het systeem makkelijk te beïnvloeden. De screenshots van het gesprek gingen binnen no-time viraal.

3. Air Canada en de korting die niet bestond

Een reiziger die zijn oma was verloren vroeg aan de chatbot van Air Canada of er een speciaal tarief was voor nabestaanden. De chatbot vertelde dat hij eerst het volledige bedrag moest betalen en later een deel kon terugkrijgen. Toen de reiziger dit probeerde, weigerde de luchtvaartmaatschappij omdat de chatbot onjuiste informatie had gegeven. Air Canada probeerde zich bij de rechter nog te verdedigen, maar die maakte hier korte metten mee. De reiziger kreeg alsnog zijn geld terug.

4. Advocaten met onjuiste informatie

In New York gebruikte een advocaat ChatGPT om onderzoek te doen naar eerdere rechtszaken. ChatGPT kwam met een prachtige lijst namen, data en citaten. De advocaat gebruikte deze informatie in een rechtszaak, maar de rechter had al snel door dat de informatie niet klopte. Het probleem met een taalmodel als ChatGPT is dat het ontzettend overtuigend informatie kan geven terwijl het de waarheid niet spreekt. Het kan zelfs bronnen verzinnen die nooit hebben bestaan.

5. Google adviseert om stenen te eten

Zelfs Google maakte flinke fouten. Toen Google zijn nieuwe AI-overzichten uitrolde, kregen gebruikers de meest bizarre adviezen. Zo raadde het systeem aan om elke dag minstens één kleine steen te eten voor de vitamines. Ook adviseerde het om lijm door de pizzasaus te mengen zodat de kaas beter zou blijven plakken. De informatie die het AI-model raadpleegde bleek afkomstig van grapjes op websites als Reddit. Hierdoor snapte Google het verschil niet tussen serieuze informatie en satire.

Wat we hiervan kunnen leren

Al deze bedrijven vertrouwden blindelings op nieuwe techniek zonder goed na te denken over de gevaren. En dat is precies wat ik ook in mijn sessies vertel. Gebruik de techniek vooral, maar blijf zelf nadenken.

Geschreven door

Hendrik van Zwol

AI-spreker, trainer en auteur

Dé AI Magician van Nederland. Bekend van Eva Jinek, RTL Nieuws en NPO 2's Jekels Jacht. Rabobank beoordeelde z'n sessie met een 9,6 bij 400+ deelnemers. Auteur van Creativiteit Opnieuw Uitgevonden (Longlist Managementboek 2026).

Gerelateerde artikelen