De recente onthulling dat een rapport van Deloitte Australië verzonnen bronnen en citaties bevatte, veroorzaakte terecht opschudding in de technologie- en dienstensector. Niet alleen vanwege het incident zelf, maar vooral vanwege wat het blootlegt: het structurele gebrek aan menselijk toezicht in het gebruik van generatieve AI.
Waar AI bedoeld is om kennis te versterken, lijkt het hier te zijn gebruikt om zorgvuldigheid te omzeilen. En dat raakt aan een fundamenteler vraag: waar blijft de menselijke controle wanneer de machine overtuigend klinkt, maar feitelijk fout zit?
Cijfers en blinde vlekken
Volgens de Autoriteit Persoonsgegevens worden wereldwijd inmiddels 300 tot 400 AI-incidenten per maand gemeld – een flinke stijging ten opzichte van 2024. In Nederland ontbreekt nog goed inzicht, omdat veel incidenten niet worden herkend of gemeld. Onwetendheid is vaak de oorzaak: organisaties weten niet altijd wanneer een AI-systeem ‘hallucineert’, of hoe dat gecontroleerd moet worden.
Technologie is niet het probleem
AI-systemen doen precies waarvoor ze ontworpen zijn: op basis van patronen plausibele antwoorden genereren. Het zijn geen feitendatabanken. Dat betekent dat ze soms informatie verzinnen om een verhaal compleet te maken. Niet omdat ze “liegen”, maar omdat ze creatief redeneren binnen de grenzen van taal, niet waarheid.
Het echte probleem ligt bij de mens. Wanneer organisaties AI gebruiken zonder structurele kwaliteitscontrole, zonder interne toetsing of zonder kritische evaluatie, verliezen ze de grip op betrouwbaarheid.
Efficiëntie mag nooit ten koste gaan van zorgvuldigheid
De drang naar snelheid en productiviteit kan ertoe leiden dat menselijk beoordelingsvermogen wordt uitbesteed aan systemen die daar niet voor bedoeld zijn. In dit incident ging het niet mis door technologie, maar door het ontbreken van redactionele checks, collegiale toetsingen en verantwoordelijkheidsbesef.
Wie AI inzet, moet dus niet alleen de techniek begrijpen, maar vooral een cultuur van kritisch denken en menselijke controle behouden.
Vertrouwen bouwen met toezicht
Het vertrouwen van klanten, opdrachtgevers en samenleving wordt niet opgebouwd door perfecte technologie, maar door transparante processen en menselijke betrokkenheid.
Bij EmpowerAI zien we het dagelijks in onze trainingen: technologie werkt pas als mensen begrijpen hoe ze haar moeten controleren.
De les van dit incident is helder: AI mag ondersteunen, maar nooit vervangen wat de mens uniek maakt – kritisch oordeel, verantwoordelijkheid en geweten.