Menu Sluiten

AI in organisaties: tussen hype, risico en echte waarde

Tijdens het AI Café van iTanks sprak Peter van Londen (COO bij WordEmp AI Solutions) over een onderwerp dat veel organisaties momenteel bezighoudt: hoe gebruik je AI verantwoord zonder innovatie te blokkeren? De discussie ging niet alleen over technologie, maar vooral over governance, risico’s en de praktijk van AI in organisaties.

Van hype naar realiteit

AI is overal. Vrijwel iedereen kent inmiddels tools zoals ChatGPT of Gemini. In veel organisaties wordt AI al gebruikt, maar meestal voor eenvoudige taken zoals het zoeken of samenvatten van informatie. Dat is nuttig, maar nog geen volwassen toepassing.

Veel organisaties worden gedreven door FOMO: Fear Of Missing Out. De gedachte dat je “iets met AI moet doen” om relevant te blijven. Dat is echter geen goede strategie. AI-projecten die echt waarde creëren zijn vrijwel altijd automatiseringstrajecten die processen veranderen.

Toch blijkt de stap van experiment naar structurele toepassing voor veel organisaties lastig. Belangrijke blokkades zijn onder andere een gebrek aan vaardigheden, onzekerheid over privacy en intellectueel eigendom, en het ontbreken van duidelijke kaders voor verantwoord gebruik.

Waar organisaties nu echt risico lopen

Wanneer AI zonder duidelijke afspraken wordt gebruikt, ontstaan nieuwe risico’s.

Een van de grootste risico’s is ongecontroleerde besluitvorming. AI-systemen worden soms ingezet voor analyses of advies binnen HR, finance of compliance zonder menselijke controle. AI produceert echter geen waarheid, maar woorden. De waarde ontstaat pas wanneer menselijke expertise wordt toegepast.

Ook datalekken vormen een groot risico. Medewerkers kopiëren soms CV’s, contracten, broncode of andere bedrijfsinformatie in publieke AI-tools. Daarmee kan gevoelige informatie onbedoeld buiten de organisatie terechtkomen.

Daarnaast ontstaat er vaak een schijnzekerheid. AI-output ziet er overtuigend uit, waardoor management geneigd kan zijn de resultaten te vertrouwen zonder kritische controle. Tot slot zien veel organisaties een governance-gat: AI wordt gebruikt zonder eigenaar, zonder beleid en zonder toezicht. 

Een simpele vuistregel

Een praktische regel uit de sessie was eenvoudig maar krachtig: Beschouw elke AI-chat als openbaar. De bekende “krantentest” blijft ook hier relevant: zou je er mee kunnen leven als deze informatie morgen op de voorpagina van een krant staat? In de moderne variant: zou het op Instagram mogen verschijnen? Als het antwoord nee is, hoort die informatie niet in een AI-tool thuis. 

Governance wordt onvermijdelijk

Met de komst van regelgeving zoals de Europese AI Act en bestaande wetgeving zoals GDPR wordt AI steeds meer een governancevraagstuk. Bestuurders en toezichthouders moeten AI-kansen benutten, maar tegelijkertijd risico’s beheersen op het gebied van compliance, reputatie en databeveiliging. Managers vertalen deze strategie vervolgens naar beleid en processen, terwijl medewerkers dagelijks met AI-tools werken.

Verantwoord AI-gebruik vraagt daarom om aandacht op drie niveaus:

  • bestuur en directie (strategie en governance)
  • management (beleid en implementatie)
  • medewerkers (bewust en veilig gebruik in de praktijk)

Ben je er dan?

Veel organisaties denken dat ze klaar zijn zodra beleid en richtlijnen zijn opgesteld. Maar dan begint het echte probleem: shadow-AI.

Zelfs wanneer een organisatie duidelijke regels heeft, gebruiken medewerkers vaak alsnog AI-tools op hun eigen laptop of telefoon. Daardoor ontstaat een parallel gebruik van AI waar de organisatie geen zicht op heeft. Het beheersen van AI-gebruik vraagt daarom niet alleen beleid, maar ook bewustwording, training en praktische alternatieven voor medewerkers.

Hoe organisaties dit kunnen aanpakken

Binnen WordEmp en EmpowerAI wordt AI-governance gecombineerd met praktische toepassing. Organisaties krijgen bijvoorbeeld een AI-governance structuur met logging en auditmogelijkheden, vaak gebaseerd op ISO-standaarden. AI-processen worden ingericht met human-in-the-loop, zodat menselijke controle behouden blijft. Daarnaast worden medewerkers actief getraind in veilig AI-gebruik.

Technisch kan dit ondersteund worden met een private LLM-omgeving waarin AI binnen de eigen organisatie draait, inclusief een kennislaag die specifiek is voor de organisatie. Zo ontstaat een balans tussen innovatie en controle.

Van risico naar waarde

Naast risico’s liet de sessie ook zien waar AI daadwerkelijk waarde oplevert in organisaties. Voorbeelden uit klantprojecten laten zien dat AI vooral sterk is in procesautomatisering en kennisverwerking. Denk aan:

  • automatisch gegenereerde klantbriefings voor salesgesprekken
  • AI-ondersteunde CRM-verrijking van bedrijfsdata
  • automatische opvolging van offertes
  • AI-gestuurde rapportages en analyses op ERP-data
  • interne AI-assistenten voor technische of commerciële vragen

In deze toepassingen vervangt AI geen mensen, maar versterkt het bestaande processen en verhoogt het de productiviteit.

De echte vraag voor organisaties

Tijdens de afsluitende discussie werd één vraag steeds opnieuw gesteld: Is AI in jouw organisatie een strategisch voordeel, of een sluipend risico? Veel organisaties zitten nog ergens tussen experiment en echte implementatie. Dat is logisch, maar het betekent wel dat het moment is aangebroken om na te denken over governance, vaardigheden en verantwoord gebruik.

Want één ding is zeker: AI zelf is nooit verantwoordelijk. Dat zijn de mensen die het gebruiken.