Wie is aansprakelijk?
In januari 2026 introduceerde Microsoft Copilot Agents breed in de enterprise-markt. In februari volgde Google met Gemini Deep Research voor zakelijk gebruik. In maart maakte OpenAI Operator beschikbaar voor geselecteerde enterprise-klanten. Samen markeren ze een kantelpunt dat rustig voorbij is gegaan in de meeste boardrooms — terwijl het een van de belangrijkste governance-implicaties van 2026 heeft.
Voor het eerst zijn autonome AI-systemen die zelfstandig taken uitvoeren — zonder directe menselijke instructie per actie — beschikbaar als standaard enterprise-product. Ze boeken vliegtickets, verwerken facturen, beantwoorden klantmails, schrijven contracten, analyseren juridische documenten en initiëren betalingen. Allemaal autonoom. Allemaal op basis van een instructie die u aan het begin geeft — niet op basis van goedkeuring per actie.
De meest gangbare use cases die organisaties nu implementeren:
Financieel Factuurverwerking, crediteurenbetalingen binnen vooraf ingestelde parameters, kostendeclaratieverwerking, en — in de meest geavanceerde implementaties — cash management binnen vastgestelde bandbreedtes.
Juridisch en contractueel Contractreview, risicomarkering in overeenkomsten, standaardisatie van clausules en — gevaarlijker — in sommige implementaties het opstellen van bindende correspondentie namens de organisatie.
HR CV-screening, eerste selectieronden, afwijzingsmails, planningsoptimalisatie van medewerkersinzet.
Klantcontact Autonome klachtafhandeling, restitutieverwerkingen, klantescalaties — inclusief het doen van commerciële toezeggingen aan klanten zonder menselijke goedkeuring.
Wanneer een autonoom AI-systeem een fout maakt — een te hoge betaling, een verkeerde toezegging aan een klant, een contractclausule die juridisch problematisch is — wie is dan aansprakelijk?
Het eerlijke antwoord is: dat weet niemand zeker. De EU AI Act biedt geen directe houvast voor de meest geavanceerde agentische systemen. De herziene Product Liability Directive — die AI als product classificeert — is nog niet van kracht. En de contractuele aansprakelijkheidsbedingen van de grote AI-leveranciers beperken hun eigen exposure aanzienlijk.
De vraag is niet meer of AI beslissingen neemt in uw organisatie. De vraag is of uw board weet welke beslissingen — en of er governance is die aansprakelijkheid borgt. Elke directie die agentische AI inzet zonder een formeel besluitvormingskader, neemt een bestuurlijk risico dat niet verzekerbaar is.
Stel een besluitvormingsmatrix vast Welke categorieën besluiten mag een autonoom AI-systeem zelfstandig nemen? Welke vereisen menselijke goedkeuring? Welke zijn altijd voorbehouden aan een mens, ongeacht de efficiëntiewinst? Dit is een boardbesluit — niet een IT-configuratie.
Leg logging en audittrails contractueel vast Elke beslissing die een autonoom AI-systeem neemt, moet worden gelogd met voldoende detail om achteraf reconstrueerbaar te zijn. Eis dit expliciet van uw leverancier — standaardcontracten bieden dit vaak niet adequaat.
Definieer het incidentprotocol Wanneer een autonoom systeem een fout maakt — wat is dan het escalatiepad? Wie wordt geïnformeerd? Wat zijn de first-response procedures? Organisaties die dit nu vastleggen, staan fundamenteel sterker wanneer het misgaat — en het gaat een keer mis.
Autonome AI-agenten zijn niet te stoppen. De productiviteitswinst is te significant, de technologie te breed beschikbaar en de concurrentiedruk te reëel. De vraag voor boards is niet of ze ingezet worden — maar onder welke governance ze ingezet worden.
Organisaties die nu heldere kaders vaststellen, bouwen een aansprakelijkheidsschild en een vertrouwensbasis die over 18 maanden, wanneer de eerste grote publieke incidenten plaatsvinden, goud waard zal zijn.
Niet alleen inzicht — maar een plan dat uw board kan uitvoeren.