AI als advocaat? In Den Bosch pakte dit niet goed uit
In dit artikel:
In december probeerde een man in Den Bosch zijn civiele zaak – over de verkoop van een appartement in Andorra waarvoor al een koopovereenkomst bestond maar de verkoper weigerde over te dragen – te voeren met hulp van ChatGPT in plaats van een advocaat. De door AI gegenereerde stukken bevatten juridische verwijzingen en uitspraken die vaak onjuist of verzonnen waren. Volgens de advocaat van de koper, Erik Braun, leverde dat veel extra werk op; de rechter noemde de inzendingen zwaar gebrekkig en oordeelde dat de man het recht misbruikte door onjuiste AI-argumenten in te dienen.
Het incident past in een bredere trend: rechtbanken in Arnhem, Rotterdam en Groningen merkten de afgelopen maanden ook gevallen van verkeerd AI-gebruik op, en er lopen meerdere onderzoeken. Toezichthouder Wouter Timmermans waarschuwt dat advocaten soms klakkeloos AI-teksten overnemen en bij de rechter indienen, terwijl die teksten logisch lijken maar onbetrouwbaar kunnen zijn. Drie advocaten kregen recent waarschuwingen; twee van hen moesten een verplichte cursus over AI volgen.
Juridische experts, zoals hoogleraar Lodewijk Smeehuijzen, benadrukken dat AI geen vervanging is voor controle: bronnen die niet bestaan mogen niet worden genoemd en AI-output moet altijd worden geverifieerd. Formele tuchtrechtelijke bestraffingen voor advocaten wegens AI-misbruik zijn nog niet uitgesproken, maar toezichthouders en rechters scherpen de aandacht en regels aan.