Eerder dit jaar is de Europese AI-verordening definitief aangenomen, die het gebruik van artificial intelligence reguleert en eist dat risico’s voor mens en maatschappij worden geminimaliseerd. Advocaten en AI-experts Casper Jaspers en Floris de Wit leggen uit wat dat voor organisaties – en voor de juristen die hen adviseren – betekent: ‘Deze verordening dwingt bedrijven om serieus na te denken over de risico’s van AI. Je moet niet alleen onderzoeken welke risico’s AI-gebruik meebrengt voor de organisatie, maar ook begrijpen hoe je die risico’s in je governance en contracten adresseert.’
Onder de motorkap
‘AI heeft een enorme impact op hoe organisaties opereren,’ stelt Casper. ‘Wist je dat in veel bedrijven elke business unit al 5 tot 10 AI-toepassingen gebruikt? Vaak zonder dat gebruikers doorhebben dat er AI onder de motorkap zit. De technologie dendert door, en dat kan niet alleen leiden tot ongecontroleerde wildgroei van AI-tools, maar brengt ook aanzienlijke risico’s met zich mee.’
Een risico dat je niet wilt lopen
Over wat voor risico’s hebben we het dan? Bijvoorbeeld bias in de trainingsdata: het risico op bevooroordeelde resultaten en discriminerende effecten. Dat is met name relevant wanneer het gaat over leeftijd, etniciteit, ras, geslacht of handicaps. Floris: ‘Dergelijke bevooroordeelde resultaten kunnen grote gevolgen hebben voor de individuen die het betreft. Denk aan beperkingen in toegang tot krediet, onderwijs of de arbeidsmarkt. Dat is een risico dat je niet wilt lopen.’
Ethische en juridische implicaties
Casper vervolgt: ‘Organisaties moeten sowieso zorgvuldig overwegen wanneer het ethisch verantwoord is om AI in te zetten. Welk werk laat je door AI doen, en welk werk moet nog steeds door mensen worden gedaan? Welke risico’s vind je aanvaardbaar bij het werken met AI? Governance is dan ook een cruciaal onderdeel van verantwoord AI-gebruik. Beleid helpt organisaties om AI op een strategische en ethische manier te implementeren. Daarvoor is niet alleen kennis van de technologie, maar ook van de ethische en juridische implicaties essentieel.’
Specialistische kennis
Floris: ‘Een ander belangrijk aandachtspunt is contracteren en onderhandelen. Er is specialistische kennis nodig om de risico’s van AI-gebruik te identificeren en die vervolgens zorgvuldig in een contract te adresseren. Artificial intelligence werkt echt anders dan traditionele software. Dus als je bestaande concepten en contracten toepast op AI, adresseer je de specifieke risico’s vaak onvoldoende. Hoe ga je bijvoorbeeld om met het eigenaarschap van nieuw werk dat door een AI-toepassing wordt gegenereerd? Kun je eisen stellen aan de dataset waarmee een AI-model is getraind? Liggen risico’s bij de leverancier of bij de afnemer?’
Common ground vinden
Vaak is het nodig om hierover te onderhandelen. Floris vult aan: ‘Dan is het goed om te weten wat aandachtspunten en valkuilen zijn, en waar mogelijk speelruimte zit. Want je wilt succesvol én verantwoord een deal sluiten waarbij de risico’s acceptabel zijn. Heb je als jurist kennis van AI, dan kun je onderbouwd jouw standpunten innemen en verdedigen in de onderhandelingen, en common ground vinden voor een contract waarmee beide partijen akkoord kunnen gaan.’
Verdiepen in dit onderwerp
Er is steeds meer AI-gebruik én steeds meer regulering. Daardoor wordt het steeds belangrijker dat juristen organisaties kunnen begeleiden bij het verantwoord gebruik van AI. ‘Alleen de wet kennen is niet genoeg,’ benadrukt Casper. ‘Je moet begrijpen hoe je de wet toepast in de praktijk, en hoe je risico’s herkent en in je governance en contracten adresseert. We zien helaas dat dat praktische inzicht nu nog ontbreekt bij veel juristen. Daarom geven Floris en ik samen voor de Tech Meets Law Academy de cursus ‘Inzicht in verantwoord AI-gebruik: governance, contracteren en onderhandelen in de praktijk’, voor alle juristen die zich willen verdiepen in dit onderwerp.’