Overal lees je waarschuwingen voor ‘existentiële risico’s’ van kunstmatige intelligentie (AI). Sommigen waarschuwen zelfs dat AI de mensheid kan uitroeien. Het tech-bedrijf OpenAI voorspelt kunstmatige algemene intelligentie (‘artificial general intelligence’) en superintelligentie, toekomstige AI-systemen die intelligenter zijn dan mensen. Sommige beleidsmakers zijn ook bang voor dit soort scenario’s.
Maar zo’n vaart loopt het niet. ‘Artificial general intelligence’ betekent: een AI-systeem dat, net als mensen, allerlei verschillende taken kan uitvoeren. Zulke algemene AI bestaat niet, en – als die er al ooit komt – dan duurt dat nog heel lang.
Veel AI-systemen zijn nuttig. Zoekmachines zijn bijvoorbeeld onmisbaar voor internetgebruikers, en zijn een goed voorbeeld van specifieke AI. Een specifiek AI-systeem kan één taak goed uitvoeren, zoals mensen naar de juiste website wijzen. Ook moderne spamfilters, vertaalsoftware en spraakherkenners werken goed dankzij specifieke AI.
Maar het blijven voorbeelden van specifieke AI – ver verwijderd van algemene AI, laat staan ‘superintelligentie’. Een mens kan nieuwe dingen leren. AI-systemen kunnen dat niet. Wat informatici wel steeds beter kunnen is algemene grote taalmodellen maken die gebruikt worden voor allerlei specifieke AI. Hetzelfde taalmodel wordt gebruikt voor vertaalsoftware, spamfilters en zoekmachines. Heeft zo’n taalmodel daarom algemene intelligentie? Zou het bewustzijn kunnen ontwikkelen? Absoluut niet! Er is dan ook geen reëel risico op een science fiction-situatie waarin een AI-systeem de mensheid uitroeit.
De focus op existentiële risico’s leidt af van de risico’s die nu spelen, en die nu onze aandacht nodig hebben. Van onze privacy blijft bijvoorbeeld weinig over. AI-systemen worden getraind met data, veel data. Daarom verzamelen AI-ontwikkelaars, meestal grote tech-bedrijven, veel data. Zo heeft het bedrijf OpenAI vermoedelijk grote delen van het web opgeslokt om ChatGPT te ontwikkelen. Daar zitten ook persoonsgegevens bij. Overigens is OpenAI nogal geheimzinnig over welke data het gebruikt.
Ten tweede kan het gebruik van AI leiden tot oneerlijke discriminatie. Zo werken veel gezichtsherkenningssystemen niet goed voor mensen met een donkere huidskleur. In de VS heeft de politie een aantal keren de verkeerde persoon opgepakt, omdat een gezichtsherkenningssysteem de mannen met een donkere huidskleur ten onrechte als crimineel had aangewezen.
Ten derde is het elektriciteitsverbruik van AI-systemen enorm. Het trainen en gebruiken van de taalmodellen zoals GPT vereist heel veel rekenkracht van grote datacentra, die energie slurpen. Ten slotte wordt de macht van grote tech-bedrijven door het gebruik van AI-systemen alleen maar groter. Het ontwikkelen van AI-systemen kost veel kapitaal. Naarmate het gebruik van AI toeneemt, worden we nog afhankelijker van grote tech-bedrijven. Dit soort risico’s spelen nu al. Laten we daarop focussen. We moeten ons niet laten afleiden door spookbeelden over zelfdenkende AI.
Dit opiniestuk is geschreven door prof. dr. Frederik Zuiderveen Borgesius (hoogleraar ICT en recht), mr. drs. Marvin van Bekkum (promovendus AI & discriminatierisico’s in de verzekeringssector), en prof. dr. Djoerd Hiemstra (hoogleraar Data Science). Alle drie zijn verbonden aan de Radboud Universiteit.
Dit opiniestuk is eerder verschenen op Radboud Recharge.
Het TML-programma AI meets Law wordt aangeboden door het CPO. Alle onderdelen worden in het Engels gegeven. Klik op onderstaande knop om het programma te bekijken.