Universiteit Leiden

nl en

Onderzoekers: de toekomst van AI moet mensgericht zijn

Welke regels zouden AI moeten reguleren, wie is verantwoordelijk voor het opstellen ervan en hoe kunnen ze worden gehandhaafd in de digitale wereld? Interdisciplinaire samenwerking staat centraal in deze vragen. Lees wat drie experts op dit gebied te zeggen hebben over de uitdagingen van AI.

Kunstmatige intelligentie (AI) brengt een revolutionaire verandering teweeg in de wereld. Van financiën en geopolitiek tot onderwijs en sociale interacties, vrijwel elk aspect wordt beïnvloed door AI-ontwikkelingen. Deze voortdurende veranderingen zetten de bestaande bestuursstructuren onder druk.

Dr. Joost Batenburg, professor aan het Institute of Advanced Computer Science en Programmadirecteur voor de Society, Artificial Intelligence, and Life Sciences (SAILS), wees op verschillende specifieke uitdagingen, zoals:

  • De snelheid waarmee AI zich ontwikkelt—zelfs ontwikkelaars en onderzoekers kunnen het nauwelijks bijbenen!;
  • AI functioneert als een 'black box' en ontwerpers begrijpen niet volledig hoe AI zijn output genereert;
  • Er ontstaat een nieuw machtsevenwicht tussen de publieke en private sector, aangezien degenen die de data bezitten enorme invloed op de samenleving hebben;
  • AI-ontwikkelingen leiden ook tot een groeiend wantrouwen, omdat het steeds moeilijker wordt om te onderscheiden wat echt is en wat niet.

Professor dr. Jan Aart Scholte, hoofd van het programma Global Transformations and Governance Challenges (GTGC), voegde toe dat een belangrijke uitdaging voor AI-governance de polycentrische aard ervan is.

In tegenstelling tot traditionele bestuursstructuren kan AI niet onafhankelijk door afzonderlijke actoren worden bestuurd; samenwerking is noodzakelijk. Dit vereist een netwerk van organisaties van verschillende grootte uit zowel de private als publieke sector, die gedwongen worden om op een coherente en efficiënte manier te handelen om nieuwe bestuursstructuren te creëren en deze te handhaven, wat op zichzelf een uitdaging vormt.

Toch biedt dit ook kansen, zoals de enorme hoeveelheid informatie, inzichten en ervaringen die beschikbaar zijn voor beleidsontwikkeling, en een bredere deelname aan democratische controle.

Het rondetafelgesprek.

De governance van AI betreft ook specifieke toepassingen van deze technologie. Dr. Hsini Huang, universitair docent aan het Instituut Bestuurskunde, benoemde nog een aanvullende uitdaging: algoritmische discretie bij het gebruik van AI in publieke organisaties. Dit concept beschrijft de autonome beslissingskracht van AI. Publieke instellingen verwerken gevoelige data en zijn belast met publieke besluitvorming en beleidsontwikkeling; het automatiseren van processen met AI kan daarom tot problemen leiden, aangezien zelfs ontwikkelaars niet volledig begrijpen hoe deze beslissingen tot stand komen.

Dr. Huang benadrukte de noodzaak om mensen betrokken te houden bij AI-processen om samenwerkende intelligentie te creëren. Ze wees op het belang van 'zinvolle menselijke controle' die de kracht van AI in gevoelige operaties kan benutten, om zo verantwoorde, veilige en betrouwbare AI te realiseren.

De panelleden waren het erover eens dat de governance van AI een gebied is met veel discussie en nieuwe uitdagingen. Ze benadrukten allemaal het belang van menselijke betrokkenheid bij regelgeving, cruciale besluitvorming en het beheer van gevoelige data. De toekomst van AI moet mensgericht zijn.

Tekst: Martina Prieto

Deze website maakt gebruik van cookies.  Meer informatie.