Door: Reinoud Plantinga, manager informatiemanagement
Bij een nadere verdieping op de vraag ‘Hoe houden we AI onder controle?’ kom ik eigenlijk snel tot de conclusie: hoe houden we überhaupt nog controle? Het lijkt binnen de overheid steeds meer te gaan over controle en transparantie. Twee begrippen die elkaar in de hand werken. Basisvoorwaarde voor transparantie is de beschikbaarheid van betrouwbare informatie en daarmee creëren we steeds meer een complex speelveld van data, informatie, de uitwisseling daarvan en dus de controle en de transparantie. Dit vertaalt zich op dit moment onder andere in diverse wetten, zoals de Wet Open Overheid (Woo). De volgende ontwikkeling is de komst van een AI-act, welke is gericht op transparantie. Ik voorzie in ieder geval op dit gebied dat er een belangrijke rol is weggelegd voor het veilig beheren van data en algoritmen. Er is al een FG, een PO, een CISO, een Chief Data Officer, een Woo-contactfunctionaris en we hebben al te maken met de BIO, DPIA’s en de ENSIA. What’s next?
De ontwikkeling van AI lijkt de laatste tijd in een stroomversnelling te komen, maar in Brussel wordt al twee jaar gewerkt aan regels die het gebruik van AI in goede banen moeten leiden. Die komen in de AI-wet (of AI-act) te staan waar Europa nu over debatteert. Het doel van de AI-act is om een evenwicht te vinden tussen het bevorderen van innovatie en het beschermen van fundamentele rechten en waarden, zoals privacy, veiligheid en non-discriminatie. De Europese Commissie werd het eind vorig jaar eens over een wetsvoorstel en op 11 mei j.l. is het
Internal Market Committee (IMCO) and the Civil Liberties Committee (LIBE) het eens geworden over een concept voorstel voor de eerste regelgeving rondom het gebruik van AI. Naar verwachting is er dan begin 2024 een overeenkomst. Organisaties moeten naar verwachting vanaf dat moment al transparant zijn over het gebruik van AI binnen de organisatie.
Het duurt echter nog even voordat de richtlijnen er zijn, terwijl de ontwikkelingen elkaar in rap tempo opvolgen. Transparantie is het sleutelwoord in het wetsvoorstel. Bedrijven moeten kunnen aantonen hoe hun AI precies werkt. Er moet niet alleen controle komen op het systeem, maar ook controle op het gebruik. Op het moment is bijvoorbeeld onduidelijk hoe ChatGPT achter de schermen werkt. Zo weten we niet precies met welke data het programma is getraind en op basis van welke informatie antwoorden worden opgesteld.
Als de AI-act van kracht wordt, zal dit naar verwachting een aanzienlijke impact hebben op organisaties die artificiële intelligentie (AI) ontwikkelen, implementeren of gebruiken binnen de Europese Unie (EU). Wat zijn de mogelijke effecten? Als we het dan toch over AI hebben, wat zegt ChatGPT hier zelf over?
We staan voor grote veranderingen en is de overheid in staat om hierop te anticiperen? Veranderingen implementeren duurt lang en het risico hier is dat we beleid ontwikkelen wat over 5 jaar (als het geïmplementeerd is) alweer achterhaald is. Het enige constante is dus verandering, kortom je moet blijven inzetten op innovatie. Daarnaast is het versterken van gegevensbeveiliging en privacy, het volgen van de ontwikkelingen en het ontwikkelen van ‘ecosystemen’ steeds belangrijker. Onder het motto: “Alleen ga je sneller, maar samen kom je verder!”
|
Reinoud Plantinga
| ContactTelefoon: 088-8883000E-mail: info@thorbecke.nlVolg ons via |