Aanstaande Europese wetgeving voor AI: wat houdt het in?
In Europa wordt al meer dan twee jaar gewerkt aan AI-wetgeving (Artificial Intelligence). Er werd alleen nog geen rekening gehouden met de snelgroeiende ontwikkelingen en de opkomst van generatieve AI, die zelfstandig beeld en tekst kan creëren. Verwacht wordt dat deze technologie in de komende jaren aanzienlijke invloed zal hebben op de samenleving, sterker nog, dat gebeurt nu al! Daarom wordt momenteel gewerkt aan een herziene versie van het wetsvoorstel.
De AI Act
De Wet op Kunstmatige Intelligentie, ook wel de AI Act genoemd, heeft tot doel om verschillende AI-systemen in te delen in risicocategorieën. AI-systemen die als 'hoog risico' worden geclassificeerd, moeten voldoen aan specifieke eisen voordat ze toegang krijgen tot de Europese markt. Als aan deze eisen niet wordt voldaan en het AI-systeem aanzienlijke risico's met zich meebrengt, kan het in Europa zelfs worden verboden. Een keurmerk moet ervoor gaan zorgen dat duidelijk wordt welke AI-systemen aan de eisen voldoen. Ook zijn er AI-systemen die in de categorie ‘’onacceptabele risico’s’’ vallen, deze AI-systemen zijn bij voorbaat al verboden. Een voorbeeld van zo'n AI-systeem is er een waarbij AI probeert te voorspellen of iemand in de toekomst crimineel gedrag zal vertonen. Daarnaast is het gebruik van gezichtsherkenning in openbare ruimtes met behulp van AI ook verboden.
Flexibiliteit
De razendsnelle ontwikkelingen op het gebied van AI kunnen betekenen dat wetgeving snel verouderd raakt of nieuwe technologische ontwikkelingen niet voldoende kan reguleren. Daarom voorziet de wet in flexibiliteit, waardoor het mogelijk is om in de toekomst wijzigingen en aanvullingen aan te brengen. Dit zorgt ervoor dat de regels actueel blijven en kunnen inspelen op de nieuwste ontwikkelingen in AI.
Categorie ‘hoog risico’
AI mag geen inbreuk maken op de rechten van mensen. Een AI-systeem mag bijvoorbeeld geen onderscheid maken tussen sollicitanten op basis van zaken zoals afkomst of geslacht. Ook moet de gezondheid van burgers beschermd worden. Stel dat een AI-systeem wordt ingezet om de beveiliging van chemische opslagdepots te verbeteren, zijn er duidelijke regels nodig over wat wel en niet is toegestaan. Daarom wordt het in de toekomst verplicht om een risicoanalyse uit te voeren.
Verplichtingen
De meeste verplichtingen zijn van toepassing op AI-systemen die als 'hoog risico' worden geclassificeerd, en deze moeten het volgende omvatten:
- Risicomanagement: Er moet een systeem zijn om potentiële risico's te identificeren, beoordelen, beheren en verminderen.
- Datamanagement: Het gebruik van onbevooroordeelde, hoogwaardige en representatieve datasets is vereist.
- Technische documentatie: Het AI-systeem moet duidelijke instructies bieden aan gebruikers over hoe het moet worden gebruikt.
- Transparantie: Het moet voor gebruikers duidelijk zijn hoe het AI-systeem werkt, en er moet een verplichting zijn om logs bij te houden om gebeurtenissen te traceren en te controleren.
- Menselijk toezicht: Bij het gebruik van het AI-systeem is menselijk toezicht noodzakelijk.
- Conformiteitsbeoordeling: Er geldt een specifieke beoordelingsprocedure die verschilt van het huidige CE-markeringssysteem voor andere producten. Het doel is om een beoordelingsproces te hebben dat is afgestemd op de unieke kenmerken en risico's van AI-systemen.
Hoge boetes
Verwacht wordt dat iedereen vanaf 2026 moet voldoen aan de eisen die de Wet op Kunstmatige Intelligentie stelt. Voor overtredingen zijn er zware boetes vastgesteld, met een maximum van 40 miljoen euro of 7% van de totale wereldwijde jaaromzet voor het voorgaande boekjaar, afhankelijk van welk bedrag hoger is.
Meer weten? Lees hier het artikel van het Europees Parlement