Europees Parlement spreekt zich uit over voorstel voor nieuwe AI-Verordening

Contentverzamelaar

Europees Parlement spreekt zich uit over voorstel voor nieuwe AI-Verordening

Het Europees Parlement heeft tijdens de bespreking van het voorstel voor een EU-Verordening over artificiële intelligentie onder meer aandacht besteed aan de risico’s van verschillende AI-systemen. De verdere onderhandelingen over de definitieve versie van de verordening kunnen nu van start.

Uit de bespreking van het voorstel van de Europese Commissie voor nieuwe AI (artificiële intelligentie)-wetgeving uit april 2021 (zie ook dit ECER-bericht) die eind juli 2023 in het Europees Parlement plaatsvond, bleek dat de prioriteit van het Parlement is om ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen. Daarnaast werd gepleit voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen.

Lees hier meer over de voorstellen van het Parlement over AI en over de visie voor de toekomst van AI

Risico’s bij AI
De nieuwe voorgestelde regels houden bepaalde verplichtingen voor aanbieders en gebruikers in, afhankelijk van het risico van de AI-toepassing. Bij veel AI-systemen is het risico minimaal, maar toch moeten ook die volgens het Parlement worden beoordeeld.

Het Parlement benoemt als AI-systemen met een onaanvaardbaar risico de systemen die als een gevaar voor de mens worden beschouwd. Deze zullen worden verboden. Het gaat hier onder meer om:
-cognitieve gedragsmanipulatie van personen of specifieke kwetsbare groepen: bijvoorbeeld speelgoed dat reageert op een stem en dat bij kinderen gevaarlijk gedrag uitlokt;
-sociale scoring: het classificeren van mensen op basis van hun gedrag, sociaaleconomische status of persoonlijke kenmerken;
-biometrische systemen voor identificatie op afstand in real time, zoals gezichtsherkenning.

Er wordt wel ruimte voor uitzonderingen gezien. Zo zijn systemen voor identificatie op afstand “achteraf”, waarbij de identificatie met een aanzienlijke vertraging plaatsvindt, wel toegestaan bij vervolging van ernstige misdrijven, maar alleen met toestemming van de rechter.

AI-systemen die een negatief effect hebben op de veiligheid of de grondrechten worden als systemen met een hoog risico beschouwd en worden onderverdeeld in twee categorieën:

1) AI-toepassingen in producten die onder de EU-wetgeving op het gebied van productveiligheid vallen. Voorbeelden hiervan zijn speelgoed, luchtvaartuigen, auto’s, medische hulpmiddelen en liften.

2) AI-systemen (acht verschillende gebieden), die in een EU-databank moeten worden geregistreerd betreffen:
-biometrische identificatie en categorisering van natuurlijke personen;
-beheer en exploitatie van kritieke infrastructuur;
-onderwijs en beroepsopleiding;
-werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid;
-toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen;
-rechtshandhaving;
-migratie, asiel en beheer van grenscontroles;
-ondersteuning van rechterlijke instanties bij het uitleggen van feiten en toepassing van het recht.

Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd.

Zogenoemde generatieve AI, zoals ChatGPT, zal moeten voldoen aan een aantal transparantievereisten:
-de toepassingen moeten de vermelding bevatten dat de inhoud is gegenereerd door AI;
-het model moet zodanig worden ontworpen dat er geen illegale inhoud kan worden gegenereerd;
-er moet een overzicht worden gegeven van auteursrechtelijk beschermde gegevens die voor het trainen van het systeem zijn gebruikt.

AI-systemen met een beperkt risico moeten voldoen aan minimale transparantievereisten om gebruikers in staat te stellen weloverwogen beslissingen te nemen. Na interactie met een toepassing is het dan aan de gebruikers om te beslissen of zij de toepassing willen blijven gebruiken. Het moet aan de gebruikers duidelijk worden gemaakt dat zij interageren met een AI-systeem. Dit geldt onder meer voor AI-systemen die beeld-, audio- of videomateriaal genereren, zoals deepfakes.

Hoe verder?
Op 14 juni 2023 stelden EP-leden al het standpunt van het Parlement voor de onderhandelingen over de AI-verordening vast. Op basis daarvan gaan gesprekken met de EU-lidstaten in de Raad van start om vervolgens de AI-verordening in een definitieve vorm te gieten. Het doel is om vóór het einde van 2023 tot een akkoord te komen.

Meer informatie:
Nieuwsbericht Europees Parlement
ECER-dossier: Digitalisering
ECER-bericht: Europese Commissie presenteert nieuwe aansprakelijkheidsregels voor producten en artificiële intelligentie (30 september 2022)