Nieuwe praktijkcode AI gepubliceerd
Nieuwsbericht | 14-07-2025
De Europese Commissie heeft de definitieve versie van de AI-praktijkcode voor het algemene doel (GPAI-code) op 10 juli 2025 in ontvangst genomen. Er kwam ook een Q&A over de nieuwe code uit en achtergrondinformatie op de website van de Europese Commissie.
De code is bedoeld om de industrie te helpen voldoen aan de regels van de AI-wet inzake AI voor algemene doeleinden (de EU-Verordening AI (2024/1689)), die op 2 augustus 2025 in werking zal treden. De regels worden een jaar later afdwingbaar door het AI-bureau van de Europese Commissie wat nieuwe modellen betreft en twee jaar later wat bestaande modellen betreft. Dit moet ervoor zorgen dat AI-modellen voor algemene doeleinden die op de Europese markt worden gebracht, met inbegrip van de krachtigste modellen, veilig en transparant zijn.
Transparantie, auteursrecht, veiligheid en beveiliging De nieuwe gepubliceerde Code bestaat uit drie hoofdstukken: Transparantie en Auteursrecht (beide gericht op alle aanbieders van AI-modellen voor algemene doeleinden), en Veiligheid en beveiliging (slechts relevant voor een beperkt aantal aanbieders van de meest geavanceerde modellen).
Aangezien AI-modellen voor algemene doeleinden ten grondslag liggen aan veel AI-systemen in de EU, helpt de AI-verordening aanbieders te zorgen voor voldoende transparantie. Dit stelt aanbieders in staat om deze modellen in hun producten te integreren. Het hoofdstuk Transparantie van de code biedt een gebruiksvriendelijk modeldocumentatieformulier, waarmee aanbieders de nodige informatie eenvoudig op één plaats kunnen documenteren.
Het hoofdstuk Auteursrecht van de Code biedt aanbieders praktische oplossingen om een beleid in te voeren dat voldoet aan de EU-wetgeving inzake auteursrechten.
Sommige AI-modellen voor algemene doeleinden kunnen systeemrisico's met zich meebrengen, zoals risico's voor de grondrechten en de veiligheid, waaronder het verlagen van belemmeringen voor de ontwikkeling van chemische of biologische wapens, of risico's in verband met het verlies van controle over het model. De AI-verordening schrijft voor dat modelaanbieders deze systeemrisico's beoordelen en beperken. Het hoofdstuk Veiligheid en beveiliging bevat relevante praktijken voor systeemrisicobeheer.
Hoe verder?
Zodra de code door de lidstaten en de Commissie is goedgekeurd, kunnen aanbieders van AI-modellen voor algemene doeleinden die de code vrijwillig ondertekenen, aantonen dat zij aan de relevante verplichtingen van de AI-verordening voldoen door de code na te leven. Zodoende kunnen ondertekenaars van de code profiteren van minder administratieve lasten en meer rechtszekerheid in vergelijking met aanbieders die op andere manieren bewijzen dat zij de code naleven.
De code zal worden aangevuld met richtsnoeren van de Europese Commissie inzake AI voor algemene doeleinden die moeten worden gepubliceerd vóór de inwerkingtreding van de AI-verplichtingen voor algemene doeleinden. Die richtsnoeren moeten verduidelijken wie binnen en buiten het toepassingsgebied van de AI-verordening voor algemene doeleinden valt.
Meer informatie: Persbericht Europese Commissie ECER-dossier: Digitalisering – Kunstmatige intelligentie