Op 21 april 2021 heeft de Europese Commissie een voorstel gepresenteerd met nieuwe regels voor Artificial Intelligence (AI/kunstmatige intelligentie).

Waarom nieuwe regels?

AI wordt al breed gebruikt, vaak zonder dat we het zelf in de gaten hebben. De meeste AI systemen vormen geen risico voor gebruikers. Maar dat geldt niet voor alle AI systemen. De bestaande regelgeving is onvoldoende om de veiligheid van gebruikers en de fundamentele rechten te waarborgen. Daardoor kan het vertrouwen in AI in gevaar komen.

Welke risicocategorieën komen er?

De Europese Commissie stelt een ‘risk-approach’ aanpak voor met vier risiconiveaus:

1. onacceptabel risico
Een zeer beperkt aantal AI toepassingen worden aangemerkt als een onacceptabel risico. Deze gaan in tegen fundamentele rechten en worden om die reden verboden. Als voorbeeld noemt de commissie het sociaal labelen van burgers door overheden en op afstand biometrisch identificeren in de publieke ruimte. Op dit laatste zijn een paar uitzonderingen gemaakt.

2. hoog risico
Een iets groter aantal AI toepassingen vormt een hoog risico. Deze worden beschreven in het voorstel. Zij vormen een hoog risico omdat zij een impact hebben op de fundamentele rechten. De opsomming van deze AI toepassingen kan periodiek worden aangepast.
Deze AI toepassingen moeten aan een aantal verplichte voorwaarden voldoen. Deze voorwaarden omvatten kwaliteitseisen aan de gebruikte dataset, technische documentatie, transparantie en informatieverstrekking aan gebruikers, menselijk toezicht, en robuustheid, accuratesse en cybersecurity. Nationale toezichthouders krijgen hier onderzoeksrechten.

3. beperkt risico
Voor een grotere groep AI-toepassingen geldt een beperkt risico. Hier kan worden volstaan met transparantie. De commissie noemt hier als voorbeeld chatbots. Gebruikers moeten weten dat zij communiceren met een chatbot.

4. minimaal risico
Voor alle andere AI toepassingen geldt dat de bestaande wet- en regelgeving afdoende is. Verreweg de meeste van de huidige AI toepassingen vallen in deze categorie.

Hoe classificeer je AI-systemen?

De commissie komt met een methodiek om AI toepassingen in te delen in een van de vier risico niveaus. Het doel daarvan is om zekerheid te bieden voor ondernemingen en anderen. Het risico wordt beoordeeld op basis van het beoogde gebruik. Dit betekent dat gekeken wordt naar:

  • het beoogde doel
  • het aantal potentieel geraakte personen
  • de afhankelijkheid van de uitkomst
  • de onomkeerbaarheid van de schade.
Wat zijn de gevolgen voor hoog risico AI systemen?

Voordat deze AI systemen gebruikt mogen worden moet een onderzoek worden uitgevoerd naar het voldoen aan de regelgeving. Uit dat onderzoek moet blijken dat het AI systeem compliant is ten aanzien van de vereisten op het gebied van datakwaliteit, documentatie en traceerbaarheid, transparantie, menselijk toezicht, accuratesse en robuustheid. Voor sommige AI systemen zal een ‘notified body’ ingeschakeld moeten worden. Voor deze AI systemen moet ook een risk management systeem worden opgezet door de leverancier.

Wie gaat handhaven?

De Lidstaten zullen een autoriteit moeten aanwijzen die gaat toezien op de naleving.

Gedragscodes
Leveranciers van high-risk AI systemen kunnen een vrijwillige gedragscode maken voor de veilige toepassing van AI systemen. De commissie stimuleert de industrie om hiermee te komen.

Wie is aansprakelijk bij import van AI systemen?

De importeur in de EU van AI systemen is verantwoordelijk voor het ingevoerde AI systeem. Hij moet ervoor zorgen dat de producent voldoet aan EU regelgeving en een CE markering heeft.

Wat is de sanctie?

Het overtreden van deze regelgeving kan worden beboet met een geldboete van maximaal 6% van de jaaromzet in het voorafgaande kalenderjaar.

Met vragen kunt u contact opnemen met Jos van der Wijst (wijst@bg.legal)

Details
More questions?

If you were not able to find an answer to your question, contact us via our member-only helpdesk or our contact page.

Recent Articles