Skip to content

Commit

Permalink
Ai verordening in het kort (#374)
Browse files Browse the repository at this point in the history
Co-authored-by: webredactie-algoritmekader <[email protected]>
  • Loading branch information
ruthkoole and webredactie-algoritmekader authored Nov 14, 2024
1 parent eaf9524 commit a1c7ae5
Showing 1 changed file with 134 additions and 2 deletions.
136 changes: 134 additions & 2 deletions docs/voldoen-aan-wetten-en-regels/ai-verordening.md
Original file line number Diff line number Diff line change
Expand Up @@ -2,6 +2,138 @@
hide: navigation
---

# De AI-verordening in het kort
# AI-verordening in het kort

In de AI-verordening staan de Europese regels voor het verantwoord ontwikkelen en gebruiken van AI. Ongewenste AI is verboden vanaf 2 februari 2025. Andere AI-systemen moeten vanaf 2026 of vóór 2030 voldoen aan bepaalde vereisten.

[Verordening (EU) 2024/1689 (AI-verordening)](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689)

## Over de AI-verordening
De AI-verordening is de eerste uitgebreide wet over artificiële intelligentie (AI) ter wereld. De regels gelden voor alle Europese lidstaten.

De AI-verordening trad in werking op 1 augustus 2024 en gaat stap voor stap gelden. De eerste regels gaan in op 2 februari 2025. Vanaf 2 augustus 2025 geldt de volgende set regels. Op 2 augustus 2027 gaan de laatste regels in. Dan is de hele AI-verordening van kracht.

## Europese regels voor het ontwikkelen en gebruiken van AI
De AI-verordening geldt in deze 3 situaties samen:

* Je ontwikkelt of gebruikt AI.
* Dit doe je namens een overheid, bedrijf of andere organisatie.
* Je organisatie is gevestigd in een EU-land.

Het maakt niet uit waar je AI-producten ontwikkelt. Ontwikkel je buiten de EU, maar is je organisatie gevestigd in een EU-land? Dan geldt de EU-verordening.

## Verantwoord gebruik van AI
Het doel van de AI-verordening is om verantwoord gebruik van AI te stimuleren in de hele EU. Daarom gelden in alle EU-landen dezelfde regels voor het:

* Verkleinen van risico’s voor de gezondheid, veiligheid en grondrechten van mensen
* Beschermen van de democratie, de rechtsstaat en het milieu

Het gaat dan om nieuwe risico’s, zoals misleiding en discriminatie door AI-systemen. Bestaande regels zoals de Algemene verordening gegevensbescherming (AVG) en de Algemene wet bestuursrecht (Awb) beschermen voor een deel tegen de risico’s van AI. De AI-verordening vult deze regels aan.

## Definitie van een AI-systeem
De AI-verordening geldt voor AI-systemen. Volgens de verordening is dit:

'(…) een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na de uitrol aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen.'

Hieronder vallen systemen die kunstmatig intelligent zijn door zelflerende technieken zoals:

* supervised learning
* unsupervised learning
* reinforcement learning (bekrachtiginsleren)
* deep learning

Onder AI-systemen vallen ook systemen die gebruik maken van op logica en kennis gebaseerde benaderingen (<span lang="en">_knowledge and logic-based approaches_</span>) die leren, redeneren of modelleren mogelijk maken.

Symbolische AI is meestal ook een AI-systeem.

### Uitzondering
Onder AI-systemen vallen geen systemen die gebaseerd zijn op door mensen gemaakte regels om automatisch handelingen uit te voeren.

## Risicogroepen
De AI-verordening deelt AI op in risicogroepen. Hoe groter het risico van AI voor de samenleving, hoe strenger de regels uit de AI-verordening. Het hangt ervan af waarvoor je dit AI-systeem gebruikt.

### Risico op misleiding
Dit zijn AI-systemen die je gebruikt voor:

* __interactie met mensen__, zoals AI-chatbots
* __genereren van content__, zoals afbeeldingen laten maken door Dall-E en of audio en tekst

Over deze systemen moet je transparant zijn. Gebruikers mogen niet denken dat zij te maken hebben met echte mensen of originele content.

Zie [AI-verordening, hoofdstuk IV](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689#d1e5418-1-1).

### Hoog-risico-AI-systemen
Dit zijn AI-systemen die je gebruikt als veiligheidsonderdeel van bepaalde producten of AI-systemen die je gebruikt voor bepaalde diensten of processen.

'Gebruiken als veiligheidsonderdeel' betekent dat je AI-systeem een belangrijke rol speelt in de veiligheid van een product. En dit product valt onder de harmonisatiewetgeving van de EU, zoals:

* machines
* speelgoed
* liften
* uitrusting en beveiligingssystemen voor plaatsen met ontploffingsgevaar
* radioapparatuur
* drukapparatuur
* pleziervaartuigen
* kabelbaaninstallaties
* gastoestellen
* medische hulpmiddelen
* hulpmiddelen voor het testen van menselijk materiaal (in-vitrodiagnostiek)
* auto-industrie
* luchtvaartindustrie

Zie [AI-verordening, bijlage I](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689#d1e38-124-1).

'Gebruik voor bepaalde diensten of processen' zijn:

- __Biometrie__, zoals het herkennen of indelen van mensen op basis van hun vingerafdruk, gezicht of andere lichamelijke kenmerken.
- __Kritieke infrastructuur__, zoals het veilig houden van digitale netwerken en verkeersnetwerken en het leveren van elektriciteit, water, gas en warmte.
- __Onderwijs en beroepsopleiding__, zoals het bepalen welke studenten je toelaat en het beoordelen van hun prestaties of gedrag.
- __Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid__, zoals het werven en selecteren van mensen, besluiten nemen die invloed hebben op hun contract en het beoordelen van hun prestaties of gedrag.
- __Essentiële particuliere en openbare diensten__, zoals bepalen wie recht heeft op uitkeringen, gezondheidszorg en andere belangrijke diensten en wie noodhulp krijgt van politie, brandweer en ambulance, het beoordelen van iemands financiële situatie, fraude opsporen en het bepalen van risico’s en prijzen voor levensverzekeringen en ziektekostenverzekeringen.
- __Rechtshandhaving__, zoals iemands kans inschatten om slachtoffer of dader te worden, het gebruik van een leugendetector, het beoordelen van bewijsmateriaal en het opsporen van verdachten.
- __Migratie, asiel en grenzen__, zoals inschatten wat de kans is dat iemand gevaarlijk of illegaal is, het behandelen van aanvragen en klachten en het herkennen of opsporen van mensen.
- __Rechtsbedeling en democratische processen__, zoals het uitleggen van de wet aan een rechtbank, gerechtshof of de Hoge Raad, advies geven bij een geschil of het beïnvloeden van de uitslag van een verkiezing.

Zie [AI-verordening, bijlage III](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689#d1e38-127-1).

### Verboden AI-systemen
Dit zijn AI-systemen die:

* __misleiden__
* __misbruik maken van kwetsbaarheden of gevoelige situaties__, zoals het overhalen van mensen met schulden om iets te kopen
* __sociale scores bijhouden__ voor gedrag van mensen en hen hiervoor straffen
* __beoordelen__ hoe groot het risico is dat iemand een strafbaar feit pleegt
* __afbeeldingen van gezichten ‘scrapen’ (verzamelen)__ via internet of bewakingscamera’s en deze opslaan in een databank
* __emoties herkennen__ van mensen op hun werkplek of op school
* __biometrisch categoriseren__: mensen indelen in gevoelige categorieën zoals ras en geloof, op basis van lichamelijke kenmerken zoals huidskleur
* __biometrisch identificeren op afstand voor rechtshandhaving__, zoals gezichten herkennen via camera’s op een openbaar plein (hiervoor gelden uitzonderingen in ernstige situaties zoals ontvoeringen en terrorisme)

Zie [AI-verordening, artikel 5](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689#d1e2816-1-1).

## 2 februari 2025: stoppen met verboden AI
Organisaties die verboden AI ontwikkelen of gebruiken, moeten deze producten vóór 2 februari 2025 [uitfaseren](../levenscyclus/uitfaseren.md).


## 2 augustus 2026: AI ontwikkelen volgens vereisten
Organisaties die AI-systemen ontwikkelen, moeten ervoor zorgen dat deze producten vóór 2026 voldoen aan bepaalde vereisten, zoals:

* Personen die toezicht houden op het systeem beschikken over de juiste kennis, kunde en autoriteit.
* Inputdata is voldoende relevant en representatief, voor zover dat mogelijk is.
* Als een gebruiksverantwoordelijke aanneemt dat het systeem niet meer voldoet aan de eisen uit de AI-verordening, stelt deze de aanbieder op de hoogte en onderbreekt het gebruik.
* Organisaties die beslissingen nemen over mensen met behulp van een hoog-risico-AI-systeem, informeren deze mensen hierover.
* Organisaties die AI gebruiken voor emotieherkenning of biometrische categorisatie van mensen, informeren deze mensen hierover.

## Toezicht

* Nationale toezichthouders: controleren organisaties en kunnen straffen opleggen zoals een product uit de handel nemen
* AI-board: Europese raad voor artificiële intelligentie (nog in oprichting)
* AI-bureau: stelt richtlijnen op voor de AI-board
* Wetenschappelijk panel: advies van wetenschappers
* Adviesforum: advies van belanghebbenden

## Beslishulp AI-verordening
Met de [beslishulp AI-verordening](https://ai-act-decisiontree.apps.digilab.network/) bepaal je snel en gemakkelijk of jouw AI-product onder de AI-verordening valt. En wat je dan moet doen.

## Help ons deze pagina te verbeteren
Deel je idee, suggestie of opmerking via [GitHub](https://github.com/MinBZK/Algoritmekader/issues/new/choose) of mail ons via [[email protected]]([email protected]).

-- placeholder --

0 comments on commit a1c7ae5

Please sign in to comment.