De AI Act heeft betrekking op ‘iedereen’ die zelf software maakt, ontwikkelt, uitwerkt en/of in de markt zet. Denk daarbij aan makers van chatbots, ontwikkelaars van zelfrijdende auto’s, apps die notulen transcriberen etc. De eisen in de AI verordening zijn vooral bedoeld voor techbedrijven, maar hebben uiteraard ook gevolgen voor het MKB.
Hoe ga je ermee om? Hieronder een stappenplan:
- Breng AI-systemen in kaart
- Voer een risicoanalyse uit
- Beoordeel welke systemen onder de nieuwe regelgeving vallen
- Bepaal de risicoclassificatie
- Tref maatregelen
- Maak plannen voor naleving van de AI Act
Al met al moeten organisaties een risicoanalyse uitvoeren waarin bepaald wordt waar mensen ‘last’ van kunnen krijgen door de AI-toepassingen. Daarnaast moet helder zijn welke gegevens gebruikt zijn om AI-software te trainen en moet het technisch mogelijk zijn om alle handelingen/stappen van een systeem na te kunnen gaan; het mag in geen geval een ‘black-box’ zijn waarbij men geen idee heeft van de werking ervan. Al met al moet er betrokkenheid van de mens zijn, zodat voorkomen wordt dat AI-techniek bepaalt wat er gebeurt. De mens moet controleren of de software ‘zijn taak’ doet en of de output daarvan veilig, betrouwbaar en ethisch verantwoord is.
Vanzelfsprekend gaat de komst van de AI Act voor organisaties kosten met zich meebrengen in zowel tijd als geld. Die investeringen wegen echter niet op tegen de eventuele boetes die opgelegd worden. De nieuwe AI wetgeving is streng en zeker niet mals met het oog op overtredingen; in dat geval kunnen er hoge boetes worden opgelegd. Daarbij is het, op dit moment, nog niet duidelijk wie de toezichthouder(s) wordt.
Systematisch AI inregelen? ISO 42001 biedt uitkomst!
ISO 42001 is dé norm voor veilige en betrouwbare ontwikkeling en implementatie van AI. De norm geeft houvast, kaders en daarmee een gestandaardiseerde werkwijze om AI-systemen te ontwikkelen. Het is een handig hulpmiddel waarmee aan een groot deel van de wet- en regelgeving van o.a. de AI verordening wordt voldaan.