Met de Kunstmatige Intelligentie Verordening (AI-verordening) heeft de Europese Unie voor het eerst een uitgebreid wettelijk kader gecreëerd voor het gebruik van kunstmatige intelligentie (AI). De AI Act, zoals de verordening in het Engels heet, is rechtstreeks van toepassing in alle EU-lidstaten en zal gefaseerd in werking treden. De eerste bepalingen, waaronder het verbod op bepaalde AI-praktijken en de verplichting voor AI-competentie, zijn al sinds 2 februari 2025 van kracht, en er zullen nog meer verordeningen volgen, onder andere over strafrechtelijke bepalingen (vanaf 2 augustus 2025) en de regulering van AI-systemen met een hoog risico (vanaf 2 augustus 2026).
De verordening is niet alleen bedoeld om een uniforme Europese norm voor de omgang met AI-systemen te creëren, maar ook om investeringen en innovatie te bevorderen en tegelijkertijd een hoog niveau van bescherming van grondrechten, veiligheid en gezondheid te garanderen.
Wat is kunstmatige intelligentie?
AI verwijst naar systemen die gegevens kunnen analyseren, patronen kunnen herkennen en zelfstandig conclusies kunnen trekken. Het kan teksten, afbeeldingen, video's, stemmen of computercodes genereren en wordt steeds vaker gebruikt in bedrijven. De mogelijke toepassingsgebieden zijn breed en variëren van geautomatiseerde klantcommunicatie, marketing en HR-managementtaken tot het herkennen van onregelmatigheden in belasting- of boekhoudgegevens.
Hoewel AI veel processen efficiënter kan maken, is het niet foutloos. Menselijke controle blijft essentieel om verkeerde interpretaties en onjuiste resultaten te voorkomen.
Verplichte AI-expertise in bedrijven vanaf 2 februari 2025
Sinds 2 februari 2025 zijn bedrijven die AI-systemen ontwikkelen of gebruiken verplicht om ervoor te zorgen dat hun werknemers over voldoende AI-vaardigheden beschikken (artikel 4 van de AI-verordening). Dit geldt niet alleen voor vaste werknemers, maar ook voor externe dienstverleners of samenwerkingspartners.
De benodigde kennis kan worden overgedragen via interne richtlijnen, bedrijfsbeleid of cursussen. Bedrijven moeten ervoor zorgen dat hun werknemers over de nodige kennis beschikken:
- de technische grenzen van AI,
- Regelgeving gegevensbescherming (GDPR),
- Auteursrechten (UrhG),
- de bescherming van handels- en bedrijfsgeheimen
- en mogelijke aansprakelijkheidskwesties.
In de praktijk wordt aanbevolen om in interne richtlijnen over het gebruik van AI duidelijk te maken dat AI-ondersteunde processen door mensen beoordeeld moeten worden. In bedrijven met een ondernemingsraad kan ook een formele ondernemingsovereenkomst over het gebruik van AI-systemen worden gesloten. Werknemers die in het bedrijf met AI-hulpmiddelen werken, moeten zo snel mogelijk worden opgeleid over de gebruikte AI-hulpmiddelen, de technische grenzen van AI, gegevensbescherming, auteursrecht, veiligheidsaspecten en bijbehorende aansprakelijkheidskwesties!
Risicoklassen voor AI-systemen: geleidelijke regulering
De AI-verordening deelt AI-systemen in verschillende risiconiveaus in, die elk specifieke vereisten met zich meebrengen:
- Verboden AI-praktijken (Artikel 5 AI-verordening)
- AI-systemen met hoog risico (artikel 6 en bijlage III van de AI-verordening)
- AI-systemen voor directe interactie met mensen (artikel 50 van de AI-verordening)
- AI-systemen met een algemeen doel (AI voor algemene doeleinden - GPAI, artikel 53 van de AI-verordening)
De respectieve voorschriften zijn afhankelijk van het risiconiveau van de toepassing: Terwijl bepaalde AI-praktijken al sinds februari 2025 verboden zijn, gelden er vanaf augustus 2026 strengere verplichtingen voor AI-systemen met een hoog risico.
Verboden AI-praktijken sinds 2 februari 2025
Sinds 2 februari 2025 zijn bepaalde AI-toepassingen verboden in de EU - de straffen voor overtredingen worden echter pas op 2 augustus 2025 van kracht. De verboden praktijken omvatten onder andere
- Manipulatieve AI-technieken die het gedrag van mensen in hun nadeel beïnvloeden.
- Emotieherkenning op de werkplek, behalve voor medische of veiligheidsgerelateerde doeleinden (bijv. concentratiebewaking voor vluchtpersoneel).
- Biometrische categorisatie als deze wordt gebruikt om gevoelige gegevens te verzamelen, zoals etniciteit, politieke opvattingen of seksuele geaardheid.
Praktische aanbevelingBedrijven moeten de AI-tools die ze gebruiken controleren om er zeker van te zijn dat er geen verboden technologie wordt gebruikt. Als een toepassing wordt beïnvloed, moet deze onmiddellijk worden stopgezet.
AI-systemen voor directe interactie met mensen: Transparantieverplichtingen vanaf 2 augustus 2026
Vanaf 2 augustus 2026 gelden er aanvullende transparantie-eisen voor bedrijven die AI-ondersteunde systemen gebruiken in directe communicatie met mensen. Dit betreft voornamelijk door AI gegenereerde inhoud zoals deepfakes, waarvan het gebruik openbaar moet worden gemaakt (artikel 50, lid 4, van de AI-verordening).
AI-systemen met hoog risico: Strikte vereisten vanaf 2 augustus 2026
Bepaalde AI-systemen worden beschouwd als technologieën met een hoog risico en zullen vanaf 2 augustus 2026 aan bijzonder strenge eisen moeten voldoen. De betrokken gebieden zijn onder andere kritieke infrastructuur (bijv. ziekenhuizen, elektriciteitsnetten), onderwijs en personeelsbeheer (bijv. filteren van toepassingen, prestatiebeoordelingen, werkplekmonitoring) of geautomatiseerde beslissingen over arbeidsvoorwaarden (bijv. promoties of ontslagen).
Bedrijven die AI met een hoog risico gebruiken, moeten:
- Neem technische en organisatorische maatregelen voor veilig gebruik.
- Zorg voor menselijk toezicht op de AI-systemen.
- Bewaar automatisch gegenereerde logboeken minstens zes maanden.
- Informeer werknemers en de ondernemingsraad over het gebruik van deze systemen.
Sancties voor niet-naleving van de AI-verordening
De AI-verordening voorziet in strenge straffen voor bedrijven die de voorschriften overtreden. Vanaf 2 augustus 2025 kunnen overtredingen worden bestraft met boetes tot 35 miljoen euro of 7 % van de wereldwijde jaaromzet (artikel 99 van de AI-verordening). Daarnaast zijn de lidstaten verantwoordelijk voor het bepalen van verdere sancties en procedurele regels. Het valt nog te bezien welke specifieke bepalingen in Oostenrijk van kracht zullen worden.
Belangrijke opmerkingDe verplichting om werknemers op te leiden in het gebruik van AI-systemen is niet direct strafbaar, maar het gebrek aan opleiding kan wel leiden tot het begaan van wettelijke overtredingen. Bedrijven moeten er daarom voor zorgen dat alle relevante werknemers tijdig worden geïnformeerd en opgeleid.
Wat bedrijven nu moeten doen
De AI-verordening van de EU brengt verregaande veranderingen met zich mee voor bedrijven die AI-technologie gebruiken. Om aan de nieuwe regelgeving te voldoen, moeten bedrijven:
- Controleer AI-systemen en zorg ervoor dat er geen verboden praktijken worden gebruikt.
- Introduceer training voor werknemers om te zorgen voor de nodige AI-expertise.
- Transparantieverplichtingen en richtlijnen voor gegevensbescherming aanpassen.
- Overweeg strenge vereisten voor AI-systemen met een hoog risico.
Status: 03/03/2025
Bron: Gespecialiseerde publicaties van Kraft & Kronberger
Foto: Tara Winstead















