Zomer update: AI-wet en het onderwijs

4 september 2024

De afgelopen tijd is de aandacht voor AI ook in het onderwijs enorm. Wij kunnen ons voorstellen dat je door de bomen het bos niet meer ziet. Hieronder vind je een korte samenvatting en een stappenplan van de belangrijkste ontwikkelingen rondom AI in het onderwijs, inclusief een overzicht van bronnen waar je verdiepend verder kunt lezen.

AI-verordening is per 1 augustus ingegaan

Per 1 augustus 2024 is de AI-verordening in werking getreden. De komende maanden gaan de verschillende eisen stap voor stap gelden. De eerste eisen gelden vanaf februari 2025. De AI-verordening is de eerste uitgebreide wet over kunstmatige intelligentie ter wereld. In deze verordening staan regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties dus ook scholen.

AI-applicaties zijn in 3 risicogroepen opgedeeld.

  1. Verboden AI (vanaf februari 2025)
  2. AI met een hoog risico
  3. AI met een beperkt risico

Naast dat de verboden AI vanaf februari 2025 moet gelden, wordt er ook geëist dat organisaties die AI-systemen inzetten, voldoende kennis in huis moeten hebben over AI. Dit betekent dat per medewerker het kennisniveau moet aansluiten bij de context waarin de AI-systemen worden gebruikt en hoe de systemen (groepen) personen kunnen raken.

In de afbeelding hieronder wordt duidelijk weergegeven wanneer wat in werking treedt.

Bron: Autoriteit Persoonsgegevens 

 

Het stappenplan

Om je als schoolorganisatie goed voor te bereiden is er door Wilfred Rubens in zijn blog een duidelijk stappenplan omschreven.

Inventariseer AI-gebruik
Maak een overzicht van alle AI-toepassingen binnen de organisatie instelling. Denk aan:

  • Chatbots voor studenten
  • AI-tools voor nakijken
  • Plagiaatdetectie
  • Generatieve AI voor het maken van lesmateriaal

In toenemende mate zal AI ook binnen leertechnologieën, zoals leermanagement systemen, geïntegreerd worden. Dit valt dan ook onder de AI Act.

 

Bepaal per toepassing de risicocategorie
Raadpleeg hiervoor de Europese database met hoog-risico AI. Bij twijfel, vraag de leverancier om advies. Veel educatieve toepassingen vallen overigens onder hoog risico (denk aan feedback geven, beoordelen, proctoring, plagiaatdetectie en dus generatieve AI).

 

Documenteer gebruik en voorzorgsmaatregelen
Leg voor elke AI-toepassing vast:

  • Doel van gebruik
  • Risicocategorie
  • Genomen voorzorgsmaatregelen
  • Verantwoordelijke personen

Deze documentatie wordt bijvoorbeeld gebruikt bij audits die plaats kunnen vinden.

 

Pas gebruik aan volgens richtlijnen
Voor hoog-risico AI zoals ChatGPT betekent dit:

  •  Menselijk toezicht op output
  • Transparantie naar gebruikers
  • Respecteren auteursrecht
  • Labelen van AI-gegenereerde content

Stel dat docenten generatieve AI gebruiken om opdrachten mee te ontwikkelen. Dan moet je:

  • Beschrijven hoe je dit doet.
  • Aangeven dat de docent de output altijd controleert (bij voorkeur bewerkt).
  • Richting leerlingen aangeven dat AI wordt gebruikt om opgaven te genereren (en hoe).

 

Afhankelijkheid

De opkomst van ChatGPT veroorzaakte in het begin veel onrust in het onderwijs. Er wordt nog steeds nagedacht over hoe kunstmatige intelligentie op scholen ingezet moet worden en welke bedrijven hier flink aan kunnen verdienen. In de uitzending van EenVandaag wordt hier dieper op ingegaan, maar ook hoe AI scholen en universiteiten nog afhankelijker maakt van grote techbedrijven.

 

Privacy op School besteedt de komende nieuwsbrieven aandacht aan de AI wet en wat de implicaties zijn voor het onderwijs. We denken graag mee bij de afwegingen die uw school moeten maken als het gaat om de inzet van AI.

Nog niet ingeschreven voor de nieuwsbrief? Schrijf je hieronder in.