Smartschool en AI

De afgelopen dagen heb ik met een zekere fascinatie de berichtgeving rond Smartschool gevolgd. Ze zetten een nieuwe stap: het gebruik van artificiële intelligentie (AI) om leerproblemen bij leerlingen te detecteren. In mijn dagelijkse werk ben ik voortdurend bezig met AI. Met de ondertitel van mijn AI-boek in gedachten – “Alles waar we om geven beter maken” – keek ik vol bewondering naar deze technologische vooruitgang. Toont Vlaanderen zich voldoende AI-ready?

Terwijl ik dit nieuws volgde, dacht ik terug aan de Europese AI Act. Specifiek aan artikel 5, dat AI-gebruik voor “social scoring” beperkt. Het riep meteen de vraag op: hoe dicht komt het detecteren van leerproblemen eigenlijk bij die grens van “social scoring”?

Persoonlijke leertrajecten en AI: een goed idee?

Laten we één ding meteen helder maken: ik ben een voorstander van AI in het onderwijs. AI biedt kansen om persoonlijke leertrajecten te creëren, leerlingen met leerproblemen te ondersteunen en deze problemen vroegtijdig te signaleren. Dit zijn stuk voor stuk mogelijkheden om ons onderwijs te verbeteren. AI kan echt iets betekenen voor leerlingen die op een traditioneel onderwijssysteem niet altijd gedijen. Vlaanderen mag zeker zijn eigen “Slagen met AIsha” beginnen maken.

Maar dat roept de volgende vraag op. Hoe goed zijn we als maatschappij en onderwijsomgeving voorbereid om deze technologie verantwoord te gebruiken? Wetgeving zoals de AI Act biedt enige richting, maar hoe goed zijn bedrijven zoals Smartschool voorbereid om AI op een ethisch verantwoorde manier in te zetten?

Smartschool: van toetsplatform naar AI-pionier

Smartschool is al een gevestigde naam in het onderwijs. Wat begon als een eenvoudig platform voor resultaten, afwezigheden en communicatie tussen leerkrachten en ouders, is nu uitgegroeid tot een onmisbare speler. Los van de vraag hoe groot de invloed van Smartschool is in het dagelijks leven van gezinnen, bewonder ik als ondernemer de indrukwekkende groei van het bedrijf. Ze zijn geëvolueerd van een administratief hulpmiddel naar een prominente speler met AI-gedreven innovaties op de voorgrond.

Toch roept deze evolutie, net als bij andere technologiën die ons overvallen, ook vragen op. De stap naar AI klinkt misschien als een logische volgende stap, maar is onze maatschappij daar echt klaar voor? Het is al een goede zaak dat ze de “experimenteer”-fase, zoals ik ze beschrijf in mijn boek, niet overslaan!

De uitdagingen: van privacy tot ethiek

De grootste uitdaging ligt misschien niet in de technologie zelf. Het probleem zit vooral in het maatschappelijke kader waarin die technologie wordt toegepast. Hoe garanderen we dat de AI-modellen die Smartschool wil inzetten om leerproblemen te signaleren, zorgvuldig zijn ontworpen, getest en geaudit? Welke garanties hebben ouders dat scholen de data van hun kinderen goed verwerken? Het betreft prestaties, leerproblemen en persoonlijke ontwikkeling, en hoe scholen deze informatie beschermen.

De Europese AI Act biedt hier enige houvast. Systemen die direct invloed hebben op mensen, zoals de AI van Smartschool, vallen onder strenge regels. Organisaties moeten duidelijk maken welke data ze verzamelen en hoe ze die gebruiken. Maar Smartschool moet niet alleen voldoen aan de wet, ze moeten ook het vertrouwen van de maatschappij winnen. Dit betekent dat ze niet alleen hun AI moeten uitleggen aan technici, maar ook aan ouders, leerkrachten en leerlingen. En dat is een grote uitdaging. Als leerling en ouder heb je nauwelijks inspraak. De meeste onderwijsinstellingen bieden geen alternatief, waardoor je verplicht bent Smartschool te gebruiken.

Smartschool en sociale controle?

Een andere zorg is dat AI in het onderwijs snel kan veranderen in sociale controle. Hoewel de intentie goed is en AI bedoeld is om leerlingen te ondersteunen, kan het gemakkelijk een middel worden om hen te beoordelen of te categoriseren. Dit gebeurt vaak zonder de volledige context van hun problemen te begrijpen. Wie de uiteindelijke “score” te zien krijgt is dus niet onbelangrijk in dit verhaal. Artikel 5 van de AI Act verbiedt systemen die mensen beoordelen op basis van gedrag of prestaties, als dit schadelijk is. De vraag is dus hoe we kunnen voorkomen dat AI in het onderwijs deze risico’s met zich meebrengt. Benieuwd ook hoe interpretaties rond deze wet zich gaan ontwikkelen.

Hoe ver staan we af van een toekomst waarin leerlingen een AI-score krijgen voor hun leervermogen? Of waarin leerproblemen hen blijven volgen door hun verdere onderwijs? Het verschil tussen ondersteuning bieden en oordelen vellen is klein. Als maatschappij moeten we ervoor zorgen dat die grens duidelijk blijft.

Hoe nu verder?

De introductie van AI door Smartschool is zonder twijfel interessant en potentieel waardevol. Toch moeten we kritisch blijven kijken naar hoe deze technologie wordt geïmplementeerd. Smartschool heeft een sterke reputatie opgebouwd. Als ze deze stap zetten, moet dat met de nodige voorzichtigheid gebeuren. Transparantie en aandacht voor de ethische aspecten van AI zijn daarbij essentieel. Ik trek niet in twijfel dat deze zorgvuldigheid er is bij de organisatie. Ook in het experiment kan dit nog verder bestudeerd worden.

Wat we daarnaast nodig hebben, is een breed maatschappelijk debat over de rol van AI in het onderwijs. Ouders, leerkrachten, techbedrijven, maar ook de overheid moeten mee aan tafel. Transparantie en controle zijn de sleutelwoorden. We moeten ervoor zorgen dat ouders weten hoe de data van hun kinderen wordt gebruikt. Leerkrachten moeten begrijpen welke beslissingen AI-systemen nemen. Daarnaast zijn duidelijke kaders nodig om te voorkomen dat AI meer kwaad dan goed doet.

Smartschool en AI: is Vlaanderen AI-ready?

De stap van Smartschool naar AI gaat ons leren hoe ver Vlaanderen is in zijn AI-readiness. En terwijl de AI-trein snel vooruitgaat, moet onze wetgeving, en vooral ons maatschappelijke bewustzijn, mee evolueren. AI kan het onderwijs verrijken, maar dat moet gebeuren op een verantwoorde manier, waar veiligheid, ethiek en transparantie centraal staan. We kunnen niet zomaar AI in ons onderwijs toelaten zonder grondige reflectie op de gevolgen.

Laten we die dialoog starten. Als we technologie willen gebruiken om “alles waar we om geven beter te maken”, moeten we zeker zijn dat ze de mens dient, en niet andersom. Ik ben ervan overtuigd dat AI binnen Smartschool een katalysator kan zijn voor persoonlijke leertrajecten.

Artikel 5 van de AI Act eenvoudig uitgelegd: Wat mag niet?

Artikel 5 van de Europese AI Act draait om het verbieden van bepaalde AI-toepassingen die als bijzonder riskant of schadelijk worden beschouwd. Dit artikel geldt vanaf 2 februari 2025 en legt heel duidelijk vast welke AI-praktijken absoluut niet mogen. Laten we de belangrijkste punten even simpel samenvatten.

1. Verboden AI-praktijken

De wet verbiedt AI-systemen die:

  1. Manipuleren of misleiden: AI mag niet op een subtiele of misleidende manier gedrag van mensen veranderen, waardoor ze besluiten nemen die ze anders niet zouden nemen. Dit geldt zeker als het mensen zou schaden. Bijvoorbeeld, een AI die mensen onbewust beïnvloedt om iets te kopen of anders te handelen zonder dat ze zich daarvan bewust zijn, mag niet.
  2. Misbruik maken van kwetsbaarheden: AI mag geen kwetsbare groepen (zoals kinderen of mensen met een handicap) uitbuiten door hun gedrag te beïnvloeden op een manier die hen schade kan berokkenen.
  3. Sociale scores geven: AI mag geen mensen beoordelen of rangschikken op basis van hun gedrag of persoonlijke kenmerken, zoals we kennen van het “sociale kredietsysteem” in China. Dit kan leiden tot discriminatie of oneerlijke behandeling in situaties waar het gedrag niet direct relevant is. Bijvoorbeeld, een leerling met leerproblemen mag niet benadeeld worden omdat een AI-system die problemen vroeg detecteert en deze informatie later voor andere doeleinden gebruikt.
  4. Voorspellen van criminaliteit: AI mag niet puur op basis van iemands persoonlijkheidskenmerken voorspellen of die persoon een misdrijf zal begaan. Wel mag AI helpen bij het beoordelen van objectieve, controleerbare feiten over criminele activiteiten.
  5. Emoties interpreteren in scholen of werkplaatsen: AI mag niet gebruikt worden om emoties van mensen te analyseren in onderwijsinstellingen of op het werk, tenzij het voor medische of veiligheidsredenen is.

Social Scoring en leerproblemen

Een van de meest relevante punten van Artikel 5 in relatie tot Smartschool en AI gaat over social scoring. Dit betekent dat AI niet mag evalueren of categoriseren op basis van gedrag of voorspelde persoonlijke eigenschappen, vooral niet als dit leidt tot onterechte of onevenredige behandeling. Het detecteren van leerproblemen met AI lijkt op het eerste gezicht onschuldig, en het doel om kinderen te helpen is duidelijk positief. Maar het risico ontstaat wanneer deze informatie buiten de oorspronkelijke context wordt gebruikt.

Stel je voor dat de AI van Smartschool een leerling met leerproblemen opmerkt, en deze informatie later wordt gebruikt om die leerling te categoriseren of beperken in andere situaties, zoals bij toelating tot universiteiten of sollicitaties. Dit is precies wat artikel 5 wil voorkomen: AI mag niet leiden tot een systeem waarin mensen ongelijk worden behandeld op basis van een profiel dat door AI is opgesteld. Dit kan zelfs gebeuren zonder dat Smartschool er zelf van op de hoogte is.et leiden tot een systeem waarin mensen ongelijk behandeld worden op basis van een profiel dat door AI is opgesteld. Dit kan zelfs gebeuren zonder medeweten van Smartschool.

Wat betekent dit voor Smartschool?

Hoewel het vroeg detecteren van leerproblemen een waardevol hulpmiddel is om leerlingen te ondersteunen, moeten scholen er zorgvuldig mee omgaan. Het is cruciaal dat AI-systemen zoals die van Smartschool transparant zijn over welke data ze verzamelen en hoe ze die verwerken. Ook moeten de resultaten van de AI strikt binnen de educatieve context blijven. Als we de AI van Smartschool willen gebruiken om leerlingen te helpen, moeten we ervoor zorgen dat deze systemen voldoen aan de AI Act. Dit houdt in dat de gegevens van kinderen niet mogen worden gebruikt om hen te ‘scoren’ of te labelen op een manier die hen in andere contexten kan schaden. Daarnaast moeten ouders, leerkrachten en leerlingen goed geïnformeerd worden over hoe deze AI werkt, zodat ze begrijpen wat er met hun data gebeurt en welke bescherming ze hebben.

Leave a comment