De belofte van kunstmatige intelligentie in is helder: een drastische vermindering van de administratieve last. Een tijdsbesparing van 50 tot 70 procent op documentatietaken in bijvoorbeeld de jeugdzorg, is binnen handbereik, wat neerkomt op vele uren die weer besteed kunnen worden aan de cliënt. Maar met deze nieuwe, krachtige assistent komt een belangrijke vraag: hoe houd je de controle? Hoe zorg je ervoor dat de AI een betrouwbaar hulpmiddel blijft en niet ongemerkt de regie overneemt?
Het fundament voor goed toezicht ligt in één heldere afspraak, die als een rode draad door het gebruik van de AI moet lopen:
de AI is een co-pilot, nooit de eindverantwoordelijke piloot. De professional die de uiteindelijke rapportage ondertekent, is en blijft volledig juridisch en professioneel verantwoordelijk voor de inhoud.
In de academische wereld van AI, heeft men het dan ook vaak over 'Augmented Intelligence' Vanuit dit uitgangspunt wordt het inrichten van toezicht een logisch en uitvoerbaar proces.
De keten van verantwoordelijkheid begint en eindigt bij de professional zelf. De samenwerking met de AI-assistent volgt een vast ritme. De AI levert op basis van de ingevoerde gegevens een concept aan, een eerste opzet. De taak van de therapeut is om dit concept te behandelen als de tekst van een enthousiaste, maar onervaren stagiair. De professional controleert de output zorgvuldig op fouten of onjuiste interpretaties, want een AI kan "hallucineren" en feitelijk onjuiste informatie presenteren. Vervolgens wordt de tekst gepersonaliseerd, aangepast aan de unieke situatie van de cliënt en verfijnd met de expertise die alleen een mens kan bieden. Pas na deze bewerkingsslag wordt de tekst definitief.
Een goed ontworpen applicatie kan dit proces ondersteunen. Stel je voor dat de software zelf al helpt om de grens tussen mens en machine duidelijk te houden. Elke tekst die de AI genereert, kan bijvoorbeeld automatisch een 'Concept'-watermerk of een gekleurde achtergrond krijgen. Dit visuele signaal herinnert de gebruiker eraan dat de tekst nog niet gevalideerd is. Pas wanneer de therapeut de inhoud actief heeft bewerkt en op een knop als 'Finaliseer' klikt, verdwijnt de markering. De software kan op de achtergrond zelfs bijhouden welke aanpassingen zijn gedaan, wat zorgt voor een helder spoor van menselijke controle.
Goed toezicht is echter meer dan een individuele handeling; het is een teamaangelegenheid. Goede afspraken binnen de organisatie vormen de vangrail voor verantwoord gebruik. Maak het gebruik van de AI-assistent een vast agendapunt tijdens teamoverleggen. Bespreek niet alleen de successen, maar juist ook de momenten waarop de AI een vreemde suggestie deed. Creëer een eenvoudig systeem waarin gebruikers feedback kunnen geven over de kwaliteit van de output. Voor de allerbelangrijkste documenten, zoals een eindrapportage, kan een collega even meelezen. Deze gewoonte van collegiale toetsing versterkt de professionele controle.
Het borgen van toezicht op AI is dus geen kwestie van complexe regels en bureaucratie. Het is een samenspel van een helder principe, ondersteunende software en gezonde professionele gewoontes. Door de AI consequent te behandelen als een assistent, zorg je ervoor dat de technologie zijn dienende rol behoudt en stel je de professional in staat om deze krachtige tool vol vertrouwen en op een verantwoorde manier in te zetten.
