Niet alleen de Europese AI-act vraagt om een andere testaanpak van AI-applicaties dan die voor traditionele software-ontwikkeling. Alles draait om gevoel van vertrouwen creëren voor een succesvolle inzet van kunstmatige intelligentie. Zowel voor gebruikers, ontwikkelaars als beleidsmakers. Dat is een flinke kluif in de wetenschap dat antwoorden van Large Language Modellen zoals ChatGPT alle kanten op kunnen vliegen.
AI-project haalt de eindstreep niet
Toen het innovatieteam hun AI PoC naar een MVP-status wilde brengen, bleek uiteindelijk dat de kwaliteit moeilijk gewaarborgd kon worden. Daarom werd besloten de slimme applicatie niet in productie te brengen. Mede door de verloren investering was grote frustratie bij de teamleden het gevolg. Inmiddels is er sprake van een zogeheten AI Death Valley want het was niet de eerste keer dat een AI-project de eindstreep niet haalde. Dit is een situatie uit de hedendaagse praktijk. Zo bleek dat de AI chatbot van Air Canada gehallucineerde informatie aan klanten verstrekte. Er moest zelfs een rechtszaak aan te pas komen om de AI-app uit de roulatie te halen. In het innovatieteam is er vaak alles aan gelegen een project te laten slagen omwille van de drang naar nieuw technologiegebruik. Niet gek natuurlijk want een innovatieteam is immers op aarde om nieuwe wielen uit te vinden. Daarbij is de valkuil dat de waarde van zo’n innovatieve AI-applicatie vanaf het begin niet altijd even duidelijk is. Of anders gezegd, hoe draagt de slimme toepassing straks werkelijk bij aan zakelijk succes? En op z’n minst net zo belangrijk als het gaat om kunstmatige intelligentie, hoe wordt het gevoel van vertrouwen geborgd vanaf de start van het AI-project?
Andere testaanpak AI
Antwoorden op deze vragen vereisen een andere testaanpak dan we gewend zijn bij traditionele applicaties. In tegenstelling tot reguliere applicaties waarbij vooraf helder is wat de gewenste output moet zijn, kunnen LLM-antwoorden enorm variëren. Daarom is het zaak de kennis van AI-specialisten te combineren met die van ervaren testers. Zo krijg je een alomvattende aanpak voor gewaarborgde betrouwbaarheid. Het zogenoemde trusted AI-framework kan daarbij helpen:
Fairness: Het toetsen en mitigeren van de zogeheten bias is van cruciaal belang. Dankzij uitvoerige statistische testen in alle AI-projectfases worden onbedoelde discriminerende systemen zoals destijds SyRI van de overheid voorkomen.
Transparantie: De meeste AI-toepassingen geven in eerste instantie inzicht in wàt het systeem doet. Wat doet de AI en wat doet het niet en wat moet het doen? Zo wordt omschreven dat het systeem ethisch moet handelen. Dat is niet genoeg. Naast de wat-vraag is het belangrijk inzage te krijgen in de hoe-vraag en waarom dat nodig is. Kortom, de uitlegbaarheid is een voorwaarde voor het bouwen van vertrouwen. Als de vraag is of het spoor onderhoud vereist, moet uit te leggen zijn waar het systeem naar kijkt om tot een logisch antwoord te komen. Zorg daarom altijd voor Explainable AI voor een transparant systeem.
Humanity: Welke mensen zitten aan de knoppen van de AI-applicatie en wie is verantwoordelijk voor het systeem? Het lijkt een open deur. Toch heeft de toeslagenaffaire bijvoorbeeld geleerd dat het soms bar lastig is inzichtelijk te krijgen wie uiteindelijk welke verantwoordelijkheid draagt.
Sustainability: Afhankelijk van complexiteit en grootte van het systeem, kan de AI-toepassing een flinke ecologische voetafdruk maken. Er zijn inmiddels genoeg manieren om de impact van de applicatie zoveel mogelijk te beperken, bijvoorbeeld met slim energieverbruik.
Quality: Dit zijn veelal de traditionele kwaliteitsaspecten zoals veiligheid, het voldoen aan privacy en governance en de accuraatheid van het systeem.
Europese AI Act per 2026
Volgens de Europese AI Act moeten mensen en bedrijven volledig kunnen rekenen op veilige, transparante, traceerbare en niet-discriminerende AI-systemen die onder toezicht staan van echte mensen. Als deze wet per 2026 ingaat, kun je maar beter vandaag al beginnen met het inbedden van deze voorwaarden in de AI-kwaliteits- en testaanpak voor een goed gevoel van vertrouwen.
Waarom AI & Sogeti?
AI is de toekomst ‒ ook van Sogeti. Daarom hebben we een groot team AI-specialisten die zich bezighouden met het ontwikkelen van AI en met toepassingen die we niet alleen uittekenen, maar ook in de praktijk brengen. Lees meer over Artifical Intelligence en/of vraag ons naar de workshop AI in a Day.
Dit artikel is ook verschenen in Computable