Sogeti lanceert nieuwe software testaanpak TMap HDSogeti lanceert nieuwe software testaanpak TMap HD

Waar het routinewerk voor IT-kwaliteitszorg verdwijnt, verschijnt AI.

Dat biedt uitkomst voor organisaties die grote hoeveelheden digitale producten lanceren. Want eindeloos blijven testen is allang geen optie meer. Dat kost immers teveel tijd en geld. Met AI kan dat sneller en goedkoper. Het merendeel van de kwaliteitsprocessen is inmiddels geautomatiseerd. Nu Gen AI ingeburgerd raakt, vertrouwt menig IT-professional blind op deze slimme zelflerende technologie. Dat gaat vaak goed.

Basiswerk

Toch ontstaat nu langzamerhand een groot probleem. Waar steeds meer werk overgelaten wordt aan AI, is de mens straks niet meer in staat het door AI opgeleverde werk te controleren. Simpelweg omdat de nieuwe generatie IT-professionals zelf nooit geleerd heeft hoe dat basiswerk in elkaar steekt. Ongeacht toenemende AI-inzet moeten IT-leiders daarom blijven investeren in aloude vakkennis.

Zoek de fouten en los het op. Zo begon kwaliteitszorg zo’n 45 jaar geleden. Het achteraf opsporen van fouten in systemen is inmiddels verleden tijd. Uiteraard is het nog steeds van groot belang dat systemen worden getest op functionaliteit, prestaties, gebruikersvriendelijkheid, veiligheid en bijvoorbeeld het voldoen aan wet- en regelgeving zoals de AVG, NIS2 en nu ook de AI-act. Inmiddels is dat bij de meeste organisaties een geautomatiseerd proces. Zeker voor het regressietesten. De hoeveelheid historische data en het zelflerend vermogen van generatieve AI zorgt er bovendien voor, dat de juiste kwaliteitsaanpak niet langer door mensen bedacht wordt. Algoritmes geven inzicht in de impact van systeemaanpassingen. Het zogeheten Large Language Model (LLM) doet wat je vraagt. Zoals de rekenmachine de hoofdrekenaar verving, krijg je nu met een slimme prompt de meest geavanceerde testcases of testdatasets voorgeschoteld. Zo groeien IT-professionals op in een wereld waar alle kennis uit de machine komt. Dat lijkt een uitkomst voor de toenemende hoeveelheid IT-werk in een samenleving die in rap tempo verder digitaliseert. 

Risico’s nemen toe

Tegelijkertijd schuilt daar ook een groot gevaar. IT-ontwikkelaars gaan steeds vaker aan de gang met het zogeheten ‘vibe coding’. Code schrijven met Gen AI zonder dat de IT-er überhaupt nog snapt wat er gebeurt. Inmiddels hebben verschillende incidenten laten zien dat AI je relatief makkelijk in de luren legt. Dat veroorzaakt allerlei risico’s op het vlak van digitale veiligheid en privacy of de bekende hallucinaties. Generatieve AI lijkt de veiligheid van de code te verbeteren omdat de tool rekening houdt met alle mogelijke kwetsbaarheden. Tegelijkertijd biedt diezelfde slimme functionaliteit malafide hackers de gelegenheid de veiligheid van IT-systemen te torpederen. Alle kennis die Gen AI opslaat, is immers vaak beschikbaar voor iedereen. Zo zijn gevoelige persoonsgegevens en bedrijfsgeheimen al op straat komen liggen. Nog altijd is dat besef onvoldoende aanwezig bij Gen AI gebruikers. Het gebeurt nog al te vaak dat bijvoorbeeld even snel een bestaand rekeningnummer in een testgeval wordt gezet om voorbij de check van het controlegetal te komen. Ook de hallucinaties, of beter gezegd confabulaties, veroorzaken grote problemen. De generatieve AI-tool vult zelf ontbrekende informatie in gebaseerd op beperkte contextuele kennis. Teksten zien er goed uit. Maar later blijkt dan dat de informatie helemaal niet betrouwbaar is. Zo vroeg een advocaat Gen AI om jurisprudentie. Zonder te controleren nam hij de bronnen over. Tijdens de rechtszaak bleek later dat de informatie volledig uit de lucht gegrepen was.

Verder weten we nu nog onvoldoende wat de zogeheten killer apps zijn om complexe IT taken te laten uitwerken door de juiste LLMs of agents. Daarnaast gaan AI-ontwikkelingen zo snel dat nauwelijks nog bij te houden is wat een goede of foute aanpak is. Wat vandaag goed lijkt, kan morgen alweer achterhaald zijn. De evolutie van AI aansturen met zelf gemaakte prompts naar volwaardige AI-agents die autonoom taken overnemen, zorgt nu alweer voor een flinke versnelling. Daarentegen neemt de afhankelijkheid van de niet altijd doorgrondelijke slimme technologie daarmee alleen maar verder toe.

Omdat het negen van de tien keer goed gaat, lijkt er ook geen weg meer terug. AI is binnenkort zover dat zo’n beetje alles overgelaten kan worden aan deze slimme technologie. Dat is althans de belofte. In een samenleving waarin stevige concurrentie en arbeidsmarktkrapte hoogtij viert, hebben organisaties nauwelijks nog andere keuzes. Toch is het zaak de risico’s in het oog te houden. Als we grote rampen zoals uitschakeling van electriciteit, verstoring van het betalingsverkeer of problemen met systemen in de operatiekamer willen voorkomen, moeten IT-leiders het lef hebben te blijven investeren in de kennis van IT-professionals. Experts die nog wel in staat zijn resultaten van AI te toetsen op juistheid en criteria zoals privacy, veiligheid en gebruikersvriendelijkheid. En op zijn minst net zo belangrijk; menselijkheid. De toeslagenaffaire heeft ons geleerd hoe cruciaal het oog voor menselijkheid in bestaande processen is.

Vergelijk dit dilemma met de inzet van experts in AI-gedreven bedrijfsprocessen met de vliegtuigindustrie. Het hedendaagse vliegtuig heeft eigenlijk geen hoogopgeleide piloten meer nodig om passagiers veilig van A naar B te brengen. Het systeem doet zijn werk en piloten hoeven nog maar zelden in te grijpen. Toch blijven vliegtuigmaatschappijen investeren in hoogopgeleide piloten voor die ene keer dat het mis gaat en een mens het verschil kan maken tussen een heldendaad en een ramp. De vraag is of bestuurders nu en in de toekomst diezelfde afwegingen maken.

Wel of geen AI gebruiken

AI wordt inmiddels alom gewaardeerd als oplossing voor veel maatschappelijke en commerciële opgaven. Ook in de bestuurskamer. Voor bestuurders is AI een welkome oplossing in een krappe en dure arbeidsmarkt waarin concurrentie alleen maar toeneemt. Toch is het van groot belang weloverwogen keuzes te maken voor het gebruik van generatieve AI. Deze beslissing hangt af van drie overwegingen. Ten eerste moet helder zijn of de betrouwbaarheid van het Gen AI resultaat er echt toe doet. Als het niet uitmaakt of het resultaat helemaal klopt, is Gen AI heel nuttig en snel gereedschap. Een plaatje van een dansende kat kan Gen AI immers veel sneller en goedkoper maken dan de vormgever. Verder is het zaak dat de juiste kennis en ervaring beschikbaar is om het AI-resultaat te beoordelen. Passend bij de juiste organisatieprocessen. Als uitkomsten moeten kloppen, moeten experts in staat zijn te beoordelen of dat ook echt zo is. Ontbreekt dat? Gebruik dan geen Gen AI. De juiste kennis en ervaring beschikbaar hebben, is niet voldoende. Het kan nog steeds een keer fout gaan. Daarom moeten bestuurders eveneens bereid zijn volledige verantwoordelijkheid te nemen als blijkt dat resultaten van de door AI uitgevoerde processen toch niet kloppen.

Samenwerking tussen mensen en AI

De grote kunst is dus hoe mensen op een verantwoorde manier met AI samenwerken. AI-tools worden onderdeel van IT-teams. Interactie tussen mens en machine wordt één van de grootste uitdagingen in de komende decennia. Flink blijven investeren in kennis en vaardigheden van medewerkers is geen makkelijke boodschap in de bestuurskamer in een digitaliserende samenleving. Toch is dat broodnodig voor verantwoorde inzet van AI.

Meer weten? Neem vrijblijvend contact op. Wij denken graag mee.

Bron: AGConnect

Vragen aan de auteur?

Rik  Marselis

Rik Marselis