WQR-2025-26-Adapting-to-emerging-worldsWQR-2025-26-Adapting-to-emerging-worlds
  • LinkedIn
  • Facebook

April 09, 2026

Data is de brandstof van moderne softwareontwikkeling. Dat is bekend. Waar het in de praktijk misgaat, is niet het ontbreken van data, maar de aanname dat die data goed genoeg is. Het World Quality Report 2025‑2026 laat zien dat Data Quality en Test Data Management (TDM) steeds belangrijker worden binnen Quality Engineering, zeker nu AI en automatisering terrein winnen. Tegelijkertijd blijkt dat veel organisaties hun grip overschatten. Zonder betrouwbare data geen betrouwbare software, en zonder expliciete regie blijft de toegevoegde waarde van AI beperkt tot belofte.

GenAI in testdata: brede adoptie, beperkt effect

AI‑ondersteuning is inmiddels wijdverbreid binnen Test Data Management. Vrijwel alle organisaties gebruiken tooling met een vorm van AI in hun testdata‑keten. Toch heeft slechts een kleine groep deze technologie organisatiebreed en end‑to‑end ingebed. Voor de meeste teams blijft het bij pilots of losse toepassingen.

Dat verschil zit niet alleen in technologie, maar vooral in interpretatie. Veel organisaties rekenen bestaande data‑masking of provisioning met een machine‑learningcomponent al tot “AI in TDM”. Daarmee ontstaat een vals gevoel van volwassenheid. De conclusie luidt al snel: de basis staat. Het gevolg is dat er niet meer wordt geïnvesteerd in inhoudelijke datakwaliteit, representativiteit en scenario‑dekking.


In de praktijk

Bijvoorbeeld: een grote financiële dienstverlener positioneert zich intern als AI‑ready organisatie. Testdata wordt automatisch gemaskeerd, gekopieerd en uitgerold naar testomgevingen. Omdat deze tooling ML gebruikt, geldt TDM intern als “door AI ondersteund”. Wat ontbreekt: synthetische data die gedrag modelleert, expliciete kwaliteitscriteria en eigenaarschap over semantische juistheid. Wanneer GenAI later wordt ingezet voor testgeneratie of defect‑analyse, blijkt het model te leren van inhoudelijk vlakke datasets. De AI werkt technisch, maar levert onbetrouwbare inzichten op. Het probleem blijkt niet AI, maar verwarring tussen Data Quality en Data Compliance.


De opkomst van synthetische testdata

Synthetische testdata is een gebied waar AI daadwerkelijk waarde kan toevoegen. Ongeveer een derde van de organisaties genereert inmiddels een substantieel deel van de testdata synthetisch, onder meer om privacy‑risico’s te beperken en schaalbaarheid in CI/CD‑omgevingen te vergroten.

Tegelijkertijd schuilt hier een hardnekkige valkuil. Synthetische data faalt wanneer het statistisch wel plausibel is, maar het gedrag van productie niet weerspiegelt. Teams gebruiken synthetische datasets zonder deze structureel te valideren tegen echte scenario’s of ketenafhankelijkheden. In die situaties ontstaat schijnzekerheid: testresultaten zien er stabiel uit, terwijl kritieke edge‑cases ontbreken. Synthetisch is vooral verantwoord wanneer het wordt ingezet op basis van expliciete kwaliteitsnormen en risicogedreven selectie, niet als generieke vervanger van productiedata.

Een hardnekkige bottleneck

Ondanks tooling en automatisering blijft testdata voor veel organisaties een structurele bottleneck. Het creëren van representatieve datasets kost tijd, datakwaliteit is moeilijk aantoonbaar en privacy‑eisen drukken zwaar op de dagelijkse praktijk. Dit zijn geen nieuwe observaties.

Wat wél structureel misgaat, is waar dit probleem wordt belegd. Testdata wordt behandeld als een technisch vraagstuk, terwijl de kern organisatorisch is. Zonder duidelijke kaders over wat goede testdata is en wie daarvoor verantwoordelijk is, lossen tools vooral het verkeerde probleem sneller op.

Wie is eigenaar?

Een terugkerend patroon is het ontbreken van expliciet eigenaarschap. Testdata is verdeeld over teams, omgevingen en disciplines. Platformteams beheren de tooling, testers gebruiken de data, de business vertrouwt op de uitkomsten, maar niemand voelt zich verantwoordelijk voor de inhoudelijke kwaliteit.

Eigenaarschap van testdata hoort niet uitsluitend bij het platform of IT. Data Quality raakt direct aan businessprocessen, risico’s en besluitvorming. Organisaties die dit expliciet beleggen, bijvoorbeeld bij een QA‑lead of ketenverantwoordelijke met mandaat, zijn beter in staat om automatisering en AI gecontroleerd op te schalen. Zolang eigenaarschap impliciet blijft, blijft datakwaliteit een bijzaak.

Versnipperde tooling en beperkte automatisering

Het toolinglandschap rond testdata is in veel organisaties versnipperd. Scripts, nichetools en platformoplossingen bestaan naast elkaar. Die fragmentatie is niet per definitie onvolwassenheid, maar een gevolg van complexiteit en legacy.

De valkuil ontstaat wanneer organisaties proberen dit op te lossen door te standaardiseren op tooling, in plaats van op kwaliteitseisen. Automatisering richt zich daardoor vooral op creatie en provisioning. Validatie blijft vaak handmatig of oppervlakkig, omdat kwaliteitscriteria niet expliciet zijn vastgelegd. Automatische checks zonder betekenisvolle normen leveren vooral ruis op, geen vertrouwen.

Data Quality als strategisch vraagstuk

Veel organisaties beschouwen Test Data Management nog steeds als randvoorwaarde, met een sterke focus op compliance. Dat is begrijpelijk, maar onvoldoende. Betrouwbare testdata is geen administratief detail, maar een voorwaarde voor voorspelbare releases, zinvolle AI‑toepassingen en effectieve testdekking.

Data Quality wordt pas strategisch wanneer organisaties expliciet definiëren wat goede testdata is, dit meetbaar maken en hierop sturen. Dat vraagt keuzes: stoppen met het gelijkstellen van ‘goed gemaskeerd’ aan ‘goed getest’, en investeren in datakwaliteit als kwaliteitsinstrument, niet alleen als compliance‑maatregel.

Van versnippering naar regie

Het World Quality Report 2025‑2026 schetst een duidelijke richting. Regie begint niet bij nieuwe tooling, maar bij heldere keuzes:

  • Beleg expliciet eigenaarschap van testdata per keten,
  • Definieer en meet datakwaliteit, niet alleen doorlooptijd,
  • Valideer testdata inhoudelijk, niet alleen technisch,
  • En zet AI pas in wanneer de onderliggende data dat rechtvaardigt.

De technologie is beschikbaar. Het verschil wordt gemaakt door verantwoordelijkheid te nemen, keuzes te durven maken en Data Quality te behandelen als fundament van Quality Engineering, niet als bijproduct.

Data Quality als versneller van Quality Engineering

Data Quality is daarmee geen ondersteunend detail meer, maar een kritische succesfactor. Voor quality engineers verschuift de rol van het regelen van data naar het sturen en beoordelen ervan: bijdragen aan datadefinities, risico‑gedreven dataselectie en het toetsen of testdata daadwerkelijk productiegedrag weerspiegelt.

Organisaties die deze stap zetten, bewegen van experiment naar structurele impact. Dit artikel beschrijft de hoofdlijnen. Voor alle trends, inzichten en aanbevelingen om Test Data Management structureel te verbeteren en AI verantwoord in te zetten: Download nu het volledige World Quality Report 2025-2026.

Liever luisteren? Luister dan de WQR-podcast aflevering

Download World Quality Report 2025-26

Consent
Use right arrow keys to slide, or drag right with your finger. When you reach 100 percent, the form is submitted.

Quality Engineering nieuws

Automatisering binnen Quality Engineering
AI binnen Quality Engineering
Waarom sustainable test automation een echte teamsport is

QX Day QX Day is hét jaarlijkse inspiratie-evenement van Sogeti Nederland op het gebied van Quality Engineering & T…

Expertise aanvragen

    Marlous Joosten

    Marlous Joosten

    Head of Quality Engineering & Testing