Vorig jaar volgde ik een workshop bij PTWEE over kunstmatige intelligentie (AI in de volksmond, kort voor Artificial Intelligence). Die Engelse afkorting spreekt meer tot de verbeelding en bekt lekkerder. Het onderwerp had toen al mijn aandacht, maar door de workshop raakte ik echt geboeid. Wat gaat AI betekenen voor het testvak? Dat is de vraag die steeds bij mij naar boven borrelt. Omdat toekomstbeelden in relatie tot techniek achteraf vaak onterechte doemscenario’s blijken te zijn, vraag ik me af of dit ook voor AI geldt. Is die toekomst voor ons testers wel zo bedreigend?

Testen met AI

AI in relatie tot testen is onder te verdelen in twee verschillende aandachtsgebieden. Allereerst onderkennen we het testen met AI. Testtools worden steeds slimmer als deze worden uitgerust met AI functies. Een goede AI gedreven testtool helpt de tester veel sneller de voorbereidingsfase te doorlopen en makkelijk tot hoge dekkingsgraden te komen. De tijdsduur van testuitvoering wordt bovendien ook sterk verkort. Huidige record en playback tools lijken soms best slim. Maar zijn die tools intelligent? Mijn mening is dat het je eigen maken van tooling veel tijd en energie kost. En als je dan zo ver bent, kom je tot de conclusie dat een tool een aspect van testen heel goed ondervangt, maar met een ander aspect geen enkele raad weet. Met de komst van AI zal ook hierin de ontwikkeling enorm versnellen. Stel je voor. Je bouwt nieuwe functionaliteit binnen een applicatie en een AI-testtool weet direct, op basis van de logica van testscenario’s van andere functionaliteit uit dezelfde applicatie, welke testpaden het moet volgen. En het loopt ook nogeven alle acceptatiecriteria langs. Als tester krijg je daardoor veel meer tijd om met en vanuit de business te (acceptatie)testen. Wat mij betreft een leuk deel van ons werk dat onder tijdsdruk in de huidige tijd vaak naar de achtergrond verdwijnt.

Testen van AI

Dan het testen van AI. Chatbots, zorg-robots en zelfrijdende auto’s, zomaar een paar voorbeelden van testobjecten met AI. De bij mij gewekte interesse zit vooral in deze hoek. Waarom? Als systemen echt intelligent worden, gaan zij zich meer als een mens ontwikkelen. De systemen gaan dingen leren die we ze hebben aangereikt, maar ook zaken die niet bedoeld naar voren komen. Dat kan soms extra winst zijn, maar draagt ook risico’s met zich mee. En dan komt de tester om de hoek kijken. Denk je eens in: Voor zorginstellingen is een robot ontwikkeld die inmiddels zo ver is dat het menselijke eigenschappen leert toe te passen. Empathisch vermogen is iets wat in de zorg een gewenste eigenschap is. De robot ziet een patiënt die alleen aan tafel zit en zachtjes zit te snikken. Op basis van eerdere gebeurtenissen weet de robot dat deze patiënt aan het rouwen is. De robot gaat nu naar de patiënten maakt een praatje en stelt invoelende vragen en biedt precies de meest relevante hulp. So far so good. Maar als de robot deze eigenschap zelfstandig heeft ontwikkeld, hoe voorkom je dan dat het bijvoorbeeld ook sadistische eigenschappen aanleert? En hoe test je dat?

Steeds meer applicaties en apparaten gaan deze kant opbewegen. Dat vraagt waarschijnlijk om een andere manier van testen. Volstaat de methode die we momenteel als gestructureerd testen zien? Ons vak gaat in ieder geval een nieuwe fase in. En dat biedt altijd kansen.

Andere testers?

Het laatste voorbeeld laat zien dat de komst van AI voor de tester als professional een wezenlijke verandering gaat betekenen. Een demografische beschrijving van alle testers in Nederland laat waarschijnlijk een hoge gemiddelde leeftijd zien. Schoolverlaters kiezen niet snel voor ons vak. AI gaat dat veranderen, daar ben ik van overtuigd. Nieuw bloed geeft nieuwe impulsen. De tester is dood, lang leve de tester! Het profiel van de tester gaat veranderen. Andere vaardigheden zijn nodig om vooral het testen van AI goed te kunnen doen. Inzicht in de werking van ons brein, een aantal stappen vooruit kunnen denken en meer kennis van programmeren kunnen zomaar op het wensenlijstje van recruiters komen te staan. Als we ons werk aan robots overlaten, is het belangrijk te weten waarom wij ons werk doen zoals we dat doen en hoe we dat aan de robot overlaten. Of beter nog: hoe we de robot dat beter laten doen.

Hoe snel dit allemaal gaat plaatsvinden kan niemand met zekerheid zeggen. AI is nu vooral nog narrow intelligence. Netflix, Spotify of Siri die suggesties doen op basis van eerder gedrag. Ze kunnen allemaal een ding heel goed, maar daar blijft het bij. Vraag je aan Spotify om interessante films op te zoeken, gaat het hopeloos mis. Aan de andere kant is bijvoorbeeld SAP met Leonardo al op weg om AI beschikbaar te maken binnen de eigen oplossingen. Dat gaat op korte termijn al andere eisen stellen aan de testuitvoering. Maar de grote verandering zet zich pas in zodra apps en apparaten echt intelligent (general intelligence) zijn. Dan is het door mij geschetste beeld misschien weleen fractie van de werkelijkheid. Stel je voor dat je de eerste versie van I Robot moet testen…

MARTIN HEINING IS ALS TESTCONSULTANT WERKZAAM BIJ PTWEE EN DEELT ZIJN KRITISCHE BLIK OP DE TESTWERELD (ONDER ANDERE) VIA DIT BLOG.