digital_it_16x12.jpg

Bedrijven moeten hun gegevens analyseren voordat ze een algoritme uitvoeren.

29 maart min.

Kunstmatige intelligentie (AI) wordt steeds belangrijker voor bedrijven en consumenten. Maar het is zoveel meer dan alleen technologie. Volgens Natasja van de L'Isle, data science consultant bij TMC, kunnen de uitkomsten van AI-systemen vooringenomenheid bevatten door verschillende oorzaken. Met mogelijk grote gevolgen. AI-systemen zijn niet altijd objectief, ook in Nederland. “Vooringenomenheid in data kan een probleem zijn, net zoals verkeerde training of onjuiste evaluatie.”

Tegenwoordig kom je algoritmes overal tegen. Ze bepalen zoekresultaten op Google en wat je ziet op sociale media. Maar algoritmes worden ook vaak gebruikt in andere gebieden en toepassingen. Bijvoorbeeld beveiligingscamerasystemen in winkels, dubbelchecks bij een zelfscankassa en online kredietchecks.

Een algoritme is een stuk code om een probleem op te lossen en kan zelflerend zijn. De data wordt in het algoritme ingevoerd, wat leidt tot een resultaat. Het wordt kunstmatige intelligentie als die algoritmes zelfstandig beslissingen nemen op basis van data of signalen uit hun omgeving en daaruit leren. Echter, algoritmes leren op basis van wat mensen in een algoritme stoppen. “Als er bewuste of onbewuste vooroordelen in de data zitten, zal het algoritme deze gebruiken in het resultaat. Data kan vooroordelen bevatten met betrekking tot geslacht, leeftijd, etnische achtergrond of woonplaats. Neem bijvoorbeeld de selectie van sollicitanten. Het is belangrijk om te zien of de data een goede weergave is van de doelgroep. Maar ook hoe dit zich verhoudt tot de rest van de samenleving. Om vooroordelen te vermijden, moeten bedrijven hun data eerst grondig analyseren voordat ze een algoritme uitvoeren. Ze moeten de context weten waarin de data is verzameld, zodat duidelijk wordt welke tekortkomingen er mogelijk in de data zitten.”

Objectieve beoordeling

Verschillende voorbeelden tonen aan dat dit niet altijd gebeurt. In Nederland doen steeds meer bedrijven kredietchecks voor andere organisaties. De NS maakt gebruik van deze dienst. Met behulp van kunstmatige intelligentie controleert een ander bedrijf of iemand in aanmerking kan komen voor een OV- of NS-businesscard in de vorm van een abonnement. Als iemand bezwaar wil maken tegen een negatieve uitkomst van deze check, kan dat alleen bij het bedrijf dat de checks uitvoert. NS neemt zelf geen verantwoordelijkheid voor de uitkomst. Dit werd duidelijk uit verschillende meldingen via het meldpunt van de Consumentenbond ‘de dupe van je data’. Verschillende mensen konden hierdoor geen NS-abonnement krijgen vanwege deze automatische kredietcheck. “Een aanvraag is niet altijd gebaseerd op betaalde gegevensbronnen zoals BKR-registraties. Bronnen die vaak worden gebruikt zijn de Kamer van Koophandel, dag- en weekbladen, incassobureaus en/of opdrachtgevers waarmee iemand een financiële relatie heeft (gehad), om enkele voorbeelden te noemen. Hierdoor zijn gegevens niet altijd accuraat of up-to-date en kunnen ze informatie van een andere persoon bevatten. Dat leidt tot een AI-systeem dat geen correcte conclusies kan trekken. Toch wordt, zonder de uitkomst te controleren, aangenomen dat iemand niet kredietwaardig is.”

Vooroordelen en eerlijkheid meten

“Als je werkt met AI-toepassingen waarbij mensen betrokken zijn, moet er een extra controle in het proces plaatsvinden. Daarnaast is het belangrijk om niet alleen data, algoritmes en kunstmatige intelligentie correct te gebruiken, maar ook om de data te trainen. Doe je dit niet, dan kan een systeem onbewust vooringenomenheid inbouwen. Bij de Belastingdienst was bijvoorbeeld een tweede nationaliteit een officieel selectiecriterium om te bepalen of er een verhoogd risico op fraude was. Daardoor werden groepen ten onrechte bestempeld als 'fraudeurs'. Met verschillende methoden kun je - en moet je - de vooringenomenheid en eerlijkheid van je data en uitkomsten meten. Je weet alleen niet altijd waarom een systeem een bepaalde voorspelling maakt. En je wilt te allen tijde voorkomen dat dingen misgaan, zoals bij de Toeslagenaffaire. Dat ze op deze manier gehandeld hebben, was toe te schrijven aan het misbruik van AI, een verkeerde algoritme-uitkomst en het gebrek aan controle over die uitkomst. Zolang het om mensen gaat, moeten controles altijd door mensen worden uitgevoerd.”

Ingrijpende gevolgen

Voor bedrijven die werken met algoritmes en kunstmatige intelligentie, maar ook voor consumenten, is het belangrijk om te begrijpen dat en hoe vooroordelen ontstaan in AI. Zeker wanneer we werken met data die gekoppeld is aan jouw persoonlijke gegevens. We leven in een tijd waarin data het nieuwe goud is. Maar als gegevens over jou onjuist zijn of op de verkeerde manier worden gebruikt, kan dat een negatieve impact hebben. Met verstrekkende gevolgen. “We mogen niet blindelings vertrouwen op de uitkomsten van algoritmes en er moet toezicht zijn op bedrijven die algoritmes gebruiken. Zeker wanneer het om mensen gaat. De overheid moet dit een prioriteit maken en bedrijven moeten hun verantwoordelijkheid erkennen en nemen. Ook consumenten moeten zich bewust zijn van wat er op het spel staat. Begrijpen wat een algoritme doet en waarom kunstmatige intelligentie bepaalde keuzes maakt, is belangrijk voor iedereen!”

Door uitlegbare AI toe te voegen aan het algoritme, kunnen bepaalde beslissingen worden uitgelegd. Daarnaast kunnen mogelijke sterke en zwakke punten van zo’n beslissing worden getoond. Lijkt dat (te) bevooroordeeld? Dan kan het worden aangepast of verbeterd. Uiteindelijk leidt dit tot een beter AI-systeem waar iedereen baat bij heeft!

contactusattmc.png
Let's get in touch!

Stuur ons een bericht voor mogelijkheden, samenwerkingen of vragen. We komen graag met je in contact!