Toch kozen de Verenigde Staten en – onder Amerikaanse druk – de Europese Unie voor het verzamelen van heel veel informatie over álle vliegtuigpassagiers om vervolgens een algoritme te laten bepalen wie van hen potentiële terroristen waren. De vraag of het geld dat hiermee gemoeid is niet beter geïnvesteerd kan worden in gerichte opsporing en in meer menskracht in plaats van algoritmische profilering wordt nauwelijks gesteld.
Ook op andere terreinen, zoals preventive policing of het opsporen van daders van huiselijk geweld, is het de vraag of voorspellende algoritmes opleveren wat ervan verwacht wordt. Veel evaluaties laten een geringe opbrengst zien. Toch leidt dat zelden tot het stopzetten van het project – vaak juist tot een intensivering. We zijn er met z’n allen diep van overtuigd dat cijfers objectiever zijn dan mensen en dat meer data leiden tot superieure besluiten. Tegenvallende resultaten dienen daarom veelal als een aanmoediging om méér gegevens te verzamelen en te verwerken.
Minder vertrouwen in mensen
“Getallen hebben iets absoluuts, zo is het en niet anders”, legt econometrist Sanne Blauw uit. We hopen via algoritmes tot eerlijkere en betere besluitvorming te komen en hebben meer vertrouwen in techniek dan in mensen. We kennen onze eigen beperkingen en die van anderen maar al te goed: mensen zijn feilbaar en kunnen niet het hele plaatje overzien. Ze zien slechts een deel van de werkelijkheid en zitten boordevol vooroordelen.
Maar anders dan vaak gedacht, geldt hetzelfde voor algoritmes. Algoritmes trekken immers conclusies op basis van de wiskundige formules die door mensen zijn ontworpen en de datasets die door mensen zijn geselecteerd. Hoe zo’n ‘bias’ in algoritmische systemen tot regelrechte discriminatie leidt, werd pijnlijk zichtbaar in 2014 toen Amazon een zelflerend algoritme inzette voor de werving van nieuw personeel.
Het systeem werd gevoed met cv’s van mensen die sinds 2004 hadden gesolliciteerd en met de informatie of ze al dan niet waren aangenomen. Een jaar later bleek het systeem feilloos vrouwen uit te sluiten. Die maakten in het verleden weinig kans op een baan bij Amazon. Omdat het algoritme voortborduurde op historische data werd deze ongelijkheid bestendigd.
De Amazon-robot zou een waarschuwing moeten zijn voor al die overheden die voorspellende algoritmes inzetten bij arbeidsbemiddeling. Zo kan ik alleen maar hopen dat de gemeente ’s-Hertogenbosch zich bewust is van de risico’s als ik lees dat zij algoritmes willen inzetten ‘om te voorspellen of een cliënt vanuit een uitkering gaat uitstromen naar een fulltimebaan.’
Het feit dat de arbeidsparticipatie van vrouwen met een migratieachtergrond lang is achtergebleven, mag natuurlijk er niet toe leiden dat migrantenvrouwen via een algoritmische uitkomst ook nu minder begeleiding krijgen bij het vinden van werk.
Het is dus cruciaal om niet alleen een goed werkend algoritme te hebben, maar ook kritisch te kijken naar de data waarmee het wordt gevoerd. Nu gebeurt het al te vaak dat simpelweg gewerkt wordt met de data die voorhanden is.
Sociale ongelijkheid
In haar boek Automating Inequality beschrijft de Amerikaanse politicoloog Virginia Eubanks dat de datasets waar overheden over beschikken veelal zijn gekleurd langs de lijnen van inkomen. Want over burgers die zich goed weten te redden, is vaak minder informatie beschikbaar dan over mensen die (financiële) ondersteuning nodig hebben.
Zo ontwikkelde een Amerikaanse overheidsinstelling eens een algoritme om te kunnen voorspellen in welk gezin mogelijk sprake is van kindermisbruik of –verwaarlozing en gebruikte daarvoor de al aanwezige data. Dat bleek informatie te zijn over gezinnen die in het verleden financiële steun hadden aangevraagd. Vervolgens concludeerde het algoritme zélf dat een laag inkomen een indicator was van kinderverwaarlozing en -misbruik. Sommige arme gezinnen kwamen daardoor ten onrechte in beeld, sommige rijke gezinnen juist niet.
Niet alleen het ontwerp en de datasets, maar ook de toepassing kan sociale ongelijkheid vergroten. Dat werd pijnlijk zichtbaar bij het omstreden Systeem Risico Indicatie (SyRI). Via SyRI, dat inmiddels verboden is door de rechter, werd het mogelijk een breed palet aan gegevens te verzamelen over burgers, waaronder informatie over werk, schuldenlast, boetes uit het verleden, huisvesting, onderwijs, pensioen, energiegebruik, zorgverzekeringen en inburgeringstrajecten.
In die berg gegevens kon vervolgens naar patronen worden gezocht, vooral om mensen die frauderen snel in de kraag te grijpen. SyRI is uiteindelijk slechts in een paar wijken ingezet, allemaal wijken waar vooral armere mensen wonen.