Fair Machine Learning bestrijdt vooringenomenheid

Thema:
Artificiële intelligentie

Een AI tool baseert haar berekeningen op basis van data. Als deze data biased (vooringenomen) is, zal dat in de berekening doorwerken. Wanneer bij een beroepsgroep in het verleden mannen de voorkeur hadden, zal een AI tool voor werving deze bias overnemen. Mannen kunnen dus onterecht een beter oordeel van de AI tool krijgen. Dit kunnen we voorkomen door de data te decorreleren met geslacht. Geslacht en eventueel gerelateerde proxies zullen nu niet meer voorspellend zijn voor baangeschiktheid. Met fair machine learning verwacht TNO op een eerlijke en unbiased wijze geschikte kandidaten te selecteren.

TNO maakt generative adversarial network models met fair machine learning

De decorrelatie voor fair machine learning voert TNO uit met een Generative Adversarial Network (GAN) model. Dit model probeert twee tegenstrijdige criteria tegen elkaar af te wegen:

  1. De dataset zo min mogelijk veranderen
  2. Iemand’s geslacht niet meer definiëren aan de overgebleven kenmerken

Bij het afwegen van de criteria, generaliseert het model bestaande kenmerken van individuen naar meer algemene kenmerken. Bijvoorbeeld door postcodes naar wijken, wijken naar steden, steden naar landen te generaliseren. Het eindresultaat is een dataset waarbij iemand’s geslacht (criterium 2) nagenoeg niet herkenbaar is. Kortom, de gender bias is uit de dataset verdwenen.

Fair machine learning relevant voor allerlei vormen van discriminatie ontstaan in historische gegevens

Fair machine learning is relevant bij allerlei vormen van discriminatie en bias die ontstaat bij het gebruik van vooringenomen data. Naast werving en selectie is het bij toezicht-, inspectie- en handhavingstaken ook belangrijk dat het AI algoritme eerlijk is. Zo dienen geslacht, religie en etniciteit niet als selectiekenmerk te worden benut.

AI machine learning tools kunnen het vinden van vergelijkbare individuen voor allerlei selectietaken efficiënter en effectiever maken. De historische bias, die zonder deze tools minder opvallen, worden met AI tools structureel en systematisch doorgezet. Fair machine learning vermindert en voorkomt deze discriminatie.

Laat je verder inspireren

10 resultaten, getoond 1 t/m 5

Onderzoek TNO en Kieskompas: AI-taalmodellen zijn inconsistent en neigen naar links

Informatietype:
Nieuws
22 november 2023
Uit een experiment van TNO en Kieskompas, waarbij TNO meerdere AI-taalmodellen de stemhulp van het Kieskompas 2023 liet invullen, blijkt dat de modellen aan de linkerkant van het politieke spectrum uitkomen en wisselvallig antwoorden.

Impuls voor TNO faciliteiten voor duurzame mobiliteit, biobased bouwen en AI

Informatietype:
Nieuws
2 november 2023

Nederland start bouw GPT-NL als eigen AI-taalmodel

Informatietype:
Nieuws
2 november 2023

AI Lab van start voor effectief en verantwoord toezicht

Informatietype:
Nieuws
20 oktober 2023

Eerste overzicht van technieken cyberaanvallen van AI door AI

Informatietype:
Nieuws
17 februari 2023