De onderzoekers keken op verzoek van het ministerie van Onderwijs naar de technologie. Ze constateren onder meer dat in landen waar homoseksualiteit een groot taboe is, informatie over lhbti-personen soms wordt gezien als porno. Die informatie wordt dan door sommige filters tegengehouden. Lhbti’ers blijven onzichtbaar en komen dus ook niet terug in de informatie waarmee de kunstmatige intelligentie wordt gevoed.
Vooroordelen versterken
AI kan ook worden beïnvloed door vooroordelen in de samenleving. “Algoritmen hebben geen emoties. Ze doen wat hen gezegd wordt en ze voorspellen op basis van data. En daar zit de crux: de instructies worden door mensen gemaakt en de data worden door mensen verzameld”, aldus Movisie. Volgens de onderzoekers kan kunstmatige intelligentie vooroordelen overnemen en soms zelfs versterken.
Rekening houden met lhbti’ers
Het instituut roept overheden en bedrijven op om rekening te houden met lhbti’ers. “Zeker gezien de kwetsbare positie van lhbti+-personen, is het belangrijk de waarde van kunstmatige intelligentie niet zomaar voor lief te nemen.” Hoe dat het beste kan gebeuren, laten de onderzoekers in het midden. Ze vragen betrokkenen om daar bij het ontwikkelen van AI over na te denken. (ANP)