Managed hosting door True

Handreiking voorkomt discriminatie door algoritmen

 

Responsible ai artificial intelligence kunstmatige intelligentie

Voor overheid en bedrijfsleven is een uitgebreide handreiking samengesteld ter voorkoming van discriminatie door algoritmen. Daarin wordt stap voor stap uitgelegd hoe organisaties die kunstmatige intelligentie willen inzetten, kunnen voorkomen dat bepaalde groepen stelselmatig worden benadeeld.

De opdrachtgever, het ministerie van Binnenlandse Zaken, heeft de Handreiking Non-Discriminatie by Design onlangs naar de Tweede Kamer gestuurd. Een uitgebreid Nederlands-Belgisch onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die bij artificial intelligence (ai) in acht moeten worden genomen.

Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Het schrijven geeft tien regels waarmee misstanden als de kindertoeslagaffaire bij de Belastingdienst zijn te voorkomen. 

Zo moet bij algoritmen worden gecontroleerd of er ergens sprake is van indirecte discriminatie. De onderzoekers spreken zich uit tegen het gebruik van postcodegebieden door bijvoorbeeld een predictive policing-systeem. Als de politie op basis hiervan het advies krijgt om veel te surveilleren in de Bijlmer of de Haagse Schilderswijk, dan is het risico op zichzelf vervullende voorspellingen groot, zo wordt gesteld.

Recht op non-discriminatie

Veel aandacht krijgt het recht op non-discriminatie. Dit gevaar dreigt als een ai-systeem leert van menselijke beslissingen die discrimineren. De handreiking maakt ontwikkelaars bewust van dit risico en biedt handvatten om dit te voorkomen. Daarvoor worden belangrijke juridische kaders vertaald naar operationele ontwerpprincipes. 

De Handreiking onderscheidt zes stappen voor het ontwikkelen en toepassen van algoritmen. Begonnen wordt met het vaststellen van de probleemdefinitie, het verzamelen van data en de dataselectie. Daarna volgen het bepalen van een beleid voor automatische besluitvorming, de implementatie en de toetsing daarvan.

Voorgesteld wordt dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme. Externe, onafhankelijke experts moeten gedurende het hele proces kritisch meekijken. Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld. Ze moeten daar bezwaar tegen kunnen aantekenen. Verder moet het systeem worden stopgezet bij geconstateerde fouten en gebreken. Het hele proces dient aan permanente monitoring worden onderworpen.  

De Handreiking is samengesteld door een team van onderzoekers van Universiteit Tilburg, TU Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens.

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/7199576). © Jaarbeurs IT Media.

?


Lees ook


 

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt
Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste resellernieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.