Managed hosting door True

Discussie

Verdachte mogelijk voortvluchtig?

Laat de computer voorspellen!

 

rechtspraak

Je kon erop wachten: computers die bepalen of mensen wel of niet vluchtgevaarlijk zijn. Het systeem zou zorgen voor het uitsluiten van menselijke vooroordelen. Zijn algoritmes zelflerend genoeg of sijpelt door trainingsdata de voorkeur van de makers heen?

In verschillende staten in de Verenigde Staten wordt een systeem gebruikt dat Public Safety Assessment (PSA) heet. Het algoritme geeft scores aan verdachten die voorgeleid worden. Het algoritme geeft daarmee advies aan de rechters of iemand de kans heeft om in afwachting van zijn proces weer de fout in te gaan of te vluchten. De PSA-score wordt samengesteld uit negen verschillende factoren die twee scores opleveren: hoe groot is de kans dat iemand opnieuw in de fout gaat en of iemand wel op komt dagen tijdens z'n proces.

Experts zijn kritisch omdat algoritmes vaak vooroordelen van de makers versterken. Bekend voorbeeld is het inzetten van meer politie in gebieden waar een algoritme meer drugshandel verwacht, er daar ook meer drugshandel wordt waargenomen. Zo mist het systeem alle handel in andere, vaak witte, wijken.

Wat denkt u, is het mogelijk algoritmes zo te trainen dat ze werkelijk onbevooroordeeld zijn? Of is dat een illusie?

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/6442612). © Jaarbeurs IT Media.

?

 

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.