Managed hosting door True

Verstandig omgaan met ai

 

Nu we er zonder verder bij na te denken meer en meer vertrouwen op machinaal gestuurde beslissingen - wie kan er immers nog zonder Google Maps? - ontstaan er ook in toenemende mate vragen omtrent de ethiek van deze kunstmatige intelligentie (ai). Sommigen vrezen dat het ‘hart’ - de ziel - van het bedrijfsleven eronder lijdt, daarom worden er steeds vaker richtlijnen opgesteld om op een ethische manier om te gaan met ai.

Zowel de overheid als burgers hebben echter ook zo hun eigen ideeën over hoe ai en de mens het beste samengaan. Zo zijn de 'Asilomar AI Principles' opgesteld door het Future of Life Institute, gesteund door onder andere Elon Musk, Facebook- en Google-directeuren en wijlen Stephen Hawking.

Naarmate de hoeveelheid en verscheidenheid aan data blijft groeien, zal ai alleen maar meer een centrale rol gaan spelen bij het filteren van wat werkelijk onze aandacht verdient, zowel in ons persoonlijke leven als op het werk. Hierbij moeten we wel eerst een aantal vragen over de ethiek van ai beantwoorden.

Vertrouwen op aanbevelingen

"Het mooie van machinaal leren is dat het steeds intelligenter wordt"

Traditionele computers houden de enorme hoeveelheid data die bedrijven verzamelen niet bij. Daarom maken we steeds meer gebruik van ai voor advies bij de betekenis van datasets, zowel in gestructureerde als ongestructureerde vorm. Dankzij machines kunnen taken worden geautomatiseerd waardoor werknemers zich meer kunnen richten op het creatieve aspect van hun vak. En het mooie van machinaal leren is dat het naarmate het meer wordt gebruikt steeds intelligenter wordt. De algoritmische voorspellingen worden in de loop der tijd steeds nauwkeuriger.

De vraag of deze voorspellingen al dan niet te vertrouwen zijn, geldt hier net zozeer als in het geval bij de aanbevelingen van een andere adviseur - zij het een machine, zij het van vlees en bloed. Er zal altijd een menselijk element achter ai-gedreven besluitvorming moeten zitten. Dat betekent voor de dagelijkse praktijk dat bedrijven moeten overwegen om een hr- of ethiekspecialist te laten samenwerken met datawetenschappers. Zo kunnen ai-aanbevelingen langs de culturele waardenlat van een onderneming worden gelegd. Dit gaat hand in hand met het achtste Asilomar ai-principe: 'Elke betrokkenheid van een autonoom systeem bij de juridische besluitvorming moet een correcte verklaring bieden die door een bevoegde menselijke autoriteit kan worden gecontroleerd'.

Menselijke waarden integreren

Mensen moeten dus de waarden van een bedrijf waarborgen - zoveel is duidelijk. Maar wanneer machines verantwoordelijk zijn voor het nemen van beslissingen is de vraag: hoe laten we deze beslissingen zo goed mogelijk aansluiten bij de set waarden en principes die we zelf zouden toepassen?

In veel opzichten is ai al begonnen met het verbeteren van de mensheid in het algemeen. Zo dragen ai-gedreven oplossingen zoals asset performance optimization bij aan de vermindering van treinongelukken en houdt het vliegtuigen minder lang aan de grond, dankzij preventief onderhoud. Hierdoor wordt het personeel op tijd geattendeerd op benodigd onderhoud, en wordt zowel tijd als geld bespaard.

Door de doelstellingen voor machine-beslissingen van begin af aan af te stemmen op je normen en waarden, kun je ai-praktijken laten aansluiten op menselijke waarden. Idealiter moet elk bedrijf een set ai-principes opstellen om zo, telkens wanneer er een nieuwe ai-oplossing wordt geïmplementeerd, deze hierop af te stemmen. Uiteindelijk wordt zo ook steeds minder menselijk handelen vereist.

Vooroordelen voorkomen?

"De gekleurdheid van data is een reële zorg "

Data die door ai wordt gegenereerd zal niet altijd volledig vrij zijn van enige subjectiviteit, deze gevaarlijke misvatting heeft menig bedrijf al in de problemen gebracht. Wanneer er met een bestaande set data wordt gewerkt, bestaat de kans dat deze data gekleurd is. Wanneer hier niet alert op wordt gehandeld, worden eerder gemaakte aannames en vooroordelen meegenomen in het algoritme - met alle risico’s van dien.

De gekleurdheid van data is dus een reële zorg die proactief moet worden aangepakt door ai-organisaties en bedrijven. Want hoewel algoritmes van nature objectief zijn kunnen door gekleurde datasets de vooroordelen zelfs worden versterkt. Zo ontdekten onderzoekers enkele jaren geleden dat het veelgebruikte door Google ontwikkelde algoritme word2vec stereotypes in teksten vergrootte, omdat het algoritme homemakernursereceptionist enzovoort als typisch vrouwelijke beroepen beschouwde en captainarchitectboss enzovoort als typisch mannelijke beroepen.

Algoritmische beslissingen

Dit lijkt misschien niet relevant, maar dat is het zeker wel. Als een klant of zakenpartner zich gediscrimineerd voelt, bijvoorbeeld op basis van lokale wetgeving of gemeenschappelijke richtlijnen van de Europese Commissie, heeft hij of zij uiteraard het recht om die beslissing in de rechtbank te toetsen.

Als het besluit in kwestie is genomen door middel van een algoritme, via mogelijk bevooroordeelde gegevens uit verschillende bronnen, zoals hierboven beschreven, dan blijft het bedrijf dat de diensten aanbiedt (bijvoorbeeld een bank of een verzekering) verantwoordelijk voor de volledige omvang van de wet. Transparantie is hier van essentieel belang: welk platform werd gebruikt en hoe toegankelijk is het platform? Deze juridische en ethische verantwoordelijkheid mag niet zomaar worden genomen.

Robuust systeem

"Een preventieve aanpak is nog geen garantie tegen vooroordelen"

Het is dus essentieel om een goede dataset te hebben. Een datasteekproefset moet groot genoeg zijn om betrouwbare bevindingen op te leveren en subjectiviteit te minimaliseren. Dit vraagt om een robuust systeem dat de meest rijke en complexe informatie kan verzamelen en verwerken, van zowel gestructureerde als ongestructureerde data en tekst, om de beste conclusies te trekken. Daarbij moet er bij het verzamelen van de data toezicht zijn van teams met een verschillende kijk op achtergronden en andere onderscheidende factoren. Het is nog beter om personeel van verschillende afdelingen, niveaus en teams erbij te betrekken, wat ook weer de intellectuele diversiteit bevordert.

Natuurlijk kan zelfs een dergelijke preventieve aanpak geen garantie bieden tegen vooroordelen. Resultaten moeten daarom ook altijd achteraf worden onderzocht op zulke signalen. Alle opvallende verbanden tussen ras, seksualiteit, leeftijd, geslacht, religie en soortgelijke factoren moeten worden bekeken. Wanneer er een vooroordeel wordt gespot, kunnen aanpassingen in de set worden toegepast. Net als bij het verzamelen van data moeten ook deze aanpassingen weer vanuit verschillende invalshoeken correct worden doorgelicht.

Met zoveel potentiële toepassingen voor ai is het onmogelijk om waterdichte antwoorden te geven op bovenstaande vragen. Maar elke positieve verandering die kan worden bereikt door gebruikers aan te sporen om na te denken over wat deze vragen voor hen betekenen in dit computertijdperk, is welkom. Wanneer wordt begonnen met een duidelijk doel dat aansluit bij de organisatiewaarden en dat regelmatig wordt gemonitord, ben je goed op weg in het optimaal benutten van ai.

Cyrill Tiwon, directeur presales Benelux & Nordics bij OpenText

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/6864275). © Jaarbeurs IT Media.

?

 

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.