Volgens KPMG vertrouwt
slechts 46% van de mensen wereldwijd daadwerkelijk op AI-systemen, ondanks dat 66% ze bewust en regelmatig gebruikt. Zonder nauwlettend toezicht kunnen juist de instrumenten die bedoeld zijn om vooruitgang te bevorderen, vooroordelen versterken, resultaten vertekenen en afbreuk doen aan de principes die ze juist moeten ondersteunen. Ontdek hoe ethische AI zowel mensen kan beschermen als innovatie stimuleren.
Ethische toepassing AI
De ethische en verantwoorde toepassing van AI is belangrijk, omdat deze gericht is op eerlijkheid, transparantie en verantwoording. Zonder regelmatige controle van de uitkomsten van AI-systemen om ervoor te zorgen dat ze mensgerichte waarden respecteren, kan dit leiden tot bevooroordeelde, ongecontroleerde of onnauwkeurige uitkomsten en snel afdwalen van het beoogde doel. Als regelgeving en verantwoordelijkheden worden verwaarloosd, treft de impact gemeenschappen en individuen die niet betrokken waren bij de ontwikkeling van de AI.
PwC schat dat het Midden-Oosten tegen 2030 ongeveer 2% van de wereldwijde totale winst uit AI zal behalen, goed voor een bedrag van circa
320 miljard dollar. Gezien de potentie van AI om onze economie aanzienlijk te beïnvloeden en de voordelen die het met zich mee kan brengen, is het belangrijk om de oorspronkelijke bedoeling van AI te behouden: gebruikers helpen en accurate begeleiding en ondersteuning bieden in specifieke toepassingen.
Begin met verantwoording
Verantwoording is een hoeksteen van de ethische inzet van AI. Een bank kan bijvoorbeeld AI gebruiken om te bepalen of een kredietaanvraag wordt goedgekeurd of afgewezen. Als de aanvrager een melding krijgt dat zijn kredietgeschiedenis onvoldoende is en de bank de lening afwijst, is de bank verantwoordelijk voor de beslissing van de AI om tot deze conclusie te komen. Dit is het resultaat van de snelle evolutie van AI, aangezien het ook taken kan uitvoeren die verder gaan dan het menselijke niveau.
Wanneer acties of beslissingen van AI niet openlijk worden gecommuniceerd, zoals in het geval van de notificatie van de bank, vervaagt dit de grenzen van vertrouwen en transparantie tussen de betrokken partijen. Door ervoor te zorgen dat de mensen die deze levenscyclus van AI creëren, verantwoording afleggen, creëren de stakeholders die AI besturen duidelijke ketens van eerlijkheid, transparantie en toezicht gedurende het hele proces.
Daarom is een verantwoordingsmechanisme essentieel, omdat het rollen en verantwoordelijkheden duidelijk definieert en transparantie en vertrouwen bevordert. Ontwerpers, ontwikkelaars en gebruikers van een AI-systeem kunnen vervolgens de algoritmisch ondersteunde beslissingen van de AI-systemen rechtvaardigen.
Organisaties moeten een AI 'Accountability by Design'-aanpak ontwikkelen, omdat dit hen in staat stelt om vanaf het begin systemen te creëren met ethische ontwerpprincipes. Door maatregelen te nemen om AI transparant, rechtvaardig en beheersbaar te maken gedurende de ontwikkelings- en implementatiefase, worden vooringenomenheid, misbruik en onvoorziene problemen voorkomen. Regelmatige evaluaties van AI-resultaten zorgen ervoor dat verschillende groepen mensen gelijk worden behandeld en stellen organisaties in staat om continu te voldoen aan de evoluerende normen, en zorgen ervoor dat verantwoorde AI zich op natuurlijke wijze kan ontwikkelen.
Aanpakken van vooroordelen en bevorderen van eerlijkheid
Van gezichtsherkenningssoftware die bepaalde demografische data verkeerd identificeert tot wervingstools die discrimineren op basis van geslacht of ras: AI-systemen hebben al herhaaldelijk de urgente behoefte aan rechtvaardigere en transparantere technologieën aangetoond. Nu de verantwoordingsplicht stevig is verankerd in regelgeving, kunnen we de systematische vooringenomenheid en ongelijkheid in AI gaan aanpakken.
Zo moeten de algoritmen die bij werving worden gebruikt, routinematig worden onderzocht om discriminerende trends bij het screenen van cv's te identificeren en te verwijderen. Om ervoor te zorgen dat geautomatiseerde beslissingen worden ingegeven door logica, ethiek en empathie, is het essentieel om de 'human in the loop'-aanpak te behouden, waarbij er altijd iemand toezicht houdt op de AI-activiteiten en kan ingrijpen, zodat de resultaten objectief zijn.
Eerlijkheid houdt in dat er eerlijke en consistente resultaten worden behaald, en dat er een gelijk speelveld wordt gecreëerd waarin iedereen dezelfde kans op succes heeft. Nu veel organisaties algoritmes gebruiken voor een eerste triage, zoals het screenen van sollicitanten, is het essentieel om deze systemen regelmatig te monitoren en te evalueren. Dit helpt discriminerende uitkomsten te voorkomen en garandeert eerlijkheid voor alle sollicitanten. Het betrekken van een mens bij de onderhandelingen is cruciaal om kernprincipes te handhaven en acceptabele normen te handhaven gedurende het hele proces.
Vertrouwen groeit door zichtbare transparantie
Stel je eens voor dat je solliciteert naar een baan en er later achter komt dat je sollicitatie is beoordeeld en afgewezen door een AI-systeem, zonder dat er ook maar een menselijke recruiter aan te pas is gekomen. Dit gebrek aan transparantie kan ertoe leiden dat kandidaten hun vertrouwen verliezen en denken dat ze geen eerlijke kans hebben gekregen in het sollicitatieproces. Mensen moeten begrijpen hoe AI werkt en hoe beslissingen worden genomen om echt effectief te zijn, zodat ze een groter gevoel van autonomie en vertrouwen in de technologie kunnen ervaren als het besluitvormingsproces van AI-modellen open en eerlijk is.
Organisaties die beloven open en duidelijk te communiceren, moeten laten zien hoe AI-systemen applicaties beoordelen, keuzes maken en uitgebreide uitleg geven over de normen en procedures om vertrouwen en transparantie bij AI-gebruikers te creëren. Het is daarom noodzakelijk om gemakkelijk toegankelijke kanalen te hebben voor gebruikersreacties of bezwaren, en ervoor te zorgen dat gebruikers weten of AI-conclusies definitief zijn, of nog door mensen beoordeeld moeten worden.
Eerlijkheid en verantwoording bij de implementatie van AI worden verder versterkt door open interne governancekaders, zoals die welke expliciet de jurisdictie van AI-ethische commissies beschrijven. Door transparantie, verantwoordelijkheid en empowerment van gebruikers te benadrukken, kunnen bedrijven vertrouwen kweken en ervoor zorgen dat AI rechtvaardig, moreel verantwoord en in lijn met gebruikersrechten blijft.
Lat voor privacy en beveiliging hoger leggen
AI kan enorme hoeveelheden data verzamelen en analyseren met een voorheen onvoorstelbare snelheid. Toch is de kans op privacyschendingen groter wanneer deze kracht wordt gebruikt. Dit wordt bevestigd door PwC, dat vaststelt dat
40% van de ondervraagde consumenten terughoudend is met het delen van persoonlijke gegevens op sociale media en websites vanwege veiligheidsoverwegingen.
Het respecteren van individuele rechten gaat verder dan wettelijke naleving. Bij de ontwikkeling van AI moet de bescherming van gevoelige gegevens, met name persoonlijk identificeerbare informatie, een topprioriteit zijn. Organisaties die de privacy- en beveiligingsnormen verhogen, kijken nu naar hybride modellen, omdat deze zeer effectief kunnen zijn en dataverwerking zowel on-premise als in de cloud mogelijk maken.
AI-kennis en continue bijscholing van mensen en bedrijven kunnen bijzonder effectief zijn wanneer ze worden geïntegreerd in het dagelijks leven. Moderne werknemers werken er eerder mee dan ertegen.
Waarom ethische normen in AI niet kunnen wachten
De vooruitgang op het gebied van AI-technologie overtreft vaak de capaciteit van bestaande regelgeving en ethische normen. Als bedrijven die AI-systemen gebruiken, vertraging oplopen, bestaat het risico dat er schadelijke of onvoorspelbare effecten optreden. AI heeft namelijk inmiddels invloed op veel aspecten van het dagelijks leven, zoals de gezondheidszorg, het werk, privacy en beveiliging.
Vooroordelen, onjuiste informatie en andere negatieve gevolgen kunnen miljoenen mensen treffen en komen vaker voor bij gebrek aan sterke ethische normen. Daarom zijn eerlijkheid, verantwoording, transparantie en duurzaamheid belangrijke principes in de Europese
AI Act. Deze principes zijn bedoeld om ervoor te zorgen dat AI-systemen instinctief helder zijn, de privacy van gebruikers beschermen en hun mensgerichte karakter behouden.
AI wordt wereldwijd ontwikkeld door een groot aantal organisaties en landen. Door gemeenschappelijke morele principes vast te stellen, kunnen we allemaal de verantwoordelijkheid nemen om misbruik te voorkomen en nuttige toepassingen te ontwikkelen die wereldwijd vertrouwen wekken. Innovatie in technologie zonder moreel toezicht kan verwoestende gevolgen hebben, zoals de geschiedenis heeft aangetoond. Proactieve standaarden werken als een buffer, omdat ze problemen kunnen voorkomen voordat ze uitgroeien tot ernstige noodsituaties.
Het grootste potentieel van AI ligt niet in wat het kan bereiken, maar in hoe verantwoord we het gebruiken. Door prioriteit te geven aan ethisch ontwerp, verantwoording, transparantie en eerlijkheid, heeft AI de potentie om een positieve kracht te worden.
De auteur van dit artikel is Martin Schirmer, GVP NEMEA bij Cloudera.