In de wereld zijn een tal van morele dilemma’s waarin mensen verdeeld zijn. Denk hierbij aan het adviseren bij complexe morele vraagstukken, zoals het maken van keuzes in de zorg of juridische kwesties. OpenAI probeert hier stappen in te maken en heeft om die reden een subsidie van $1 miljoen toegekend aan het Moral Attitudes and Decisions Lab (MADLAB) van Duke University. Dit onderzoek, onder leiding van ethiekprofessor Walter Sinnott-Armstrong en co-onderzoeker Jana Schaich Borg, richt zich op hoe kunstmatige intelligentie (AI) menselijke morele oordelen kan voorspellen en ondersteunen.
Het project, genaamd "Making Moral AI," streeft naar de ontwikkeling van een “morele GPS.” Dit instrument zou AI in staat stellen om ethische beslissingen te begeleiden in complexe situaties. Het onderzoek combineert inzichten uit verschillende vakgebieden, waaronder psychologie, neurowetenschappen, filosofie en computerwetenschappen.
Hoewel AI in de afgelopen jaren een enorme vooruitgang heeft geboekt, blijkt de technologie nog altijd moeite te hebben om emotionele en culturele nuances van moraliteit te begrijpen. Neem autonome voertuigen. In de toekomst is het de verwachting dat dit de standaard wordt in de auto industrie, simpelweg omdat AI meer verkeersongelukken kan voorkomen. Er komen hierbij echter ook problemen naar boven waarbij een autonome auto voor lastige beslissingen komt te staan. Zo kan het zijn dat een AI systeem moet kiezen tussen het beschermen van de inzittenden van het voertuig of voetgangers in een noodsituatie, wat ethische dilemma’s oplevert. Wat doe je als er in het verkeer een kind in gevaar komt tegenover een ouder iemand?
Een belangrijke zorg is hoe deze technologie wordt toegepast. Wie bepaalt het morele kader, en hoe voorkomen we dat vooroordelen en schadelijke toepassingen ontstaan? Deze vragen benadrukken de noodzaak van duidelijke richtlijnen en transparantie in het ontwerp en de implementatie van AI systemen. Zonder adequate controles kan AI onbedoeld bestaande maatschappelijke ongelijkheden versterken of zelfs nieuwe ethische problemen creëren.