OpenAI heeft grote successen geboekt in de wereld van kunstmatige intelligentie (AI), met onder andere de chatbot ChatGPT en het generatieve model DALL-E, dat nu negatief in het nieuws komt. Zo wordt het bedrijf ervan beschuldigd dat het illegaal werknemers heeft verhinderd om veiligheidsrisico's van hun technologie te melden aan regelgevende instanties.
Klachten ingediend bij de SEC
Klokkenluiders hebben een klacht
ingediend bij de Amerikaanse Securities and Exchange Commission (SEC) waarin ze stellen dat het bedrijf zijn medewerkers heeft verplicht te strenge werk-, ontslag- en geheimhoudingsovereenkomsten te ondertekenen.
Volgens de klacht moesten werknemers toestemming vragen aan OpenAI voordat ze informatie konden delen met de federale autoriteiten. De restrictieve overeenkomsten zouden in strijd zijn met federale wetten die klokkenluiders juist beschermt om anoniem schadelijke informatie over hun werkgever te onthullen.
De SEC wordt opgeroepen om snel en agressief op te treden tegen deze illegale overeenkomsten. Het handhavingsproces moet ervoor zorgen dat medewerkers vrij zijn om zich te melden aan federale autoriteiten. Whistleblowers vragen de SEC om OpenAI te verplichten om alle overeenkomsten met geheimhoudingsclausules te overleggen en het bedrijf te beboeten voor elke onjuiste overeenkomst.
Reactie OpenAI
OpenAI heeft verklaard dat hun beleid de rechten van werknemers juist beschermt om beschermde onthullingen te doen. Volgens woordvoerder Hannah Wong heeft het bedrijf belangrijke wijzigingen aangebracht in hun vertrekproces om niet-afbreukclausules te verwijderen.
Strikte geheimhoudingsovereenkomsten in de tech-industrie hebben werknemers en regelgevers al lange tijd gefrustreerd. Deze overeenkomsten beperken de mogelijkheid van werknemers om misstanden zoals seksuele intimidatie en raciale discriminatie te melden. Beleidsmakers hebben de hulp van klokkenluiders nodig om potentiële bedreigingen van snel ontwikkelende technologieën zoals
AI te begrijpen en te reguleren.
Medeoprichter OpenAI Lanceert nieuw bedrijf
Opvallend genoeg verliet Ilya Sutskever, mede-oprichter en voormalig 'chief scientist' van OpenAI, het bedrijf om een
nieuwe AI startup te lanceren, genaamd Safe Superintelligence Inc. (SSI). SSI richt zich volledig op het ontwikkelen van een veilig en krachtig AI-systeem, vrij van commerciële druk. Zijn vertrek is een reactie op de huidige controverse binnen OpenAI.