De AI industrie vertrouwenscrisis rond
Sam Altman verdiept zich in april 2026 na onthullingen van Ronan Farrow. Interne documenten en getuigenissen schetsen een verontrustend beeld: de man die veilige AI beloofde, wordt door insiders gezien als onbetrouwbaar. Dat is te lezen in een uitgebreid artikel in
The New Yorker.
De impact reikt verder dan één CEO. Het raakt de kern van de AI-industrie, waarin macht, snelheid en controle samenkomen zonder volwassen governance.
“Ik denk niet dat Sam degene is die de knop moet bedienen”
De zwaarste kritiek komt van binnenuit. Ilya Sutskever, medeoprichter en jarenlang vertrouweling van Altman, trok al in 2023 aan de bel.
Zijn oordeel was ongekend scherp: “I don’t think Sam is the guy who should have his finger on the button.”
Deze uitspraak raakt de kern. AI wordt gezien als technologie met existentiële impact. Wie die controleert, moet boven elke twijfel verheven zijn.
Volgens interne memo’s beschuldigden boardleden Altman zelfs van een patroon van misleiding: “Sam exhibits a consistent pattern of… Lying.”
Dat maakt vertrouwen geen abstract begrip, maar een operationeel risico.
Vertrouwen als zwakke schakel van AI
De belangrijkste conclusie is dat AI niet alleen een technisch probleem is. Het is een governanceprobleem.
Een boardlid vat het hard samen: “He’s unconstrained by truth.”
En nog scherper: “He has a strong desire to please… and a sociopathic lack of concern for consequences.”
Dit soort uitspraken zijn uitzonderlijk in Silicon Valley. Ze tonen dat het debat niet meer gaat over strategie, maar over karakter.
Tegelijk verdedigen investeerders Altman juist vanwege zijn resultaten.
Zoals één bondgenoot stelt: “His mission is measured by numbers.”
Dit spanningsveld tussen prestaties en integriteit vormt het hart van de crisis.
De ‘Blip’: macht wint van governance
De gebeurtenissen rond het ontslag en de snelle terugkeer van Altman in 2023 laten zien hoe fragiel governance is.
De board stelde dat Altman: “was not consistently candid in his communications.”
Toch keerde hij binnen vijf dagen terug. Waarom? Omdat:
-
werknemers massaal dreigden te vertrekken
-
investeerders druk uitoefenden
-
partners zoals Microsoft stabiliteit eisten
De les is pijnlijk duidelijk: formele controlemechanismen verliezen het van economische macht.
Safety versus speed: een fundamenteel conflict
De crisis draait ook om een inhoudelijke strijd. Hoe snel moet AI ontwikkeld worden, en hoe veilig?
Voormalig safety-leider Jan Leike schreef intern:
“We are prioritizing product and revenue… with alignment and safety coming third.”
Dat betekent dat veiligheid structureel onder druk staat.
Zelfs Altman erkende de spanning, maar koos voor pragmatisme:
“If you say ‘never say anything you’re not 100% sure about’… you lose the magic.”
Hier wordt een fundamentele keuze zichtbaar: imperfecte waarheid accepteren om innovatie te versnellen.
Macht, kapitaal en geopolitiek
De schaal van OpenAI maakt de situatie nog complexer.
Altman bouwt aan infrastructuur van honderden miljarden dollars en werkt met staten en autocratieën.
Een insider beschrijft de impact bijna sciencefictionachtig:
“We’re building portals from which we’re genuinely summoning aliens.”
Deze metafoor benadrukt hoe onbekend en potentieel gevaarlijk de technologie is.
Tegelijk groeit de economische druk. OpenAI beweegt richting een mogelijke beursgang en extreme waarderingen.
Altman zelf gaf eerder al aan:
“Someone is going to lose a phenomenal amount of money.”
De combinatie van geopolitiek, kapitaal en AI versnelt beslissingen en vergroot risico’s.
Is dit een persoonlijk probleem of een systeemfout?
De kernvraag is of dit over één persoon gaat.
Voormalig OpenAI-onderzoeker verwoordt het structureel:
“He sets up structures that constrain him… and then does away with them.”
Dat wijst op een bredere dynamiek:
-
leiders creëren regels
-
regels botsen met groei
-
regels verdwijnen
De AI-industrie lijkt daardoor afhankelijk van persoonlijk leiderschap in plaats van institutionele controle.
Waarom dit ook Nederland raakt
De impact is direct voor Nederland en Europa.
Nederlandse bedrijven, overheden en onderwijsinstellingen bouwen steeds meer op Amerikaanse AI-systemen.
Als vertrouwen ontbreekt:
-
vertraagt adoptie van AI
-
groeit politieke weerstand
-
neemt afhankelijkheid risico toe
De Europese AI Act probeert dit te reguleren, maar deze crisis laat zien dat wetgeving alleen niet voldoende is. Governance begint bij mensen.
Conclusie: AI draait op vertrouwen, en dat brokkelt af
De belangrijkste les is helder.
AI draait niet alleen op modellen, chips en data. Het draait op vertrouwen in leiderschap.
De woorden van Mira Murati vatten het samen:
“We need institutions worthy of the power they wield.”
Dat is precies waar het nu schuurt.
De technologie ontwikkelt sneller dan de structuren die haar moeten controleren.
En zolang dat zo blijft, is de grootste kwetsbaarheid van AI niet technisch, maar menselijk.