HomeWerk
//
ContactContact
Probeer te zoeken naar

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Bekijk

  • Werk
  • Diensten
  • Inzichten
  • Universiteit
  • Wie we zijn
  • Het Collectief

Verbinden

  • Contact
  • LinkedIn

Lees verder

  • Universiteit
  • AI Snapshot
  • AI-calculator

Notities uit de studio

Kort, bruikbaar, een of twee keer per maand. Strategie, AI, vakmanschap, dingen die we maken.

© 2026 Studio Hyra. Alle rechten voorbehouden.

Niet helemaal duidelijk wat we doen? We leggen het anders uit.Privacybeleid
Wat Murati's getuigenis onthult over de cultuur van AI-veiligheid
Technology6 min leestijd

Wat Murati's getuigenis onthult over de cultuur van AI-veiligheid

May 9, 2026

Getuigenis onder ede is zeldzaam in de AI-industrie. Persbericht niet. Dus toen Mira Murati, voormalig CTO van OpenAI, onder ede verklaarde dat Sam Altman tegen haar had gelogen, landde dat anders dan de gebruikelijke stroom van vertrekken, blogposts en voorzichtig geformuleerde stellingnames waar de industrie op draait.

Dit is geen roddelverhaal. Dit is een verhaal over governance. En als je iets serieus bouwt op AI-infrastructuur, of organisaties adviseer die dat doen, moet je aandacht hebben voor wat dit eigenlijk zegt.

Abstract undulating waves with vibrant iridescent color shifts across their surfaces.

Veiligheidscultuur is niet wat de veiligheid blog post zegt

Elk groot AI-lab publiceert een veiligheidsfilosofie. De documenten zijn serieus en uitgebreid. Ze roepen begrippen aan als alignment, interpretability en verantwoorde deployment. Ze zijn geschreven door doordachte mensen.

Maar een veiligheidscultuur is niet een document. Het is wat er gebeurt in de kamer als het besluit moeilijk is en de competitieve druk hoog. Getuigenis van binnen die kamer is bijna nooit beschikbaar.

Murati's deposition, gegeven in de context van Elon Musks rechtszaak tegen OpenAI en Sam Altman, is één van de zeldzaamste dingen die we hebben op primaire-bronbewijs over hoe veiligheidsbesluitvormingen werkelijk verlopen op het hoogste niveau van de meest prominente AI-organisatie ter wereld. Dat maakt het de moeite waard om zorgvuldig te lezen, niet alleen om aangehaald te worden voor het drama.

Haar verslag beschrijft een patroon dat iedereen die in een snelbewegende organisatie heeft gewerkt zal herkennen. Informatie werd selectief gedeeld. Besluitvormingen gingen sneller dan het gestelde proces toeliet. De persoon nominaal verantwoordelijk voor veiligheid was niet altijd op de hoogte van keuzes die veiligheidsgevolgen hadden.

Niets daarvan is uniek voor OpenAI. Het meeste is structureel.

Een veiligheidscultuur is niet een document. Het is wat er gebeurt in de kamer als het besluit moeilijk is en de competitieve druk hoog.

Max Pinas, Studio Hyra

Het structurele probleem dat getuigenis blootlegt

Hier is het ongemakkelijke gedeelte. OpenAI staat niet alleen in de manier waarop veiligheidsverantwoordelijkheid binnen AI-organisaties is verdeeld. Het patroon is bijna universeel.

Je hebt een dedicated safety function, vaak bemand met mensen die echt kundig en gemotiveerd zijn. Die functie heeft formele autoriteit op papier. Het produceert frameworks, red-teaming protocols en deployment guidelines. Het wordt behandeld als een serieus onderdeel van de organisatie tijdens rustige perioden.

Dan versnelt het competitieve landschap. Een rivaal levert iets onverwachts. Een bestuursvergadering verandert de timeline. Een productbesluit wordt genomen in een kleiner groep, sneller, en de safety function wordt achteraf geraadpleegd, of niet volledig. De mensen verantwoordelijk voor veiligheid leren over gevolgen die ze niet werd gevraagd te voorzien.

Dit is geen verhaal over slechte actoren. Dit is een verhaal over stimuleringsstructuren. Snelheid wordt beloond. Marktpositie is concreet. Veiligheidsrisico is probabilistisch en vaak onzichtbaar totdat het niet meer is. In die omgeving zullen zelfs goedbedoelde organisaties de neiging hebben om veiligheidsevaluatiecycli in te korten wanneer zij voelen dat ze dat moeten.

Murati's getuigenis geeft ons een benoemde, onder ede verklaring van die compressie die bovenaan de hiërarchie gebeurt, niet op het middenmanagementniveau waar men gewoonlijk aanneemt dat het thuishoort.

A series of interconnected geometric cubes with holographic reflections receding into the distance.

Wat de vertrekpatronen ons al hebben verteld

Murati's deposition kwam niet zonder context. In de twee jaar daarvoor verloor OpenAI een significant deel van zijn veiligheidsgerichte leiding. Ilya Sutskever, mede-oprichter en architect van veel van OpenAI's vroege veiligheidsdenkwerk, vertrok in mei 2024. Het volledige "superalignment" team, dat de taak had om het probleem van het afstemmen van superintelligente systemen op te lossen, werd effectief ontbonden in het midden van 2024, waarbij zijn leiders, Jan Leike en anderen, openlijk vertrokken en in verschillende gevallen uitlegden waarom.

Leike's vertrekverklaring was blunt. Hij schreef dat veiligheidscultuur en processen achteruit waren gezet ten gunste van productontwikkeling. Dat was een vrijwillig ontslagstatement, geen onder ede gegeven verklaring. Maar het patroon dat het beschrijft wordt nu bevestigd, in een ander verband, door onder ede gegeven verklaring.

Wanneer meerdere senior mensen, over verschillende perioden en rollen, hetzelfde structurele dynamiek onafhankelijk en in verschillende juridische en professionele contexten beschrijven, is dat de moeite waard om als gegeven feit te behandelen in plaats van als narratief.

Dat gegeven feit is dit. bij de organisatie die meer dan enig ander gedaan heeft om openbaar te definiëren hoe verantwoorde AI-ontwikkeling eruitziet, hebben de mensen verantwoordelijk voor veiligheid herhaaldelijk buiten de informatieflow gezeten wanneer het ertoe deed.

Snelheid wordt beloond. Marktpositie is concreet. Veiligheidsrisico is probabilistisch en vaak onzichtbaar totdat het niet meer is.

Max Pinas, Studio Hyra

Wat dit betekent als je op AI-infrastructuur bouwt

Ik schrijf dit niet als waarschuwing tegen het gebruik van AI-tools. We gebruiken ze elke dag bij Studio Hyra. De praktische waarde is reëel en de systemen worden steeds beter.

Maar als je organisatie verplichtingen aangaat op basis van de aanname dat de AI-systemen waarop je vertrouwt, beheerd worden zoals hun publieke documentatie beschrijft, dan is Murati's getuigenis een reden om die aanname bij te stellen.

Een paar concrete dingen volgen daaruit.

Vendor veiligheidsdocumentatie is niet governance-bewijs. Een gebruiksbeleid, een responsible AI framework, een deployment checklist: dit zijn signalen, geen bewijs. De vraag is niet wat het document zegt. De vraag is welk proces werkelijk plaatsvindt wanneer het productteam iets wil deployen en het safety team is niet zeker.

De kloof tussen gestelde en operationele veiligheidscultuur is waarschijnlijk groter dan je denkt. Dit is niet uniek voor AI. Het is waar in farmacie, in financiële diensten, in luchtvaart voordat de Boeing MAX-rampen een verandering dwongen. De AI-industrie is jonger en beweegt sneller. De kloof is waarschijnlijk breder.

Regeldruk zal uiteindelijk openbaarmaking forceren. De EU AI Act vereist documentatie van risicobeoordelingsprocessen. Rechtszaken, zoals we zien, genereren getuigenis onder ede. Naarmate deze mechanismen rijpen, zal het verschil tussen wat labs over hun veiligheidscultuur zeggen en wat werkelijk plaats vindt, moeilijker te handhaven zijn. Organisaties die afhankelijkheden op AI-infrastructuur hebben opgebouwd, moeten nu nadenken over hoe die zichtbaarheid eruit zal zien wanneer die aankomt.

Alles hieruit volgen betekent niet dat je ermee stopt AI te gebruiken. Het betekent dat je vendor veiligheidsclaims niet meer als vervanging voor je eigen oordeel over risico gebruikt.

A spiraling vortex of luminous, gradient-filled particles on a dark, textured field.

De waarde van primaire bronnen in een hype cycle

De AI-industrie genereert een enorm volume mening. Iedereen heeft een standpunt over of AI gevaarlijk is, of de labs verantwoord zijn, of regelgeving nodig is, en in welke vorm. Het meeste van die mening is gebaseerd op secundaire bronnen, openbare verklaringen en gevolgtrekking.

Deposition getuigenis is anders. Het wordt geproduceerd onder strafbedreiging wegens meineed. Het wordt geproduceerd onder tegengestelde omstandigheden waar de andere zijde een stimulans heeft om inconsistenties bloot te leggen. Het is geen persbericht, geen conferentielezing en geen voorzichtig opgestelde ontslagbrief.

Dat maakt het niet onfeilbaar. Getuigen herinneren zich dingen verkeerd. Context speelt een rol. Rechtszaken hebben hun eigen vervormingen.

Maar het is het dichtstbij waarschijnheid wat we krijgen naar ground truth over wat werkelijk is gebeurd in een gevolgreik besluitvormingsproces op één van de meest belangrijke organisaties in het huidige AI-moment. Het feit dat het een kloof beschrijft tussen gestelde veiligheidscultuur en operationele veiligheidscultuur zou informatie moeten verschaffen over hoe iemand met professionele verantwoordelijkheid rond AI denkt over de claims die ze zomaar aannemen.

Mijn eerlijke conclusie is deze. Veiligheidscultuur bij de frontier AI-labs is in sommige plaatsen reëel en in andere aspirationeel. De twee zien er van buitenaf vaak identiek uit. Murati's getuigenis is een zeldzaam, zo niet onwelkome, instrument om ze uit elkaar te halen.

Klaar als jij het bent

Momentum begint met een gesprek.

Geen formulieren, geen intake. Gewoon een echt gesprek met de mensen die het werk doen.

Plan een gesprekPlan een gesprek

Blijf lezen.

Alle inzichtenAlle inzichten
Technologie6 minuten

AI bedrijven gebruiken woorden voor menselijke dingen

Anthropic's 'dromen' en 'herinneringen'. Studio Hyra's Max Pinas over waarom de AI-industrie steeds naar menselijke metaforen grijpt

May 9, 2026
Technologie6 minuten lezen

AI-bedrijven gebruiken woorden die ze niet verdiend hebben

Anthropic noemde functies 'dromen' en 'herinneringen' op zijn developer conference. Studio Hyra's Max Pinas over waarom die naamgeving meer inzet dan het lijkt.

May 9, 2026