HomeWerk
//
ContactContact
Probeer te zoeken naar

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Bekijk

  • Werk
  • Diensten
  • Inzichten
  • Universiteit
  • Wie we zijn
  • Het Collectief

Verbinden

  • Contact
  • LinkedIn

Lees verder

  • Universiteit
  • AI Snapshot
  • AI-calculator

Notities uit de studio

Kort, bruikbaar, een of twee keer per maand. Strategie, AI, vakmanschap, dingen die we maken.

© 2026 Studio Hyra. Alle rechten voorbehouden.

Niet helemaal duidelijk wat we doen? We leggen het anders uit.Privacybeleid
Wanneer de voormalige CTO van je leverancier de CEO niet onder ede vertrouwt
Technology6 min leestijd

Wanneer de voormalige CTO van je leverancier de CEO niet onder ede vertrouwt

May 9, 2026

In een rechtszaal in San Francisco werd Mira Murati gevraagd of ze Sam Altman vertrouwde. Ze zei van niet. Murati was CTO van OpenAI van 2018 tot ze in eind 2024 opstapte. Ze was ook degene die het bedrijf een paar dagen in november 2023 leidde toen de raad Altman ontsloeg, voor de ommekeer die hem terugbracht. Ze was geen bijfiguur. Ze was degene die de productroadmap, de veiligheidsdiscussies en de interne werking van de organisatie beter kende dan bijna iedereen.

Haar getuigenis kwam in het lopende proces dat Elon Musk tegen Altman en OpenAI heeft aangespannen. Wat je ook van die zaak denkt, de woorden van Murati staan nu in het openbare dossier. En voor iedereen die een product, workflow of clientwerk bouwt op de API's van OpenAI, dat dossier is van belang.

A composition of iridescent, layered geometric shapes, such as cubes and spheres, against a dark background.

Dit is geen drama om van de zijlijn naar te kijken

De natuurlijke reactie is dit te zien als brancheroddelpraat. Executive vertrekt. Rechtszaak volgt. Citaten worden uit context gehaald. Volgende.

Die reactie is fout.

Wanneer de voormalige technische leider van je primaire AI-leverancier onder beëdiging verklaart dat ze de CEO niet kon vertrouwen, kijk je niet naar interne politiek. Je ontvangt een signaal over organisatorische samenhang bovenin een bedrijf waarvan je infrastructuur je wellicht elke dag clientwerk door laat gaan.

Dit gaat niet over of Altman een goed of slecht mens is. Het gaat erom wat die getuigenis je vertelt over het bestuur van een bedrijf dat toegang controleert tot een van de meest gevolgenrijke technology stacks in de sector op dit moment. Bestuur is van belang omdat het prioriteiten vormt, veiligheidsbeslissingen, productcontinuïteit en de voorwaarden waaronder je erop kunt rekenen dat een leverancier zich consistent over tijd gedraagt.

Leveranciersvertrouwen betekende vroeger uptime en prijzen. Nu ook: hebben de mensen die dit bedrijf runnen een gedeeld begrip van waarvoor het is?

Max Pinas, Studio Hyra

Wat inkoopteams eigenlijk kopen

Wanneer een bureau of productteam een foundation model in een clientworkflow integreert, kopen ze meer dan een API. Ze kopen:

  • Continuïteit. Het model dat je vandaag bouwt zou ruwweg hetzelfde gedrag moeten hebben over zes maanden. OpenAI heeft een gedocumenteerde geschiedenis van het stopzetten van modelversies, soms snel.
  • Veiligheidsconsistentie. De outputs van hun tool moeten binnen aanvaardbare parameters blijven als het model wordt bijgewerkt. Post-training alignment choices worden gemaakt door de leverancier, niet door jou.
  • Prijsstabiliteit. GPT-4 input pricing daalde significant tussen 2023 en 2024. Dat kan in je voordeel werken, maar een bedrijf onder juridische en governance druk kan ook prijzen de andere kant op bewegen.
  • Reputationele afstemming. Als de gebrandde AI-assistent van je client op een leverancier is gebouwd die koppen haalt voor interne problemen, dat wordt je probleem in een clientbesprekingvakken.

Niets hiervan vereist dat je aan één kant van een rechtszaak gelooft. Het vereist dat je de informatie serieus neemt.

Abstract flowing liquid forms, resembling smoke or waves, with iridescent reflections on a dark background.

De multi-model case is sterker geworden

De afgelopen twee jaar was bouwen op een enkel foundation model een verdedigbare keus. GPT-4 had een echte vermogensvoorgift, de API was stabiel genoeg, en de operationele overhead van het onderhouden van meerdere leveranciersintegraties loonde niet voor de meeste teams.

Die berekening verschuift. Niet omdat de vermogensvoorgift is verdwenen, hoewel die aanzienlijk is ingeperkt door concurrentie van Anthropic, Google en Mistral. Het verschuift omdat de niet-technische risico's nu zichtbaar zijn op manieren die ze voordien niet waren.

Een multi-model architectuur betekent niet elke request door vier API's laten gaan. Het betekent je systeem zo ontwerpen dat de modellaag echt vervangbaar is. Abstract de modeloproepen achter een interne interface. Houd je prompts, retrieval logic en post-processing in code die je bezit. Behandel het foundation model als een commodityutility, niet als platform waarop je bouwt.

Dit is geen nieuw idee. Maar getuigenis als die van Murati is het soort gebeurtenis dat een theoretische best practice verandert in een operationele prioriteit. De bureaus die dit werk de afgelopen achttien maanden stil hebben gedaan, zitten nu veel beter met hun clients.

Drie vragen die het waard zijn voordat je shipped

Als je oprichter of productlead bent van een bureau met AI in je delivery stack, horen deze vragen in je volgende architecture review thuis.

Kun je het model in minder dan een week vervangen? Niet theoretisch. Praktisch, met je daadwerkelijke codebase. Als het antwoord nee is, heb je een dependency die het waard is in je clientvoorstellen in te berekenen.

Weet je client welke leveranciers in de stack zitten? De meesten vragen het niet. Dat betekent niet dat ze geen recht hebben het te weten, vooral in gereglementeerde sectoren. Data residency, content moderation policy en modelbestuur zijn steeds meer onderdeel van procurement en compliancegesprekken op entreprise level.

Wat is je fallback als een belangrijk model wordt stopgezet of aanzienlijk verandert? OpenAI heeft GPT-4 varianten eerder stopgezet. Anthropic heeft hetzelfde gedaan met Claude versies. Een fallback plan is niet paranoia. Het is dezelfde logica als een server redundancy requirement.

Niets hiervan vereist dat je stopt met bouwen op OpenAI. Voor veel taken is het nog steeds het juiste gereedschap. Maar erop bouwen met open ogen is anders dan erop bouwen met kritiekloze leveranciersloyaliteit.

A series of iridescent concentric rings or spirals expanding outwards against a dark background.

De bureaus die clientvertrouwen door deze periode behouden, zijn degenen die hun modelstack als een engineering decision behandelen, niet als brand affiliation.

Max Pinas, Studio Hyra

Wat deze periode van ons eigenlijk vraagt

De AI toolinglandschap in 2025 is geen stabiele utilitymarkt. Het is een set jonge bedrijven, enkele daarvan in actieve juridische disputen, sommige in significant leiderswisseling, allemaal racend om product sneller uit te leveren dan ze interne vragen kunnen oplossen over wat ze bouwen en waarom.

De getuigenis van Murati is één datapunt. De boardcrisis bij OpenAI in november 2023 was nog een. De voortdurende vragen over bestuur in AI labs zijn een patroon, geen reeks geïsoleerde incidenten.

Voor een bureau is het professionele antwoord geen cynisme en geen blinde vertrouwen. Het is hetzelfde wat we van enig goed technisch besluit vragen: erken het risico, ontwerp eruit, en blijf eerlijk met clients over wat je weet en wat je niet weet.

Dat is wat het betekent nu voorzichtig te bouwen. Niet langzamer. Niet met minder ambitie. Gewoon met een duidelijk oog op hoe het terrein er werkelijk uitziet.

Klaar als jij het bent

Momentum begint met een gesprek.

Geen formulieren, geen intake. Gewoon een echt gesprek met de mensen die het werk doen.

Plan een gesprekPlan een gesprek

Blijf lezen.

Alle inzichtenAlle inzichten
Technologie6 minuten

AI bedrijven gebruiken woorden voor menselijke dingen

Anthropic's 'dromen' en 'herinneringen'. Studio Hyra's Max Pinas over waarom de AI-industrie steeds naar menselijke metaforen grijpt

May 9, 2026
Technologie6 minuten lezen

AI-bedrijven gebruiken woorden die ze niet verdiend hebben

Anthropic noemde functies 'dromen' en 'herinneringen' op zijn developer conference. Studio Hyra's Max Pinas over waarom die naamgeving meer inzet dan het lijkt.

May 9, 2026