StartseiteArbeit
//
KontaktKontakt
Hier suchen

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Erkunden

  • Arbeit
  • Leistungen
  • Erkenntnisse
  • Universität
  • Studio Hyra
  • Unser Netzwerk

Verbinden

  • Kontakt
  • LinkedIn

Ansehen

  • Universität
  • KI-Überblick
  • KI-Rechner

Notizen aus dem Studio

Kurz, nützlich, ein- oder zweimal pro Monat. Strategie, KI, Handwerk, Dinge, die wir bauen.

© 2026 Studio Hyra. Alle Rechte vorbehalten.

Noch unklar, was wir machen? Wir zeigen's dir anders.Datenschutz
Was Muratis Aussage über KI-Sicherheitskultur offenlegt
Technology6 Min. Lesezeit

Was Muratis Aussage über KI-Sicherheitskultur offenlegt

May 9, 2026

Eidesstattliche Aussagen sind selten in der KI-Industrie. Pressemitteilungen sind es nicht. Also als Mira Murati, OpenAIs ehemalige CTO, unter Eid aussagte, dass Sam Altman sie belogen hatte, kam das anders an als der übliche Strom von Abgängen, Blogbeiträgen und vorsichtig formulierten Erklärungen, auf die die Branche läuft.

Das ist keine Anekdoten-Geschichte. Das ist eine Geschichte über Governance. Und wenn du irgendetwas Ernstes auf KI-Infrastruktur aufbaust oder Organisationen berätst, die das tun, solltest du darauf achten, was das uns tatsächlich sagt.

Abstract undulating waves with vibrant iridescent color shifts across their surfaces.

Die Safety-Kultur ist nicht das, was die Safety-Blogbeiträge sagen

Jedes große KI-Labor veröffentlicht eine Safety-Philosophie. Die Dokumente sind ernsthaft und umfangreich. Sie greifen Konzepte wie Alignment, Interpretierbarkeit und verantwortungsvolle Bereitstellung auf. Sie sind von durchdachten Menschen geschrieben.

Aber Safety-Kultur ist kein Dokument. Sie ist das, was im Zimmer passiert, wenn die Entscheidung schwer ist und der Wettbewerbsdruck hoch. Aussagen aus diesem Zimmer sind fast nie verfügbar.

Muratis Aussage, gegeben im Kontext von Elon Musks Klage gegen OpenAI und Sam Altman, ist einer der nächsten Verwandten von primärer Quellenbeweise, die wir je über die tatsächliche Verarbeitung von Safety-Entscheidungen auf höchster Ebene der prominentesten KI-Organisation der Welt hatten. Das macht sie wert, sorgfältig zu lesen, nicht nur der dramatischen Zitate wegen.

Ihr Bericht beschreibt ein Muster, das jeder kennt, der in einer schnell bewegten Organisation gearbeitet hat. Informationen wurden selektiv geteilt. Entscheidungen bewegten sich schneller als der festgestellte Prozess erlaubte. Die Person, die nominell für Safety verantwortlich war, war nicht immer in der Schleife bei Entscheidungen mit Safety-Implikationen.

Keines davon ist einzigartig für OpenAI. Das meiste davon ist strukturell.

Safety-Kultur ist kein Dokument. Sie ist das, was im Zimmer passiert, wenn die Entscheidung schwer ist und der Wettbewerbsdruck hoch.

Max Pinas, Studio Hyra

Das strukturelle Problem, das die Aussage offenlegt

Hier ist der unbequeme Teil. OpenAI ist kein Ausreißer in der Art, wie Safety-Verantwortung in KI-Organisationen verteilt ist. Das Muster ist beinahe universell.

Du hast eine dedizierte Safety-Funktion, oft besetzt mit Menschen, die wirklich kompetent und motiviert sind. Diese Funktion hat formale Autorität auf dem Papier. Sie produziert Frameworks, Red-Teaming-Protokolle und Deployment-Richtlinien. Sie wird in ruhigen Phasen als ernsthafter Teil der Organisation behandelt.

Dann beschleunigt sich die Wettbewerbsumgebung. Ein Konkurrent bringt etwas Unerwartetes auf den Markt. Ein Board-Treffen ändert die Zeitleiste. Eine Produktentscheidung wird in einem kleineren Zimmer gefällt, schneller, und die Safety-Funktion wird hinterher konsultiert oder nicht vollständig konsultiert. Die Personen, die für Safety verantwortlich sind, erfahren von Konsequenzen, die sie nicht vorhersehen sollten.

Das ist keine Geschichte über böse Akteure. Das ist eine Geschichte über Anreizstrukturen. Geschwindigkeit wird belohnt. Marktposition ist konkret. Safety-Risiko ist probabilistisch und oft unsichtbar, bis es nicht mehr ist. In dieser Umgebung werden selbst gut gemeinte Organisationen dazu neigen, Safety-Review-Zyklen zu komprimieren, wenn sie das Gefühl haben, dass sie müssen.

Muratis Aussage gibt uns einen benannten, beeidigten Bericht über diese Kompression an der Spitze der Hierarchie, nicht auf der mittleren Management-Ebene, wo sie normalerweise angenommen wird.

A series of interconnected geometric cubes with holographic reflections receding into the distance.

Was die Abgang-Muster uns bereits sagten

Muratis Aussage kam nicht ohne Kontext. In den zwei Jahren davor verlor OpenAI einen signifikanten Teil seiner Safety-fokussierten Führung. Ilya Sutskever, ein Mitgründer und der Architekt vieler von OpenAIs frühen Safety-Ideen, verließ das Unternehmen im Mai 2024. Das gesamte "Superalignment"-Team, das damit beauftragt war, das Problem der Ausrichtung superintelligenter Systeme zu lösen, wurde bis Mitte 2024 effektiv aufgelöst, mit seinen Führungskräften, Jan Leike und anderen, die öffentlich gingen und in mehreren Fällen erklärten, warum.

Leikes Abgangsstatement war unverblümt. Er schrieb, dass Safety-Kultur und Prozesse der Produktentwicklung den Rücken gekehrt hatten. Das war eine freiwillige Kündigungserklärung, keine eidesstattliche Aussage. Aber das Muster, das sie beschrieb, wird jetzt, in einem anderen Kontext, durch eidesstattliche Aussagen bekräftigt.

Wenn mehrere hochrangige Menschen, über verschiedene Amtszeiten und Rollen hinweg, die gleiche strukturelle Dynamik unabhängig und in verschiedenen rechtlichen und professionellen Kontexten beschreiben, ist das wert, als Datenpunkt behandelt zu werden, nicht als Erzählung.

Der Datenpunkt ist dieser. Bei der Organisation, die mehr als jede andere getan hat, um öffentlich zu definieren, wie verantwortungsvolle KI-Entwicklung aussieht, haben sich die Menschen, die für Safety verantwortlich sind, immer wieder außerhalb des Informationsflusses befunden, wenn es zählte.

Geschwindigkeit wird belohnt. Marktposition ist konkret. Safety-Risiko ist probabilistisch und oft unsichtbar, bis es nicht mehr ist.

Max Pinas, Studio Hyra

Was das bedeutet, wenn du auf KI-Infrastruktur aufbaust

Ich schreibe das nicht als Warnung gegen die Nutzung von KI-Tools. Wir nutzen sie jeden Tag bei Studio Hyra. Der praktische Nutzen ist real und die Systeme werden immer besser.

Aber wenn deine Organisation Verpflichtungen eingeht auf der Grundlage der Annahme, dass die KI-Systeme, auf die du angewiesen bist, so geregelt sind, wie ihre öffentliche Dokumentation beschreibt, ist Muratis Aussage ein Grund, diese Annahme zu aktualisieren.

Einige konkrete Dinge folgen daraus.

Vendor-Safety-Dokumentation ist kein Governance-Beweis. Eine Nutzungsrichtlinie, ein Responsible-AI-Framework, eine Deployment-Checkliste: das sind Signale, nicht Beweis. Die Frage ist nicht, was das Dokument sagt. Die Frage ist, welcher Prozess tatsächlich läuft, wenn das Produktteam etwas ausrollen will und das Safety-Team sich nicht sicher ist.

Die Lücke zwischen erklärter und betrieblicher Safety-Kultur ist wahrscheinlich größer als du denkst. Das ist nicht spezifisch für KI. Es ist wahr in Pharmazeutika, in Finanzen, in der Luftfahrt bevor die Boeing-MAX-Ausfälle eine Abrechnung erzwangen. Die KI-Industrie ist jünger und bewegt sich schneller. Die Lücke ist wahrscheinlich breiter.

Regulatorischer Druck wird schließlich Offenlegung erzwingen. Der EU AI Act erfordert Dokumentation von Risikobewertungsprozessen. Rechtsstreitigkeiten, wie wir sehen, generieren eidesstattliche Aussagen. Wenn diese Mechanismen reifen, wird das Delta zwischen dem, was Labs über ihre Safety-Kultur sagen, und dem, was tatsächlich darin passiert, schwerer zu erhalten sein. Organisationen, die Abhängigkeiten von KI-Infrastruktur aufgebaut haben, sollten jetzt überlegen, wie diese Sichtbarkeit aussieht, wenn sie ankommt.

Keines davon bedeutet, dass du aufhörst, KI zu nutzen. Es bedeutet, dass du aufhörst, Vendor-Safety-Ansprüche als Ersatz für dein eigenes Urteilsvermögen über Risiko zu behandeln.

A spiraling vortex of luminous, gradient-filled particles on a dark, textured field.

Der Wert von Primärquellen in einem Hype-Zyklus

Die KI-Industrie generiert ein enormes Volumen an Meinungen. Jeder hat eine Meinung darüber, ob KI gefährlich ist, ob die Labs verantwortungsvoll sind, ob Regulierung nötig ist und in welcher Form. Die meisten dieser Meinungen sind auf Sekundärquellen, öffentliche Aussagen und Rückschlüsse aufgebaut.

Aussagentexte sind anders. Sie werden unter Strafandrohung für Meineid produziert. Sie werden unter gegnerischen Bedingungen produziert, bei denen die andere Seite einen Anreiz hat, Inkonsistenzen offenzulegen. Das ist nicht eine Pressemitteilung oder ein Konferenzvortrag oder ein sorgfältig verfasstes Kündigungsschreiben.

Das macht es nicht unfehlbar. Zeugen erinnern sich falsch. Kontext zählt. Rechtsstreitigkeiten haben ihre eigenen Verzerrungen.

Aber es ist das nächste, das einer Grundwahrheit ist, das wir wahrscheinlich über das, was tatsächlich in einem folgenreichen Entscheidungsprozess bei einer der wichtigsten Organisationen des aktuellen KI-Moments geschah, bekommen werden. Die Tatsache, dass es einen Unterschied zwischen erklärter Safety-Kultur und betrieblicher Safety-Kultur beschreibt, sollte beeinflussen, wie jeder mit professioneller Verantwortung rund um KI über die Ansprüche nachdenkt, die er auf Treu und Glauben akzeptiert.

Ich denke, die ehrliche Schlussfolgerung ist diese. Safety-Kultur in den Frontier-KI-Labs ist an manchen Orten real und an anderen aspirativ. Die beiden sehen von außen oft identisch aus. Muratis Aussage ist ein seltenes, wenn auch unerwünschtes Instrument dafür, sie auseinanderzuhalten.

Bereit, wenn du es bist

Momentum beginnt mit einem Gespräch.

Kein Formular, kein Briefing. Einfach ein echtes Gespräch mit denen, die es umsetzen.

Gespräch buchenGespräch buchen

Weiterlesen.

Alle EinblickeAlle Einblicke
Technologie6 min read

OpenAI wants to sell ads inside ChatGPT answers. Are you ready?

OpenAI is building a formal ad product inside ChatGPT conversations. Here is what it demands of brands and agencies before the platform opens.

May 9, 2026
Technologie6 min read

OpenAI wants to sell ads in ChatGPT. Here is what that breaks.

OpenAI is building an ads layer inside ChatGPT. For brands that spent the last two years earning visibility in AI answers, this changes the rules entirely.

May 9, 2026