StartseiteArbeit
//
KontaktKontakt
Hier suchen

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Erkunden

  • Arbeit
  • Leistungen
  • Erkenntnisse
  • Universität
  • Studio Hyra
  • Unser Netzwerk

Verbinden

  • Kontakt
  • LinkedIn

Ansehen

  • Universität
  • KI-Überblick
  • KI-Rechner

Notizen aus dem Studio

Kurz, nützlich, ein- oder zweimal pro Monat. Strategie, KI, Handwerk, Dinge, die wir bauen.

© 2026 Studio Hyra. Alle Rechte vorbehalten.

Noch unklar, was wir machen? Wir zeigen's dir anders.Datenschutz
KI-Firmen sprechen mit Worten, die eigentlich für Menschen reserviert sind
Technology6 Minuten

KI-Firmen sprechen mit Worten, die eigentlich für Menschen reserviert sind

May 9, 2026

Auf seiner Entwicklerkonferenz diese Woche stellte Anthropic zwei Features vor, deren Namen mich zum Innehalten brachten: Dreaming und Memories. Technisch verstehe ich genau, was sie tun. Dreaming ist ein Modus für Hintergrundverarbeitung, in dem das Modell während Leerlaufzyklen Inferenz ausführt. Memories ist persistenter Kontextspeicher über Sessions hinweg. Beides sind echte, nützliche Fähigkeiten. Keines träumt. Keines erinnert sich an etwas im Sinne dieses Wortes, wenn man es auf einen Menschen anwendet.

Und doch. Da liegen die Wörter, eingebettet in die Produktankündigung, als gehörten sie dort hin.

Das ist kein Anthropic-Problem. Es ist eine Industriegewohnheit. Und inzwischen lohnt es sich, das klar zu benennen, weil die Wahl der Wörter in einem Produkt niemals neutral ist. Sie prägt, wie Menschen denken, dass etwas funktioniert. Sie prägt, wem sie es anvertrauen. Sie prägt, was sie erwarten, wenn es fehlschlägt.

Majestic mountains under a vibrant sunset, with a winding river in the foreground.

Das Muster hat eine Geschichte

Das Vokabular hat sich früh angesammelt. Modelle wurden trainiert (in Ordnung, das ist verteidigbar). Dann begannen sie zu lernen. Dann entwickelten sie Verständnis. Dann Reasoning. OpenAI bringt ein Modell namens o3 auf den Markt und beschreibt seinen Chain-of-Thought-Prozess als Denken. Google nennt seine Agent-Orchestrierungsschicht einen Agent, der plant. Meta hat davon gesprochen, dass KI Meinungen bildet.

Jede einzelne Wahl sieht wie eine angemessene Kurzform aus. Zusammengenommen bauen sie das Bild von etwas auf, das eher einem Verstand ähnelt.

Die KI-Industrie hat dieses Muster nicht erfunden. Schnittstellendesigner nutzen seit Jahrzehnten Skeuomorphismus: die Desktop-Metapher, der Einkaufswagen, der Ordner. Man legt eine vertraute Hülle auf etwas Unvertrautes, damit Menschen es angehen können. Das ist eine legitime Strategie. Der Unterschied liegt darin, dass ein Einkaufswagen-Icon auf einer Website niemanden glauben lässt, der Server gehe einkaufen. Das Wort Memories auf ein Sprachmodell angewendet macht manche Menschen glauben, das Modell habe einen Einsatz darin, sie zu erinnern.

Das Wort ‚Memories', angewendet auf ein Sprachmodell, lässt manche Menschen glauben, das Modell habe einen Einsatz darin, sie zu erinnern. Das ist keine harmlose Verwirrung.

Max Pinas, Studio Hyra

Warum Unternehmen es weiterhin tun

Drei Gründe, keiner davon verschwörerisch.

Erstens konvertiert es schneller. Ein Feature namens persistenter Kontextspeicher verlangt nach Erklärung. Ein Feature namens Memories nicht. Wenn man eine Produktseite oder eine Konferenz-Keynote schreibt, verdient das menschliche Wort den Klick und den Applaus. Das genaue Wort macht Menschen Arbeit.

Zweitens greifen Ingenieure zur nächsten Analogie. Die Forscher, die diese Systeme bauen, verbringen Jahre damit, Modellverhalten in Kurzform zu beschreiben. Attention, Hallucination, Temperature, Grounding. Diese Wörter begannen in Papers und Forschungsnotizen, wo alle im Raum verstanden, dass es Metaphern waren. Sie entkamen in Produkttexte ohne den Haftungsausschluss.

Drittens gibt es einen subtileren kommerziellen Druck. Wenn dein Modell denkt und träumt und sich erinnert, klingt es wie ein Kollege statt wie ein Werkzeug. Kollegen erhalten mehr Vertrauen und mehr Budget als Werkzeuge. Die Sprache leistet stille kommerzielle Arbeit.

Nichts davon bedeutet, dass jemand in einem Zimmer saß und beschloss, Menschen zu täuschen. Es bedeutet, dass der Weg des geringsten Widerstands bei der KI-Produktbenennung direkt durch das Vokabular des Bewusstseins führt.

An ancient lighthouse standing tall on a rocky coastline at sunset.

Was verzerrt wird

Die Kosten sind nicht philosophisch. Sie sind praktisch.

Wenn Menschen glauben, ein Modell erinnert sich an sie, teilen sie mehr, als sie mit einer Datenbank teilen würden. Sie offenbaren Dinge, die sie einer Suchmaschine nicht offenbaren würden, weil eine Suchmaschine sich nicht anfühlt, als würde sie sie kennen. Datenschutzverhalten ändern sich basierend auf der Metapher, nicht auf der zugrundeliegenden Architektur.

Wenn Menschen glauben, ein Modell sei am Denken, interpretieren sie seine Ausgabe als überlegte Beurteilung statt als statistische Vorhersage. Sie sind langsamer, das zu überprüfen. Sie lehnen weniger ab. Die Fehlerquote des Modells ändert sich nicht. Die Quote, mit der Benutzer Fehler fangen, tut es.

Wenn ein Modell halluziniert (ein weiteres geliehenes menschliches Wort für das, was wirklich eine probabilistische Ausgabe ist, die außerhalb der faktischen Verteilung landet), behandeln Menschen es als eine Abweichung, einen schlechten Tag, statt als strukturelle Eigenschaft, wie das System funktioniert. Diese Rahmung verzögert ernsthafte Gespräche darüber, wann diesen Systemen vertraut werden sollte und wann nicht.

Ich argumentiere nicht für sterile technische Sprache auf allen Oberflächen. Ich argumentiere, dass die Wörter, die wir wählen, um KI-Verhalten zu beschreiben, nachgelagerte Konsequenzen haben: in Benutzerverhalten, in Vertrauenskalibrierung und letztendlich in Politik. Sie unbedacht zu wählen ist eine Designentscheidung, auch wenn kein Designer sie traf.

Wie ehrliche Benennungspraxis aussieht

Das ist kein unlösbares Problem. Es erfordert nur die gleiche Disziplin, die man auf jede wichtige Produktentscheidung anwenden würde.

Beginne damit, was das Feature wirklich tut. Persistenter Kontext. Hintergrund-Inferenz. Abruf aus vorherigen Sessions. Dann frage: Gibt es ein einfaches Wort dafür, das keine innere Erfahrung andeutet? Oft gibt es das. Verlauf statt Memories. Hintergrundverarbeitung statt Dreaming. Abruf ist fraglich. Reflexion geht zu weit.

Wo eine menschliche Analogie das Onboarding wirklich hilft, nutze sie, aber begrenze sie. Leg sie in den Tooltip, nicht in den Feature-Namen. Lass die Marketing-Ebene Metaphern-Arbeit leisten, aber halte die Produktebene ehrlich.

Die Unternehmen, die das gut tun, sind meist die, wo Design und Engineering ein gemeinsames Vokabular haben. Wenn Designer genug über Modelle verstehen, um ein geliehenes Wort anzufechten, und wenn Ingenieure genug über Benutzermentale-Modelle kümmern, um zuzuhören, bekommt man Namen, die sowohl klar als auch ehrlich sind. Diese Zusammenarbeit ist selten. Sie sollte es nicht sein.

Für Agenturen wie unsere, die an der Schnittstelle zwischen KI-Fähigkeit und Produkterlebnis arbeiten, ist das eines der interessanteren Probleme im Moment. Nicht weil Benennung glamourös ist, sondern weil jedes Wort in einer Produktoberfläche eine kleine Aussage über die Funktionsweise der Welt ist. In KI-Produkten addieren sich diese Aussagen.

A quiet park path winding through stylized trees at dusk, with distant city lights.

Jedes Wort in einer Produktoberfläche ist eine kleine Aussage über die Funktionsweise der Welt. In KI-Produkten addieren sich diese Aussagen schnell.

Max Pinas, Studio Hyra

Die Frage, mit der es sich lohnt zu sitzen

Anthropics Ingenieure bauten kein Feature, das träumt. Sie bauten ein Feature, das Inferenz im Hintergrund ausführt. Die Benennungsentscheidung sagt dir etwas über den Moment, in dem wir uns befinden: eine Industrie, die etwas wirklich Neues gebaut hat und immer noch nach alten Wörtern greift, um es zu erklären.

Diese Reichweite ist verständlich. Sie kann sogar unvermeidlich sein in den frühen Jahren einer Technologie, die keinen echten Präzedenzfall hat. Aber sie wird sich entwickeln müssen. Je fähiger diese Systeme werden, desto gewichtiger wird die Kluft zwischen dem Wort und dem Ding.

Irgendwann muss die Industrie ein Vokabular aufbauen, das zur KI gehört statt von der menschlichen Erfahrung geliehen zu sein. Das ist ein Designproblem genau wie ein sprachliches. Und niemand hat es bislang gelöst.

Bereit, wenn du es bist

Momentum beginnt mit einem Gespräch.

Kein Formular, kein Briefing. Einfach ein echtes Gespräch mit denen, die es umsetzen.

Gespräch buchenGespräch buchen

Weiterlesen.

Alle EinblickeAlle Einblicke
Technologie6 Minuten Lesezeit

KI-Unternehmen nehmen sich Worte, die sie sich nicht verdient haben

Anthropic hat auf seiner Developer Conference Features als "träumen" und "Erinnerungen" bezeichnet. Max Pinas von Studio Hyra über die Bedeutung dieser Benennungsweise.

May 9, 2026
Technologie6 Min. Lesezeit

Was Muratis Aussage über KI-Sicherheitskultur offenlegt

Mira Murati hat unter Eid ausgesagt, dass Sam Altman sie in die Irre geführt hat. Diese eine Tatsache sagt uns mehr über KI-Sicherheitskultur aus als ein Jahrzehnt Blog-Posts.

May 9, 2026