StartseiteArbeit
//
KontaktKontakt
Hier suchen

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Erkunden

  • Arbeit
  • Leistungen
  • Erkenntnisse
  • Universität
  • Studio Hyra
  • Unser Netzwerk

Verbinden

  • Kontakt
  • LinkedIn

Ansehen

  • Universität
  • KI-Überblick
  • KI-Rechner

Notizen aus dem Studio

Kurz, nützlich, ein- oder zweimal pro Monat. Strategie, KI, Handwerk, Dinge, die wir bauen.

© 2026 Studio Hyra. Alle Rechte vorbehalten.

Noch unklar, was wir machen? Wir zeigen's dir anders.Datenschutz
KI-Unternehmen nehmen sich Worte, die sie sich nicht verdient haben
Technology6 Minuten Lesezeit

KI-Unternehmen nehmen sich Worte, die sie sich nicht verdient haben

May 9, 2026

Anthropic hat auf seiner Entwicklerkonferenz in diesem Jahr Features vorgestellt, die das Unternehmen "Dreaming" und "Memories" nannte. Nicht versteckt in einer Fußnote. Zentral auf der Bühne, im Keynote.

Ich werde so tun, als wäre das etwas Kleines. Das geht nicht. Sprache prägt, wie Menschen über Technologie nachdenken. Wenn ein Unternehmen vom Format und der Glaubwürdigkeit von Anthropic zu diesen konkreten Worten greift, ist das kein Versprecher. Das ist eine Produktentscheidung. Und sie lohnt sich ernst zu nehmen, weil viele von uns in Agenturen und Product-Teams davon abhängig sind.

Das baut sich schon seit einer Weile auf

Das Benennungsmuster ist nicht neu. OpenAI hat "Memory". Google DeepMind spricht von Modellen, die "verstehen" und "argumentieren". Meta-Modelle "imaginieren" Bilder. Das gesamte Vokabular des modernen KI-Produktmarketings wurde leise von Begriffen kolonisiert, die geprägt wurden, um bewusste, körperliche, biologische Erfahrung zu beschreiben.

Dreaming im menschlichen Sinne ist das, was das Gehirn während des REM-Schlafs tut, um Erinnerungen zu konsolidieren, Gefühle zu verarbeiten und, so argumentieren einige Forscher, zukünftige Szenarien zu durchspielen. Es ist tief mit Bewusstsein verbunden, mit einem Körper, mit Zeit, die vergeht, während man sich dessen nicht bewusst ist. Keine dieser Bedingungen trifft auf ein großes Sprachmodell zu, das Inferenz auf einem GPU-Cluster ausführt.

Was Anthropic mit "Dreaming" wahrscheinlich meint, ist eher ein Offline-Verarbeitungsschritt, ein Hintergrund-Pass, den das Modell macht, um gespeicherte Kontexte zu erschließen oder zu organisieren. Das ist eine vernünftige technische Beschreibung. Es ist auch eine völlig akkurate. Das Wort "Dreaming" trägt nichts zur Genauigkeit bei. Es trägt etwas anderes bei: Wärme, Nachvollziehbarkeit und eine faint suggestion, dass das System ein Innenleben hat.

Diese Suggestion sollten wir diskutieren.

Benennung ist nicht neutral. Jedes Wort, das du auf ein Feature legst, lehrt den Nutzer, wie er sich dazu fühlen soll. Lehre ihn falsch und du trägst die Verwirrung, die daraus folgt.

Max Pinas, Studio Hyra

Die Geschäftslogik ist offensichtlich, und das ist genau das Problem

Ich verstehe, warum Unternehmen das tun. Vermenschlichte Sprache senkt die Hürde zur Adoption. Wenn ein Feature dich "erinnert" statt "einen Vektor-Embedding deiner letzten Session abruft", fühlt sich das weniger fremd an. Weniger bedrohlich. Mehr wie ein Kollege und weniger wie eine Datenbankabfrage.

Das ist nicht zynisch. Zugänglichkeit in Produktsprache ist echt wertvoll. Das Problem ist, dass anthropomorphe Sprache nicht nur vereinfacht. Sie täuscht auch. Und die Täuschung passiert in zwei Richtungen gleichzeitig.

Erstens übersteigert sie Leistungserwartungen. Wenn ein System "träumt", können Nutzer mit Recht erwarten, dass es kreative Sprünge macht, sie mit Synthesen überrascht, etwas produziert, das es nicht explizit erlernt hat. Wenn es das nicht tut, was meistens der Fall ist, ist die Enttäuschung nicht nur über das Feature. Sie zerfrisst das Vertrauen in das Unternehmen und damit in KI-Produkte insgesamt.

Zweitens verschleiert sie Fehlermodi. Ein System, das "halluziniert", klingt, als hätte es einen vivid moment of creativity. Der echte Fehler ist, dass es plausibel klingende Text generiert, der faktisch falsch ist, mit Überzeugung. Das ist kein Traum. Das ist ein Mangel. Halluzination zu nennen gibt ihm eine poetische Qualität, die es nicht verdient hat, und macht es schwerer für Nutzer und Kunden zu verstehen, womit sie es wirklich zu tun haben.

Für die von uns, die Produkte mit diesen Modellen bauen, spielt das täglich eine Rolle. Clients kommen geprägt von der Marketing. Sie erwarten, dass Memory funktioniert wie die Erinnerung einer Person funktioniert, kontinuierlich, kontextuell, emotional gewichtet. Sie erwarten, dass Reasoning funktioniert wie die Argumentation einer Person funktioniert, mit Urteil, mit Einsätzen, mit etwas, das der Weisheit ähnelt. Wenn wir erklären müssen, dass beides nicht stimmt, verwalten wir nicht nur Erwartungen. Wir machen das Framing rückgängig, das die KI-Labs selbst gebaut haben.

Die Labs wissen, was sie tun

Hier ist der Teil, den ich widerstehen will zu beschönigen. Das sind keine naiven Benennungsentscheidungen. Anthropic beschäftigt einige der sorgfältigsten Denker im KI-Bereich. Das Unternehmen wurde explizit gegründet mit Besorgnis über KI-Risiken, über die Lücke zwischen dem, was diese Systeme zu sein scheinen, und dem, was sie tatsächlich sind. Und dann hat es ein Feature "Dreaming" genannt.

Es gibt ein paar Weisen, das zu lesen. Eine ist, dass das Safety-Team und das Product-Team in separaten Räumen arbeiten. Das ist plausibel. Wachstumsdruck ist real, und die Sprache, die Nutzer konvertiert, stimmt nicht immer mit der Sprache überein, die epistemisch ehrlich ist.

Eine andere Lesart ist, dass das Unternehmen wirklich glaubt, die Metapher ist nah genug, um nützlich zu sein. Dass der zugrundeliegende Prozess genug strukturelle Ähnlichkeit mit biologischem Dreaming hat, um die Benennung zu rechtfertigen. Das finde ich weniger überzeugend. Die strukturellen Ähnlichkeiten sind bestenfalls oberflächlich, und die Konnotationen des Wortes wiegen weit schwerer als jede strukturelle Ähnlichkeit rechtfertigen könnte.

Eine dritte Lesart ist, dass keiner im Raum hart genug dagegen argumentiert hat. Dass der Name gut klang auf einem Slide Deck, in einer Fokusgruppe gut abschnitt und gelauncht wurde. Das ist wahrscheinlich die ehrlichere Lesart, und sie ist auch besorgniserregend. Weil das bedeutet, die Entscheidung wurde primär aus Marketinggründen getroffen bei einem Unternehmen, das sich selbst öffentlich um das richtige Verständnis von KI rahmt.

Die Labs, die am meisten über KI-Sicherheit sprechen, sind oft dieselben, die am stärksten nach dem Vokabular des Bewusstseins greifen. Diese Spannung lohnt sich zu benennen.

Max Pinas, Studio Hyra

Was das für Product-Teams und Agenturen bedeutet

Wenn du mit diesen Modellen baust oder Clients beratst, die das tun, landet das Anthropomorphismus-Problem direkt auf deinem Tisch. Hier ist, wie ich darüber nachdenke.

Benenne, was es tatsächlich tut. Wenn du die UI-Schicht über einem KI-Feature entwirfst, darfst du die Sprache wählen, die deine Nutzer sehen. Du musst das Framing des Labs nicht übernehmen. Ein Feature, das vorherigen Session-Kontext abruft, kann "zuletzt angesehen" oder "deine History" genannt werden statt "Memory". Beides ist akkurat. Eins von beiden setzt richtige Erwartungen.

Instruiere deine Clients über die Lücke. Am Anfang jeden Engagements versuche ich Zeit auf dem zu verbringen, was ich "Vocabulary Gap" nenne: die Distanz zwischen der Vermarktung von KI-Produkten und wie sie tatsächlich verhalten sich. Es ist keine lange Unterhaltung, aber spart viel Schmerz später. Clients, die verstehen, dass "Reasoning" im LLM-Kontext etwas sehr Spezifisches bedeutet, nicht allgemeine menschliche Kognition, treffen bessere Produktentscheidungen.

Argumentiere gegen anthropomorphe Briefs. Gelegentlich kommt ein Client rein und will etwas bauen, das "sich anfühlt wie eine echte Person" oder "den Nutzer wirklich versteht". Der Brief ist downstream von der Marketingsprache. Meine Aufgabe ist nicht, ihn zu validieren sondern ihn in etwas Baualtes und Ehrliches zu übersetzen. Meist wollen sie wirklich Responsivität, Relevanz und Konsistenz. Die sind erreichbar. Eine digitale Person, die wirklich versteht, nicht, und so zu tun setzt das Projekt zum Scheitern auf.

Beobachte die Benennungen in deiner eigenen Arbeit. Es ist leicht, in dieselben Muster zu fallen. Ich erwische mich dabei. Die Sprache ist überall und sie klingt natürlich, weil sie von Unternehmen mit enormer Reichweite normalisiert wurde. Aber jedes Mal wenn du einen KI-Output "kreativ" beschreibst oder ein Modell "denkt", legst du einen Stein mehr auf eine Mauer, die die Industrie wieder runterklettern muss.

Die eigentlichen Einsätze

Das könnte wie ein Argument über Wörter klingen. Es ist nicht. Es ist ein Argument über Vertrauen, und Vertrauen ist das Einzige, das KI-Produkte in großem Maßstab machbar macht.

Wenn das Vokabular von KI konsistent überfordert und das Produkt dann konsistent unter diesem Vokabular unterliefert, aktualisieren Nutzer nicht nur ihre Erwartungen. Sie aktualisieren ihre Einschätzung, ob sie Unternehmen über KI überhaupt trauen können. Das ist eine langsame Erosion, aber sie passiert schon. Du kannst es in der Länge der Disclaimer-Zyklen sehen, in der wachsenden Skepsis unter Enterprise-Käufern, in der Anzahl der KI-Projekte, die deprioritisiert werden nach einer ersten ernsthaften Deployment.

Die Labs haben enormen Einfluss über mentale öffentliche Modelle dessen, was KI ist und was es tun kann. Anthropic einen Hintergrund-Prozess "Dreaming" zu nennen ist nicht nur eine Produktentscheidung für Claude. Es ist ein kleiner Beitrag zur gemeinsamen Vorstellung, was KI ist. Multipliziere das mit jedem Feature-Namen, jeder Keynote-Metapher, jedem Press-Release-Verb überall in der Industrie, und du hast etwas, das Regulation, Investment und öffentliches Vertrauen über Jahre prägt.

Ich fordere nicht nach technischer Sprache in Consumer-Produkten. Ich fordere nach ehrlicher Sprache. Das ist nicht dasselbe. Es gibt einen großen Raum zwischen "Vector Retrieval mit temporaler Indexierung" und "Dreaming". Irgendwo in diesem Raum sind Namen, die zugänglich und wahr sind. Sie zu finden ist kein hartes Design-Problem. Es ist ein Willens-Problem.

Und im Moment zeigt der Wille in die andere Richtung.

Bereit, wenn du es bist

Momentum beginnt mit einem Gespräch.

Kein Formular, kein Briefing. Einfach ein echtes Gespräch mit denen, die es umsetzen.

Gespräch buchenGespräch buchen

Weiterlesen.

Alle EinblickeAlle Einblicke
Technologie6 min read

OpenAI ads in ChatGPT will change what marketers optimize for

OpenAI is building an ads platform inside ChatGPT. For marketers, the shift from keyword ranking to answer placement is already underway. Here is what to do abo

May 9, 2026
Technologie6 Minuten

KI-Firmen sprechen mit Worten, die eigentlich für Menschen reserviert sind

Anthropics "Dreaming" und "Memories" sind nur die neuesten Beispiele. Max Pinas von Studio Hyra darüber, warum die KI-Branche zu menschlichen Metaphern greift

May 9, 2026