HomeWerk
//
ContactContact
Probeer te zoeken naar

AI powered.
Human engineered.
Growth driven.

Amsterdam·—·Studio open

Bekijk

  • Werk
  • Diensten
  • Inzichten
  • Universiteit
  • Wie we zijn
  • Het Collectief

Verbinden

  • Contact
  • LinkedIn

Lees verder

  • Universiteit
  • AI Snapshot
  • AI-calculator

Notities uit de studio

Kort, bruikbaar, een of twee keer per maand. Strategie, AI, vakmanschap, dingen die we maken.

© 2026 Studio Hyra. Alle rechten voorbehouden.

Niet helemaal duidelijk wat we doen? We leggen het anders uit.Privacybeleid
AI-bedrijven gebruiken woorden die ze niet verdiend hebben
Technology6 minuten lezen

AI-bedrijven gebruiken woorden die ze niet verdiend hebben

May 9, 2026

Op zijn developerconferentie dit jaar introduceerde Anthropic features die het "dromen" en "herinneringen" noemde. Niet weggestopt in een voetnoot. Prominent op het podium, in de keynote.

Ik ga niet doen alsof dit een klein ding is. Taal vormt hoe mensen nadenken over technologie. Wanneer een bedrijf van de omvang en geloofwaardigheid van Anthropic precies die woorden kiest, is dat geen slip. Dat is een productkeuze. En het is er een die serieus genomen moet worden, omdat veel van ons in agentschappen en productteams stroomafwaarts daarvan zitten.

Dit bouwt al langer op

Het naampatroon is niet nieuw. OpenAI heeft "memory." Google DeepMind spreekt over modellen die "begrijpen" en "redeneren." Meta's modellen "stellen zich voor" hoe afbeeldingen eruit zien. Het hele vocabulaire van moderne AI-productmarketing is rustig gekoloniseerd door termen die bedacht zijn om bewuste, belichaamde, biologische ervaring te beschrijven.

Dromen, in de menselijke zin, is wat de hersenen doen tijdens REM-slaap om herinneringen vast te leggen, emoties te verwerken, en, naar sommige onderzoekers stellen, toekomstige scenario's te oefenen. Het is diep verbonden met bewustzijn, met een lichaam, met tijd die voorbijgaat terwijl je het niet merkt. Geen van deze voorwaarden is van toepassing op een groot taalmodel dat inference uitvoert op een GPU-cluster.

Wat Anthropic vrijwel zeker bedoelt met "dromen" is iets dichter bij een offline verwerkingsstap, een achtergrondpass die het model neemt om opgeslagen context naar boven te halen of te organiseren. Dat is een redelijke engineeringbeschrijving. Het is ook compleet nauwkeurig. Het woord "dromen" voegt niets toe aan de nauwkeurigheid. Het voegt iets anders toe: warmte, herkenning, en een zwakke suggestie dat het systeem een innerlijk leven heeft.

Die suggestie is waar we het over moeten hebben.

Naamgeving is niet neutraal. Elk woord dat je op een feature zet onderwijst de gebruiker hoe hij erover moet voelen. Onderwijz hem verkeerd en je bent eigenaar van de verwarring die volgt.

Max Pinas, Studio Hyra

De bedrijfslogica is voor de hand liggend, en dat is precies het probleem

Ik begrijp waarom bedrijven dit doen. Humaniserende taal verlaagt de drempel voor adoptie. Als een feature "je onthoudt" in plaats van "haalt een vectorinbedding van je vorige sessie op," voelt het minder vreemd. Minder bedreigend. Meer als een collega en minder als een databasequery.

Dat is niet cynisch. Toegankelijkheid in productaal is echt waardevol. Het probleem is dat antropomorfe taal niet alleen vereenvoudigt. Het misleidt ook. En het misleiden gebeurt in twee richtingen tegelijk.

Eerst verhoogt het de verwachtingen over mogelijkheden. Als een systeem "droomt," kunnen gebruikers redelijkerwijs verwachten dat het creatieve sprongen maakt, dat het hen verrast met synthese, dat het iets produceert waar het niet expliciet voor getraind was. Wanneer het dat niet doet, wat meestal het geval is, is de teleurstelling niet alleen over de feature. Het ondermijnt het vertrouwen in het bedrijf, en daardoor in AI-producten in het algemeen.

Twee, het verbergt faalmodi. Een systeem dat "hallucinaties" heeft klinkt als een levendige moment van creativiteit. De echte fout is dat het plausibel klinkende tekst genereert die feitelijk onjuist is, vol vertrouwen. Dat is geen droom. Dat is een defect. Het hallucination noemen geeft het een poëtische kwaliteit die het niet verdiend heeft en maakt het moeilijker voor gebruikers en klanten om te begrijpen wat ze eigenlijk te maken hebben.

Voor degenen van ons die producten met deze modellen bouwen, maakt dit iedere dag uit. Klanten komen binnenlopen gevormd door de marketing. Ze verwachten dat geheugen werkt zoals menselijk geheugen werkt, continu, contextueel, emotioneel gewogen. Ze verwachten dat redeneren werkt zoals menselijk redeneren werkt, met oordeel, met inzet, met iets dat op wijsheid lijkt. Wanneer we moeten uitleggen dat geen van beide waar is, ondoen we niet alleen verwachtingen. We ontdoen ons van de framing die de AI-labs zelf hebben gebouwd.

De labs weten wat ze doen

Dit is het onderdeel waar ik verzet wil hebben tegen verzachting. Dit zijn geen naïeve naamkeuzes. Anthropic werkt met enkele van de voorzichtigste denkers in AI-veiligheid. Het bedrijf is expliciet opgericht uit zorgen over AI-risico, over de kloof tussen hoe deze systemen lijken te zijn en wat ze eigenlijk zijn. En toen noemde het een feature "dromen."

Er zijn een paar manieren om dat te lezen. Een ervan is dat het veiligheidsteam en het productteam in aparte kamers opereren. Dat is aannemelijk. Groeidruk is echt, en de taal die gebruikers omzet loopt niet altijd parallel aan de taal die epistemisch eerlijk is.

Een ander lezing is dat het bedrijf echt gelooft dat de metafoor dicht genoeg bij elkaar ligt om nuttig te zijn. Dat het onderliggende proces genoeg structurele gelijkenis heeft met biologisch dromen om de naam te rechtvaardigen. Ik vind dit minder overtuigend. De structurele gelijkenissen zijn oppervlakkig op zijn best, en de connotaties van het woord wegen veel zwaarder dan enige structurele gelijkenis kan rechtvaardigen.

Een derde lezing is dat niemand in de ruimte hard genoeg tegen is ingegaan. Dat de naam goed klonk in een slide deck, goed testte in een focus groep, en verscheepte. Dat is waarschijnlijk de meest eerlijke lezing, en het is ook het meest verontrustend. Omdat het betekent dat de beslissing primair op marketing gronden werd genomen bij een bedrijf dat zichzelf publiekelijk inlijft rond het juist doen van AI.

De labs die het meest over AI-veiligheid spreken zijn vaak dezelfde die het hardst naar het vocabulaire van bewustzijn grijpen. Die spanning is het noemen waard.

Max Pinas, Studio Hyra

Wat dit betekent voor productteams en agentschappen

Als je met deze modellen bouwt, of klanten adviseert die dat doen, land het antropomorfismeprobleem rechtstreeks op je bureau. Dit is hoe ik erover nadenk.

Noem wat het eigenlijk doet. Wanneer je de UI-laag bovenop een AI-feature ontwerpt, krijg jij de taal te kiezen die je gebruikers zien. Je hoeft het raamwerk van het lab niet over te nemen. Een feature die vorige sessiecontext ophaalt kan "recente context" of "je geschiedenis" genoemd worden in plaats van "geheugen." Beide zijn nauwkeurig. De ene stelt juiste verwachtingen in.

Geef je klanten inzicht in de kloof. Vroeg in elk engagement probeer ik tijd door te brengen met wat ik de vocabulairespanning noem: de afstand tussen hoe AI-producten worden vermarkted en hoe ze eigenlijk gedragen. Het is geen lang gesprek, maar het bespaart veel pijn later. Klanten die begrijpen dat "redeneren" in een LLM-context iets heel specifieks betekent, niet algemene menselijke cognitie, maken betere productbeslissingen.

Ga tegen antropomorfe briefs in. Af en toe komt een klant binnen die iets wil bouwen dat "als een echt persoon voelt" of "de gebruiker echt begrijpt." Die brief stroomafwaarts van de marketingtaal. Mijn taak is niet om het te valideren maar om het te vertalen in iets dat bouwbaar en eerlijk is. Meestal willen ze eigenlijk responsiviteit, relevantie, en consistentie. Die zijn haalbaar. Een digitale persoon die echt begrijpt niet, en doen alsof zet het project op mislukking in.

Let op de naamgeving in je eigen werk. Het is gemakkelijk om in dezelfde patronen te vervallen. Ik betrap mezelf erop. De taal is overal en het klinkt natuurlijk omdat het genormaliseerd is door bedrijven met enorme bereik. Maar elke keer dat je een AI-output "creatief" noemt of een model "denkend," leg je nog een bakstenen toe aan een muur die de industrie terug over zal moeten.

De werkelijke inzet

Dit klinkt misschien als een argument over woorden. Dat is het niet. Het is een argument over vertrouwen, en vertrouwen is het enige wat AI-producten schaalbaar maakt.

Wanneer het vocabulaire van AI consistent overclaims, en dan het product consistent underdelivers relatief aan dat vocabulaire, updaten gebruikers niet alleen hun verwachtingen. Ze updaten hun beoordeling van of ze kunnen vertrouwen wat bedrijven zeggen over AI überhaupt. Dat is een langzame erosie, maar het gebeurt al. Je kunt het zien in de lengte van de disclaimercyclus, in de groeiende voorzichtigheid onder enterprise-kopers, in het aantal AI-projecten dat na eerste serieuze inzet geprioriteerd wordt.

De labs hebben enorme invloed op openbare mentale modellen van wat AI is en wat het kan doen. Anthropic een achtergrondproces "dromen" noemen is niet alleen een productbeslissing voor Claude. Het is een kleine bijdrage aan de collectieve verbeelding van wat AI is. Vermenigvuldig dat met elke feature-naam, elke keynote-metafoor, elk persbericht-werkwoord over de hele industrie heen, en je hebt iets dat regelgeving, investeringen, en openbaar vertrouwen jaren lang vormt.

Ik vraag niet om technische taal in consumentenproducten. Ik vraag om eerlijke taal. Die zijn niet hetzelfde. Er is veel ruimte tussen "vectoropzoeking met temporele indexering" en "dromen." Ergens in die ruimte zijn namen die zowel toegankelijk als waar zijn. Ze vinden is geen moeilijk designprobleem. Het is een wilsprobleem.

En op dit moment wijst de wil de andere kant op.

Klaar als jij het bent

Momentum begint met een gesprek.

Geen formulieren, geen intake. Gewoon een echt gesprek met de mensen die het werk doen.

Plan een gesprekPlan een gesprek

Blijf lezen.

Alle inzichtenAlle inzichten
Technologie6 minuten lezen

AI vermindert je kosten. Dan vermindert het je klanten.

Bureaus gebruiken AI om personeelskosten te drukken en marges op te schroeven. Maar als de hele industrie het tegelijk doet, wie heeft dan nog geld over om wat je verkoopt af te nemen?

May 9, 2026
Technologie6 minuten lezen

Wanneer AI werk vervangt, krimpt de markt

Studios die de hoofdmacht verlagen met AI voeden een feedback loop die de klanten waarvan zij afhangen uithold. Max Pinas over wat het macroplaatje betekent voor hoe je werkt

May 9, 2026