Wo Agenturen gerade anfällig sind
Die meisten Agenturen haben noch keine Tool-Bilanz gemacht, bei der Ownership der Fokus ist. Sie haben Tools nach Funktionalität und Preis bewertet. Das sind die falschen Primärkriterien, wenn das Tool bestimmt, wie Denken ablaufen wird.
Hier konzentriert sich die Anfälligkeit typisch.
Prompts in Anbieter-Schnittstellen gespeichert. ChatGPT Projects, Claudes Project Memory, Copilot Notebooks. Wenn die institutionellen Prompts deines Teams hier leben, sind sie nicht portierbar. Wenn der Anbieter die Schnittstelle ändert oder die Organisation den Zugriff verliert, verschwinden die Prompts mit. Die Lösung ist prozedural: Prompts in Versionskontrolle speichern, dort, wo der Code liegt.
Bewertungskriterien, die nur in Köpfen existieren. KI-gestützte Review-Schleifen bleiben nur scharf, wenn die Kriterien, die sie steuern, aufgeschrieben und an einem Ort gespeichert sind, den dein Team kontrolliert. Wenn das Modell die Bewertung macht, aber die Richtlinie nie externalisiert wurde, kannst du das Urteil nicht zu einem anderen Modell bringen, wenn du wechseln musst.
Workflows, die gegen eine Modells Eigenheiten gebaut sind. Jedes Modell hat Verhaltensweisen. Teams lernen sie und bauen drumherum. Claude verarbeitet Long Context anders als GPT-4o. Geminis Function-Calling unterscheidet sich von beiden. Wenn ein Wechsel einen Modellwechsel erzwingt, brechen Workflows, die auf einen Modells Output-Stil abgestimmt sind, auf Wegen, die unter Druck schwer zu debuggen sind.
Keine dieser Anfälligkeiten ist unvermeidlich. Jede ist eine Dokumentations- und Architekturentscheidung, die Teams noch nicht getroffen haben.