Studio Hyra University
AI Projects
Wie du AI-gestützte Arbeit leitest. Scope, Qualität, Team, Zeitplan.
8 Lektionen · ~35 Min · Mittel
Lektion 01
AI-Projekte sind keine normalen Projekte
AI verändert drei Dinge: Iterationsgeschwindigkeit, Output-Unvorhersehbarkeit und die Skills, die für Review nötig sind. Manage AI-Projekte wie traditionelle und du wirst dir die Finger verbrennen.
Traditionelles Projekt: Anforderungen definieren, jemand baut sie, gegen Anforderungen prüfen. Vorhersehbare Beziehung zwischen Input und Output.
AI-Projekt: derselbe Input kann völlig unterschiedlichen Output produzieren. Eine Aufgabe, die einen Tag 30 Minuten dauert, kann am nächsten 5 Stunden dauern, weil die AI in eine falsche Richtung gelaufen ist, die richtig aussah.
Geschwindigkeit ist ungleichmäßig. AI produziert erste Entwürfe in Minuten. Aber Review und Iteration können so lange dauern wie traditionelle Ansätze. Gesamtzeit: 40-60% weniger, nicht 90% weniger.
Qualität ist variabel. Gleicher Prompt, unterschiedliche Ergebnisse. Plane Review-Zyklen als notwendige Schritte ein, nicht als Nachgedanke.
Review ist eine neue Fähigkeit. Du bewertest Output, den du nicht erstellt hast und von dem du möglicherweise nicht ganz verstehst, wie er generiert wurde.
Wende das jetzt an
Schau dir deinen aktuellen Projektplan an. Wo wird linearer Fortschritt angenommen? Das sind die Stellen, an denen AI die meiste Varianz erzeugt. Markiere sie. Sie brauchen Puffer.
Lektion 02
AI-Arbeit scopen
Zu breit und AI produziert unfokussierte Arbeit. Zu eng und du verschwendest ihre Geschwindigkeit. Ein Fünf-Fragen-Scoping-Framework.
Der größte Fehler: AI als schnellere Version dessen behandeln, was du schon tust. Besserer Ansatz: scope rund um das, was sich für den Endnutzer ändert.
Fünf Fragen. Was ist das finale Ergebnis? Sei spezifisch. Nicht "ein AI-Tool" sondern "ein Formular, in dem Kunden ihre Situation eingeben und in 30 Sekunden eine personalisierte Empfehlung bekommen."
Wer reviewed den Output? Jeder AI-Output braucht Review. Von wem? Mit welcher Expertise?
Wie sieht gut genug aus? AI-Output ist zu 75-90% da. Wo auf diesem Spektrum ist akzeptabel?
Was passiert, wenn es schiefgeht? AI wird manchmal etwas Unbrauchbares produzieren. Was ist der Fallback?
Der Scope-Split: trenne "AI generiert" von "Menschen verfeinern." Die meisten Projekte sind 60-70% AI, 30-40% Mensch. Budgetiere für beides.
Wende das jetzt an
Nimm dein nächstes AI-Projekt. Beantworte alle fünf Scoping-Fragen schriftlich. Wenn du eine nicht klar beantworten kannst, ist das die Stelle, an der Probleme auftauchen werden.
Lektion 03
Track A oder Track B
Schnelle Experimente brauchen andere Frameworks als Produktionssysteme. Wann schnell gehen und wann ordentlich bauen.
Track A: schnell und fokussiert. Ein Ziel, kurzer Zeitrahmen, minimale Infrastruktur. Prototypen, Proofs of Concept, Kampagnen-Assets. Tage bis Wochen. Priorität: Geschwindigkeit und Lernen.
Track B: auf Wachstum gebaut. Mehrere Ziele, längerer Zeitrahmen, echte Infrastruktur. Kundengerichtete Produkte, täglich genutzte Systeme. Wochen bis Monate. Priorität: Zuverlässigkeit und Nachhaltigkeit.
Die Entscheidung geht nicht um Qualität. Beide liefern gute Arbeit. Es geht darum, was nach dem Launch passiert.
Stelle eine Frage: "Wenn das funktioniert, was passiert dann?" Lernen und weitermachen: Track A. Breit ausrollen: Track B.
Der häufigste Fehler: ein Track A Prototyp, der erfolgreich ist und dann ohne Track B Neubau skalieren soll. Jede temporäre Lösung, die ohne ordentlichen Neubau permanent wird, wird Schmerzen verursachen.
Wende das jetzt an
Klassifiziere jedes AI-Projekt auf deiner Roadmap als Track A oder Track B. Bei unklaren: frag 'was passiert, wenn das erfolgreich ist?' Passe deinen Ansatz entsprechend an.
Lektion 04
AI-Output reviewen
AI-Output sieht professionell aus, kann aber subtil falsch sein. Ein Fünf-Punkte-Review-Framework um zu fangen, was AI falsch macht.
AI-Output hat ein spezifisches Fehlermuster: fließend, strukturiert, professionell wirkend und potenziell falsch auf schwer zu erkennende Weise.
Fünf Review-Punkte. Genauigkeit: jeder Fakt, jede Statistik, jedes spezifische Detail muss verifiziert werden. AI generiert plausible Zahlen, die nicht real sein müssen.
Relevanz: beantwortet das tatsächlich das Briefing? AI ist hervorragend darin, beeindruckende Arbeit zu liefern, die die eigentliche Frage nicht adressiert.
Stimme: klingt es richtig? AI tendiert zu leicht förmlich, generisch, zu poliert.
Lücken: was fehlt? AI produziert was du gefragt hast, selten was du hättest fragen sollen.
Überzuversicht: wo werden Meinungen als Fakten dargestellt? AI hedgt nicht natürlich.
Gib spezifisches Feedback: nicht "das stimmt nicht" sondern "Abschnitt 2 übertreibt unsere Position, füge den Vorbehalt hinzu, dass wir in diesen Markt einsteigen."
Wende das jetzt an
Führe den letzten AI-Output, den dein Team produziert hat, durch die fünf Punkte. Miss die Zeit (normalerweise 5-10 Minuten pro Seite). Hast du etwas gefunden, das du vorher übersehen hast?
Lektion 05
Ein AI-Team aufbauen
AI verändert, was Leute tun, nicht ob Leute gebraucht werden. Wie du Rollen strukturierst, AI ohne Panik einführst und den Übergang gestaltest.
Die Angst: AI ersetzt Leute. Die Realität: AI verändert die Arbeit. 4 Stunden einen Bericht schreiben wird zu 1 Stunde AI anleiten und reviewen. Die anderen 3 Stunden verschieben sich auf höherwertige Arbeit.
Teamstruktur. Der AI-Lead: eine Person, die tief in die Tools einsteigt, Projects einrichtet, Ansätze testet. 20-30% ihrer Zeit. Wähle die neugierigste Person.
Die Reviewer: alle anderen nutzen AI und reviewen Output mit dem Fünf-Punkte-Framework.
Der Qualitätsstandard: definiere, wie 'gut genug' für jeden Output-Typ aussieht, bevor du AI einführst.
AI ohne Panik einführen: beginne mit Augmentation ("AI schreibt den Entwurf, du machst ihn zu deinem"). Teile Erfolge öffentlich. Erlaube Fehlschläge. Erzwinge keine Adoption.
Wende das jetzt an
Identifiziere dein AI-neugierigste Teammitglied. Gib ihm 2-3 Stunden pro Woche, um Wege zu finden, wie AI deinem Team hilft. Das ist dein AI-Lead.
Lektion 06
Zeitpläne und Budgets
AI-Projekte sind schneller, aber nicht sofort. Realistische Frameworks für die Schätzung von Zeit und Kosten.
Der Hype: AI macht alles sofort. Die Realität: AI macht den ersten Entwurf sofort. Alles drumherum braucht Zeit.
Realistische Aufteilung. Setup und Scoping: 20% der Gesamtzeit. AI-Generierung: 10% (der schnelle Teil). Review und Iteration: 40% (der große Brocken). Menschliche Verfeinerung: 20%. Testen und Shippen: 10%.
Gesamtersparnis vs. traditionell: 30-50% für Track A, 20-40% für Track B. Signifikant, aber nicht die 90%, die Demos suggerieren.
Budget: AI-Tools kosten 20-50 Euro/Monat pro Person. Die echten Kosten sind menschliche Zeit, die sich verschiebt, aber nicht verschwindet. Budgetiere für Review. Budgetiere für Iteration.
Wann Hilfe bezahlen: wenn Track B und die Einsätze real sind, kostet erfahrene Hilfe weniger als auf Produktionsarbeit zu lernen.
Wende das jetzt an
Wende diese Aufteilung auf dein nächstes AI-Projekt an. Plant dein Plan 40% für Review und Iteration ein? Die meisten ersten Pläne tun das nicht. Passe an, bevor du startest.
Lektion 07
Qualitätskontrolle ohne Mikromanagement
Du kannst nicht alles selbst reviewen. Ein mehrstufiges Qualitätssystem, das Standards hochhält, ohne alles durch dich zu schleusen.
Stufe 1: Selbst-Review. Die Person, die AI genutzt hat, macht die erste Prüfung. Fünf-Punkte-Framework. Fängt 80%. Dauert 5-10 Minuten.
Stufe 2: Peer-Review. Für wichtige Ergebnisse prüft ein Kollege das Endstück. Er muss nicht wissen, dass AI beteiligt war.
Stufe 3: Stichproben. Du reviewst wöchentlich zufällig 20%. Nicht um Fehler zu fangen. Um zu kalibrieren. Geht die Qualität nach oben oder unten?
Stufe 4: Eskalation. Definiere Auslöser für dein persönliches Review. Kundengerichtete Enterprise-Arbeit. Finanzielle oder rechtliche Inhalte. Situationen mit hohem Einsatz. Alles andere läuft durch Stufe 1-3.
Die Denkweise: Qualitätskontrolle für AI geht um Systeme, nicht um Aufsicht. Gestalte einen Prozess, prüfe nicht jedes einzelne Stück.
Achte auf sinkende Output-Qualität über die Zeit. Liegt meist daran, dass das Team die Iteration überspringt, nicht an einem AI-Problem.
Wende das jetzt an
Definiere deine vier Stufen. Wer macht das Selbst-Review, wann wird Peer-Review benötigt, wie machst du Stichproben, was löst dein Involvement aus. Teile es mit dem Team. Das ist dein Qualitätssystem.
Lektion 08
Wenn AI nicht die Antwort ist
Zu wissen, wann man AI NICHT nutzt, ist das Zeichen eines reifen Leaders. Die letzte Lektion ist die wichtigste.
AI ist falsch wenn: die Einsätze zu hoch für variable Qualität sind (reguliert, rechtlich, medizinisch). Die Aufgabe echte Kreativität erfordert. Vertrauen das Produkt ist und AI-Nutzung es untergraben würde. Das Team nicht bereit ist. Die Kosten eines Fehlschlags den Geschwindigkeitsvorteil übersteigen.
AI ist richtig wenn: das Volumen hoch und die Qualitätstoleranz angemessen ist. Geschwindigkeit zählt und Review existiert. Die Aufgabe Organisieren, Entwerfen oder Analysieren ist. Das Team effektiv reviewen kann. Fehlschläge handhabbar sind.
Das Klügste, was du in einem Meeting sagen kannst: "Das ist kein guter Anwendungsfall für AI. Hier ist, was besser funktionieren würde." Das ist Leadership, kein Widerstand.
Nicht jedes Problem ist ein AI-Problem. Die besten Leader kennen den Unterschied.
Wende das jetzt an
Auditiere deine AI-Initiativen. Für jede: ist AI das richtige Tool? Wenn die Antwort lautet 'wir nutzen AI, weil wir wollen,' ist das die Initiative, die du überdenken solltest.
Leite mit Zuversicht.
Du hast die Frameworks um AI-Projekte zu scopen, zu managen und qualitätszukontrollieren. Bereit, das technische Fundament zu bauen?