Viele der aktuellen Irritationen rund um KI in der Lehre lassen sich nicht auf technische Defizite zurückführen. Sie entstehen vielmehr dort, wo Rollen, Zuständigkeiten und Verantwortlichkeiten unklar bleiben. Lehre mit KI scheitert selten an der Technologie – sie scheitert an fehlender Führung. Diese Verschiebung von Verantwortung wird nicht nur in der Hochschuldidaktik, sondern auch in organisations- und führungstheoretischen Arbeiten zum Einsatz von KI beschrieben.
Warum Führung in KI-gestützter Lehre explizit werden muss
In der klassischen Lehre konnten viele didaktische Entscheidungen implizit bleiben. Erfahrung, Intuition und situatives Handeln reichten oft aus, um Planung, Durchführung und Reflexion miteinander zu verbinden. KI verändert diese Logik. Sie macht implizite Annahmen wirksam, reproduzierbar und skalierbar.
Wo KI eingesetzt wird, ohne dass Ziele, Haltung und Kontext explizit geklärt sind, entstehen zwangsläufig generische Ergebnisse. Diese mögen formal plausibel sein, bleiben jedoch häufig entkoppelt von der Person, die lehrt, und von dem Bildungskontext, in dem Lernen stattfindet. KI zwingt damit eine Frage auf, die in der Lehre lange nicht ausdrücklich gestellt werden musste: Wer führt eigentlich den Prozess? Aktuelle hochschuldidaktische Handreichungen betonen genau an dieser Stelle die Notwendigkeit klarer menschlicher Verantwortung beim Einsatz von KI.
Herkunft des Rollenmodells
Das hier beschriebene Rollenverständnis ist keine individuelle Setzung. Es verdichtet Perspektiven aus der Hochschuldidaktik, dem Instructional Design und dem sogenannten AI-Team-Denken. In all diesen Diskursen zeigt sich ein gemeinsamer Kern: Gute Lehre entsteht nicht durch Automatisierung, sondern durch bewusste Entscheidungen.
Instructional-Design-Modelle wie ADDIE betonen seit jeher die Bedeutung von Analyse und Zielklärung vor der Entwicklung von Lernangeboten. Hochschuldidaktische Ansätze beschreiben Lehre als professionelle Entscheidungspraxis. Und im AI-Team-Denken wird KI nicht als Ersatz, sondern als funktionales Teammitglied verstanden, dessen Aufgaben klar definiert werden müssen. Diese Perspektiven finden sich sowohl in hochschuldidaktischen Sammelbänden als auch in aktuellen Leitlinien zum verantwortungsvollen KI-Einsatz.
Mein Beitrag liegt nicht darin, diese Ansätze neu zu erfinden, sondern sie für die Praxis der Lehre mit KI zu ordnen und handhabbar zu machen.
Der Stratege: menschliche Teamleitung
Im Zentrum dieses Modells steht der Stratege. Er oder sie ist die zentrale menschliche Rolle in KI-gestützter Lehre. Der Stratege trägt die Verantwortung für Zielklärung, Kontext, Entscheidungen und Konsequenzen. KI wird nicht als Ersatz eingesetzt, sondern als Team, dessen Aufgaben bewusst vergeben, begrenzt und überprüft werden. Diese klare Zuschreibung von Verantwortung entspricht auch den Empfehlungen aktueller hochschuldidaktischer Leitlinien zum Einsatz von KI.
In dieser Rolle entscheidet der Mensch, wofür KI eingesetzt wird, wo sie entlasten darf und wo ihr Einsatz pädagogisch nicht sinnvoll ist. Der Stratege definiert die didaktischen und ethischen Leitplanken, innerhalb derer KI operiert, und bewertet die Ergebnisse im Hinblick auf Lernziele, Lernprozesse und Bildungsauftrag.
KI trifft keine pädagogischen Entscheidungen. Das tut der Mensch.
KI arbeitet – aber ohne Führung nur generisch
KI kann jederzeit Inhalte erzeugen. Ohne eine explizite didaktische Grundlage bleiben diese jedoch zwangsläufig allgemein. Sie orientieren sich an statistischen Mustern, an Mainstream-Didaktik und an durchschnittlichen Annahmen über Lernen. Was fehlt, ist die Passung zur konkreten Lehrperson und zum jeweiligen Lehrkontext. Dass KI ohne kontextuelle Führung zur Reproduktion allgemeiner Muster neigt, wird auch in aktuellen Forschungsarbeiten zur KI-gestützten Entscheidungsfindung hervorgehoben.
Qualität in der Lehre mit KI entsteht daher nicht durch das bloße Aktivieren von Systemen, sondern durch die Qualität der Vorarbeit. Personalisierte KI-Nutzung beginnt nicht beim Prompt, sondern bei der Klärung der eigenen Haltung, der didaktischen Ansprüche und der realistischen Möglichkeiten der Lehrperson.
Das Teaching Statement als strategisches Führungsinstrument
An dieser Stelle kommt dem Teaching Statement eine zentrale Funktion zu. Es ist kein Selbstreflexionsinstrument am Rand, sondern ein strategisches Führungsinstrument. Als didaktische DNA legt es fest, welche Ziele, Haltungen, Methoden und Grenzen die eigene Lehre prägen sollen.
Wird diese Grundlage explizit gemacht und der KI übergeben, können KI-gestützte Vorschläge entstehen, die nicht nur fachlich korrekt, sondern didaktisch anschlussfähig sind. Sie passen zur Lehrperson, zum Kontext und zum Bildungsauftrag. Das Teaching Statement schafft damit die Voraussetzung für eine KI-Nutzung, mit der sich Lehrende identifizieren können – und für deren Ergebnisse sie Verantwortung übernehmen können. Die Bedeutung solcher expliziter didaktischer Rahmungen wird auch in hochschuldidaktischen Diskursen zur Professionalisierung von Lehre betont.
Wie das ganz praktisch funktioniert, zeige ich im Use Case auf meiner Website: Link
Typisches Praxisproblem ohne strategische Führung
In der Praxis zeigt sich häufig ein anderes Bild. KI wird eingesetzt, bevor Klarheit über Haltung und Ziel besteht. Die Folge sind generische Outputs, hoher Korrekturaufwand und das Gefühl, mehr Arbeit statt Entlastung zu haben. Dieses Problem ist kein Versagen von KI. Es ist ein Führungsproblem.
Wer KI ohne strategische Rahmung nutzt, delegiert nicht bewusst, sondern automatisiert unreflektiert. Das Ergebnis ist Effizienz ohne Richtung.
Bewusste Delegation statt Automatisierung
Gute Lehre mit KI entsteht nicht durch maximale Automatisierung, sondern durch bewusste Delegation unter menschlicher Führung. Delegation setzt voraus, dass klar ist, wer entscheidet, wer unterstützt und wer Verantwortung trägt. In diesem Modell bleibt die Verantwortung konsequent beim Menschen.
KI kann analysieren, strukturieren und skalieren. Bedeutung herstellen, Ziele setzen und Konsequenzen tragen – das bleibt menschliche Aufgabe.
Ausblick
Der Stratege entscheidet nicht nur, dass KI eingesetzt wird, sondern auch, wann und wofür. Eine der ersten und wichtigsten Entscheidungen betrifft die Analyse. Wie KI dabei unterstützen kann, Lernbedarfe sichtbar zu machen, ohne pädagogische Verantwortung zu übernehmen, ist Thema der nächsten Woche.

Comments
There are no comments yet.