Rollenbild

Lehre gestalten in Zeiten von KI

Der Einsatz von Künstlicher Intelligenz in der Lehre ist keine technische Frage, sondern eine Frage der Verantwortung. KI kann analysieren, strukturieren, variieren und skalieren. Was sie nicht kann, ist Ziele setzen, Bedeutung herstellen oder Verantwortung übernehmen.
Dieses Rollenmodell folgt daher einem klaren Prinzip:
Der Mensch führt. Die KI übernimmt klar definierte Aufgaben im Team.
Das Modell ist keine persönliche Erfindung, sondern eine Verdichtung zentraler Perspektiven aus Hochschuldidaktik, Instructional Design (u. a. ADDIE), KI-Literacy-Ansätzen und dem AI-Team-Denken. Meine Arbeit besteht darin, diese Ansätze zusammenzuführen, zu ordnen und in eine praktikable Struktur für die Lehre zu übersetzen.

Die Führungsrolle des Menschen
Der Stratege: Menschliche Team-Leitung in KI-gestützter Lehre

Der Stratege ist die zentrale menschliche Rolle in diesem Modell.
Er oder sie trägt die Verantwortung für Zielklärung, Kontext, Entscheidungen und Konsequenzen. KI wird nicht als Ersatz eingesetzt, sondern als Team, dessen Aufgaben bewusst vergeben, begrenzt und überprüft werden.
In dieser Rolle entscheidet der Mensch, wofür KI eingesetzt wird, wo sie entlasten darf und wo ihr Einsatz pädagogisch nicht sinnvoll ist. Der Stratege setzt die didaktischen und ethischen Leitplanken, innerhalb derer KI operiert, und bewertet die Ergebnisse im Hinblick auf Lernziele, Lernprozesse und Bildungsauftrag.
KI trifft keine pädagogischen Entscheidungen.
Der Mensch wertet die KI aus und entscheidet.
Mehr dazu in diesem Artikel: Warum Lehre mit KI eine Führungsfrage ist

Die Rollen der KI im Team

(unter Leitung des Strategen)
Die folgenden Rollen beschreiben funktionale Unterstützungsleistungen der KI.
Sie sind nicht autonom und ersetzen keine pädagogische Verantwortung. Jede Rolle wird vom Strategen gezielt aktiviert, begrenzt und eingeordnet.

KI als Unterstützer bei der Lernbedarfsanalyse
Muster sichtbar machen, nicht interpretieren

In dieser Rolle unterstützt die KI Lehrende dabei, heterogene Informationen aus Umfragen, Selbsteinschätzungen oder Rückmeldungen zu strukturieren und auszuwerten. Sie macht Muster im Vorwissen, in Lernpräferenzen oder Unsicherheiten sichtbar – Muster, die für einzelne Lehrende oft schwer erfassbar wären. Diese Datenbasis dient als Grundlage für die weitere Planung, etwa für die Entwicklung von Lernszenarien im nächsten Schritt.
Die KI übernimmt dabei keine pädagogische Diagnose und trifft keine Entscheidungen über Lernende. Die Interpretation der Ergebnisse, ihre Einordnung in den Lehrkontext und die didaktischen Konsequenzen liegen vollständig beim Strategen.
KI erkennt Muster. Der Mensch versteht Menschen – und entscheidet, wie sie genutzt werden.
Warum diese Rolle wichtig ist:
Die hier gewonnenen Lernbedarfe fließen direkt in den nächsten Schritt ein: die KI-gestützte Szenario-Entwicklung. Dort werden sie mit dem Teaching Statement verknüpft, um konkrete, umsetzbare Lernszenarien zu entwerfen – immer unter der Prämisse, dass die pädagogische Verantwortung beim Menschen bleibt.
Mehr dazu in diesem Artikel: KI als Unterstützer bei der Lernbedarfsanalyse: Muster sichtbar machen, nicht interpretieren

KI als Gestalter von Lernräumen
Vorschläge für Struktur, Ablauf und Szenarien

Als „Didactic Design Assistant“ entwickelt die KI konkrete Vorschläge für Lernsettings, methodische Abfolgen und alternative Szenarien. Sie entwirft Variationen, denkt unterschiedliche Lernwege durch und macht Optionen sichtbar, die als Grundlage für die weitere Planung dienen. Dabei greift sie auf zwei zentrale Inputs zurück:
  • Das Teaching Statement der Lehrkraft, das die pädagogischen Prinzipien und Ziele definiert.
  • Die ausgewerteten Lernbedarfe der Gruppe, die Präferenzen, Hürden und Vorerfahrungen abbilden.
Die KI verknüpft diese Inputs und übersetzt sie in umsetzbare Szenarien – etwa wie ein klassisches Klassenzimmer durch kreative Tischanordnungen oder Bodenmarkierungen in einen dynamischen Lernraum verwandelt werden kann. Sie zeigt auf, wie Methoden wie „World Café“ oder „Gruppenpuzzle“ auch in statischen Räumen funktionieren, ohne dass teure Umbauten nötig sind.
Doch eines ist klar:
Diese Vorschläge sind Entwürfe, keine Entscheidungen. Die Lehrkraft prüft sie im Hinblick auf Zielgruppe, Kontext und pädagogische Sinnhaftigkeit – und verantwortet die finale Gestaltung des Lernraums.
KI entwirft Möglichkeiten. Der Mensch gestaltet bewusst.
Mehr dazu in diesem Artikel: Vom Datenberg zur adaptiven Lehre – Mit KI Lernszenarien entwerfen, ohne die Verantwortung abzugeben

KI als Partner für Perspektivwechsel
Reflexion unterstützen, Einordnung ermöglichen

In dieser Rolle fungiert KI als Spiegel und Reflexionspartner. Sie stellt gezielte Rückfragen, macht implizite Annahmen in der Lehrplanung sichtbar und eröffnet alternative Perspektiven – etwa durch sokratisches Nachfragen, das Aufdecken blinder Flecken oder die Entdeckung neuer Methoden und Formate. Dabei geht der Perspektivwechsel oft beim Menschen selbst los: Das Spüren, dass die eigene Vorbereitung nicht mehr reicht, weil Studierende KI-gestützt längst weiter sind.
KI bewertet dabei nicht und legt keine Bedeutung fest. Sie liefert Impulse zur Reflexion – welche relevant sind und welche Konsequenzen daraus folgen, entscheidet allein der Stratege.
KI kann spiegeln. Die Verantwortung für die Einordnung bleibt menschlich.
Mehr dazu in diesem Artikel: KI als Partner für Perspektivwechsel: Reflexion unterstützen, Einordnung ermöglichen

KI als kritischer Moderator
Prozesse sichtbar machen, nicht glätten

In dieser Rolle unterstützt KI dabei, Denk- und Entstehungsprozesse offenzulegen – nicht um Ergebnisse zu optimieren, sondern um den Weg dorthin sichtbar zu machen. Sie hilft, Prompt-Entscheidungen zu reflektieren, Argumentationslinien nachzuzeichnen und Ergebnisse als Advocatus Diaboli herauszufordern. Das gilt für Lehrende in der Planung ebenso wie für Studierende im Lernprozess.
Diese Rolle dient der bewussten Entschleunigung: Verstehen braucht Zeit, die KI nicht einplant. Die Bewertung, Einordnung und Konsequenz aus dem Sichtbarmachten liegen beim Menschen.
KI kann hinterfragen. Der Mensch trägt die Konsequenzen.