Menu
  • Startseite
  • Über mich
  • Blog
    • Schulentwicklung
    • Digitalisierung
    • Bildungspolitik
    • Zeitgeschehen
  • Unterricht
  • Fortbildung
    • Vortrags- und Fortbildungsangebote
    • Materialien
    • Auf einen Kaffee oder Tee
    • Didaktische Ideen sammeln mit #TryMyTool
  • Leseempfehlungen
  • Kontakt
Menu

Je leistungsfähiger KI wird, desto sichtbarer werden institutionelle Engpässe

Posted on by

Analytische Überlegungen zum Start in das Jahr 2026

Zum Jahresende 2025 bin ich im Newsletter von Ethan Mollick auf inspirierende Überlegungen gestoßen. Der Bestseller-Autor (Co-Intelligence) und Professor der Wharton School in Pennsylvania beschreibt in „The Shape of AI: Jaggedness, Bottlenecks and Salients“ zentrale Strukturmerkmale gegenwärtiger KI-Systeme. Anhand dieser Merkmale erklärt er, warum KI in bestimmten Bereichen sehr schnell Fortschritte macht, während sie in anderen auffällig begrenzt bleibt – und welche Folgen sich daraus für menschliche Arbeit und institutionelle Kontexte ergeben. Zum Start in das Jahr 2026 möchte ich seine Ausführungen als Analysefolie für aktuelle Entwicklungen im Bereich Künstlicher Intelligenz in Schule und Unterricht nutzen und meine Gedanken zur Diskussion stellen.

Engpässe als Grenzen und Motoren von Entwicklung

Zentral ist die von Mollick verwendete Metapher der „Jagged Frontier“, der diskontinuierlichen und deshalb gezackten Fähigkeitsgrenze von KI. Gemeint ist eine ungleichmäßige Verteilung von Kompetenzen: KI-Systeme sind in der Lage, komplexe analytische Aufgaben, medizinische Differenzialdiagnosen oder anspruchsvolle mathematische Berechnungen sehr zuverlässig zu bewältigen, zeigen jedoch deutliche Schwächen in Bereichen wie Gedächtnis, Kontextbindung oder situativer Angemessenheit. Diese Unregelmäßigkeit erklärt er als strukturelles Merkmal der aktuellen Systeme.

Besonders relevant ist in diesem Zusammenhang Mollicks Hinweis, dass bereits einzelne Schwachstellen ausreichen können, um ganze Arbeitsprozesse zu blockieren. Solche Schwachstellen bezeichnet Mollick als „Bottlenecks“, also Engpässe im Sinne systemischer Flaschenhälse. Solange sie bestehen, lassen sich Prozesse nicht vollständig automatisieren – selbst dann, wenn die KI in vielen Teilaspekten sehr leistungsfähig ist. Ein System ist immer nur so funktional wie sein schwächstes Glied.

Als Beispiel führt der KI-Experte die Erstellung von Präsentationsfolien an, die mit KI bislang unzureichend automatisiert werden konnte. ChatGPT und Co. lösten das lange Zeit über das Erstellen von Code, so dass zwar inhaltlich korrekte, aber grafisch einfache und nur eingeschränkt brauchbare Outputs entstanden. Die vermeintliche Lösung brachte schließlich Googles Bildmodell Nano Banana, das in Gemini bzw. innerhalb von NotebookLM Folien per Bildgenerierung erzeugt. Diese sind bis auf geringe Schwächen grafisch anspruchsvoll, inhaltlich steuerbar und bald wohl auch bearbeitbar.

Leistungsfortschritte bei KI-Systemen vollziehen sich vor diesem Hintergrund also nicht gleichmäßig, sondern punktuell entlang der Engpässe. Es ist davon auszugehen, dass an diesen Stellen mehr investiert wird, bis sich der „Knoten“ löst und dann dynamische Entwicklungen zu verzeichnen sind. Der Historiker Thomas Hughes beschrieb vergleichbare Phänomene in der Technikgeschichte als „Reverse Salients“, so Mollick in seinen Ausführungen: gemeint sind einzelne technische oder soziale Rückstände, die die Weiterentwicklung eines Systems aufhalten, bis sie gezielt bearbeitet werden und es zu einem sprunghaften Entwicklungsschritt kommt. Immer dann, wenn ein Engpass bearbeitet wird, verschiebt sich die Fähigkeitsgrenze, sodass neue Anwendungsfelder, aber auch neue Engpässe entstehen.

Für den Blick auf KI bedeutet das: Wer verstehen will, wie und wohin sich Systeme entwickeln, sollte weniger auf allgemeine Leistungsindikatoren (Benchmarks) schauen als auf technisch-funktionale Engpässe, deren Lösungsbemühungen und die dann entstehenden sprunghaften Veränderungen. Zudem lässt sich besonders an diesen Stellen beobachten, wie das Verhältnis zwischen Mensch und Maschine immer wieder neu austariert werden muss.

Was heißt das für Schule und Unterricht?

Überträgt man diese Überlegungen auf Schule und Unterricht, wird deutlich, dass auch hier bestimmte Engpässe weitere Potenziale blockieren. Dies gilt zum Beispiel beim Einsatz von KI in bewertungsrelevanten Situationen bzw. bei der Korrektur. Auch wenn sich viele Lehrkräfte an genau diesen Stellen Entlastung wünschen, erschweren nicht hinreichend reproduzierbare KI-Outputs und Datenschutz-Regelungen den Einsatz automatisierter Korrekturverfahren. Ein weiteres Beispiel sind komplexe und qualitativ hochwertige Lernmaterialien. Diese können zwar von aktuellen KI-Systemen erstellt werden, passen dann aber nicht zwingend zur konkreten Lerngruppe und erfordern aufwändige Anpassungen. Und zuletzt zeigen sich schulische Begrenzungen auch bei der individuellen Lernstands-Diagnostik, bei der Kontinuität in der Begleitung von Lernverläufen über längere Zeit sowie bei der Unterstützung sozialer und kooperativer Prozesse durch KI.

Wo befinden sich schulische Engpässe?

Bei näherer Betrachtung liegen diese Engpässe jedoch nur teilweise an den fachlichen Fähigkeiten der KI. Oft fehlt es eher an geeigneten Tools, die DSGVO-konforme Automatisierungsprozesse mit KI ermöglichen. Oder es fehlt an Kompetenzen, datenschutzkonforme Lösungen vor Ort umzusetzen – zum Beispiel bei der Installation lokaler KI-Modelle. 

Zu guter Letzt scheitert[1] das Einlösen KI-spezifischer Potenziale auch an schultypischen Routinen und institutionellen Rahmenbedingungen, die sich als besonders veränderungsresistent erweisen. KI kann beispielsweise lernförderliches Feedback generieren und Schüler:innen individuell unterstützen. Wenn jedoch Geräte, Software-Lizenzen oder verlässliche Nutzungskonzepte fehlen – oder wenn Unterricht primär auf die nächste Klassenarbeit ausgerichtet ist –, kann formatives KI-Feedback sein Potenzial nicht entfalten. Ähnliches gilt für Förderstrukturen, die häufig fragmentiert oder wenig systematisch angelegt sind. Oft rücken sie erst nach formalen Diagnosen in den Blick, obwohl KI-Systeme bereits früh Hinweise auf Lernstände und Förderbedarfe geben könnten. Hinzu kommt, dass Prüfungsformate weiterhin stark produktorientiert sind, obwohl generative KI einen Großteil klassischer Aufgabenformate lösen kann und damit die Frage nach einer stärkeren Prozessfokussierung unausweichlich wird.

Erwartungsverschiebungen bei Lernenden und ihren Eltern

Mit der zunehmenden Leistungsfähigkeit von KI-Systemen werden diese Begrenzungen sichtbarer. Zusätzlich werden Erwartungen erzeugt und verstärkt, die ebenfalls auf die Schule zurückwirken. Damit ist gemeint, dass entlang der Linie der technischen Möglichkeiten Erwartungen entstehen, diese Möglichkeiten in Schule und Unterricht auch auszuspielen. Lernende wollen beispielsweise, dass ihnen der sinnvolle Umgang mit KI nicht nur erklärt, sondern auch im Unterricht erlebbar gemacht wird. Damit sind Lehrkräfte didaktisch und organisatorisch gefordert, KI als Thema, als unterstützendes Werkzeug sowie als Instrument zur Steuerung von Lernprozessen zu verstehen und einzusetzen. 

Ähnliche Erwartungsverschiebungen zeigen sich auch auf Seiten der Eltern. 2026 dürfte noch mehr schulische Bildungsarbeit im Kontext von KI eingefordert werden – etwa in Form von Aufklärung, der Förderung von Medien- und Urteilskompetenz oder durch den gezielten Einsatz neuer Potenziale zur individuellen Lernbegleitung. Öffentlichkeitswirksame Initiativen und Auszeichnungen wie der KI-Schulpreis der Deutsche Telekom Stiftung dürften diese Erwartungen weiter verstärken.

Institutionelle Engpässe

KI-Systeme sind zwar prinzipiell in der Lage, einzelne Anforderungen zu bedienen, können diese Erwartungen jedoch nicht kohärent in den schulischen Alltag integrieren. Genau hier wird ein weiterer institutioneller Engpass sichtbar, der uns im neuen Jahr beschäftigen wird. Die Integration solcher Erwartungen ist keine technologische, sondern eine organisatorische und pädagogische Aufgabe. Sie betrifft Schulentwicklung und Fortbildung zur Etablierung professioneller Standards insgesamt, zum Beispiel hinsichtlich einer KI-integrierenden Feedbackkultur, individueller Förderung, dem Umgang mit Heterogenität sowie der Weiterentwicklung von Prüfungs- und Bewertungspraxen. Diese Prozesse lösen sich nicht von selbst oder lassen sich an einzelne experimentierfreudige Kolleg:innen delegieren, sondern müssen von Schulleitungen und Lehrkräften initiiert, ausgehandelt und kontinuierlich verfolgt werden.

Was wir 2026 spüren werden

Meine These zum Start in das neue Jahr lautet: Je leistungsfähiger KI wird, desto sichtbarer werden diese institutionellen Engpässe. Es ist daher davon auszugehen, dass wir den daraus resultierenden Veränderungs- und Handlungsdruck im Jahr 2026 noch stärker spüren werden. Die gezackte Fähigkeitsgrenze mit ihren Engpässen ist kein KI-Makel, auf dem sich die Schule mit ihren institutionellen Routinen ausruhen kann. Im Gegenteil führen die bereits bestehenden Fähigkeiten von KI und die hinzukommenden Veränderungen an den Engpässen dazu, dass sich die Verantwortung noch mehr verschiebt. Dort, wo KI stark ist, verliert Schule weiter an Alleinstellungsmerkmalen. Dort, wo KI schwach bleibt, gewinnen pädagogische Professionalität, Haltung und Urteilskraft an Bedeutung.

Für den KI-Ausblick 2026 bedeutet das: Es ist weniger mit flächendeckenden Umbrüchen zu rechnen als mit gezielten Verschiebungen entlang einzelner Engpässe. Wenn diese durch institutionelle Weiterentwicklungen punktuell wegfallen, verändern sich Unterricht und schulische Praxis spürbar. Genau an diesen Stellen braucht es pädagogische Gestaltung und es wird Verantwortung neu ausgehandelt werden müssen.

Veröffentlicht am 1. Januar 2026


[1] Mit Scheitern ist hier gemeint, dass KI-Systeme ihre technischen Potenziale in Schule und Unterricht bei weitem noch nicht ausspielen können. Zudem bestätigten aktuelle Studien (Deutsches Schulbarometer, JIM-Studie, Trendmonitor KI), dass Schüler:innen generative KI deutlich häufiger verwenden als Lehrkräfte und der tatsächliche schulische Einsatz zu wenig systematisiert ist bzw. zu stark vom individuellen Interesse und den Fähigkeiten einzelner Lehrkräfte abhängt.

Zuletzt aktualisiert am 01-01-2026

  • teilen 
  • teilen 
  • E-Mail 
  • teilen 
  • teilen 
  • drucken 

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Liebe Leser*innen,

die Inhalte dieser Seite sind subjektiver Natur. Alle Beiträge dienen der Diskussion und erheben keinen Anspruch auf Vollständigkeit. Feedback und kritische Anmerkungen sind jederzeit willkommen!

Neueste Beiträge

  • Je leistungsfähiger KI wird, desto sichtbarer werden institutionelle Engpässe
  • KI-Didaktik: Eine Planungsvorlage zur Aufgabenkultur im KI-Zeitalter
  • Classroom-Management mit digitalen Endgeräten
  • Weiß die KI, dass sie nichts weiß?
  • Lernen mit KI als didaktisch verschränkter Prozess
  • Blogparade #kAIneEntwertung 
  • Wie viel Kreativität wird uns KI im digitalen Raum übriglassen?

Meta

  • Anmelden
  • Feed der Einträge
  • Kommentar-Feed
  • WordPress.org

Rechtliches

  • Impressum
  • Datenschutzerklärung
  • Cookie-Richtlinie (EU)

Kontakt aufnehmen

  • Kontakt

Support

  • Kaffeekasse
©2026 | Theme by SuperbThemes
Cookie-Zustimmung verwalten
Um dir ein optimales Erlebnis zu bieten, werden Technologien wie Cookies verwendet, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeitet werden. Wenn du deine Zustimmung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
  • Optionen verwalten
  • Dienste verwalten
  • Verwalten von {vendor_count}-Lieferanten
  • Lese mehr über diese Zwecke
Einstellungen ansehen
  • {title}
  • {title}
  • {title}