Ein Gespräch mit Prof:in Dr. Sigrid Hartong über ausgeblendete Aspekte des KI-Diskurses

Im bildungsbezogenen KI-Diskurs stehen häufig Tools und Anwendungsaspekte im Mittelpunkt. Mit Blick auf eine zu gestaltende Bildungspraxis, die mehr und mehr von (generativer) Künstlicher Intelligenz geprägt wird, ist das verständlich. Gleichwohl führt der Handlungsdruck des Alltags dazu, dass grundsätzlichere Fragen in den Hintergrund gedrängt werden. Gemeint sind ethische Aspekte, Umweltfragen, Verhältnisse in globalen Produktionsketten und politisch-ökonomische Machungleichgewichte. Dabei geht es um begrenzte Ressourcen, internationale Konflikte und Werte, wie wir unser Zusammenleben auf der Erde zukünftig gestalten wollen. Trotz großer Faszination für die zahlreichen neuen Möglichkeiten dürfen wir nicht vergessen: Künstliche Intelligenz ist eine politische Technologie, kein unverdächtiges Werkzeug. Haben wir diese Punkte zu wenig im Blick? Oder verdrängen wir sie vielleicht sogar, weil wir nicht hinschauen wollen?
Über diese und andere (unbequeme) Fragen habe ich mit Sigrid Hartong gesprochen. Sigrid ist Professorin für Soziologie an der Helmut-Schmidt-Universität Hamburg und beschäftigt sich mit Bildung und Schulentwicklung in der Digitalität. Dabei beobachtet und analysiert sie Datafizierungsprozesse und gibt Antworten auf die Frage, wie gute Bildungstechnologien aussehen müssen. Zusammen mit der GEW hat sie einen Leitfaden für automatisierte Lernsysteme und KI-Anwendungen an Schulen entwickelt. Darüber hinaus ist sie Co-Gründerin der Initiative „Unblack the Box“.
Liebe Sigrid, inwiefern ist die Nutzung von (generativer) Künstlicher Intelligenz politisch?
Jede digitale Technologie wird in sozialen Kontexten entwickelt und genauso in sozialen Kontexten genutzt. Und diese sozialen Kontexte sind immer durchzogen von Werten, Normen und Weltansichten, welche die Entscheidungen, wie die Technologie gestaltet wird, stark prägen. Dies kann sich auf die (Wieder-)Verwendung bestehender Codebausteine oder Designelemente beziehen, in die bereits bestimmte Ideen eingeschrieben sind (dazu gibt es beispielsweise einen tollen Artikel von Kolleg*innen aus Kiel), aber genauso auf solche Dinge wie die Zusammensetzung von Designergruppen. Und weil diese Entscheidungen immer kontingent sind, also man unterschiedlich entscheiden und im Prinzip auch kontrovers über diese Entscheidungen debattieren könnte (z.B. denke ich Nutzende individuell oder kollektiv? Wie viele Kategorien von Lernenden definiere ich? Wo beginnt in einem KI-Modell Diskriminierung?), sind sie politisch.

Gleichzeitig werden die Entscheidungen dadurch, dass sie in Technologie eingeschrieben werden und z.B. ein Algorithmus zukünftig diese Einschreibung operativ umsetzt, depolitisiert. Die Politologin Lena Ulbricht hat hierzu einen sehr guten Beitrag geschrieben. Depolitisierung heißt, ich kann die Entscheidungen als solche immer schlechter erkennen und damit aktiv debattieren. Bei Künstlicher Intelligenz kommt dazu, dass die globalen Produktionsketten und Infrastrukturen extrem komplex sind und gleichzeitig stark von politisch-ökonomischen Machtverteilungen auf der Welt geprägt werden. Nutzer*innen begeben sich mit der Nutzung von KI also immer ein Stück weit in diese Machtungleichgewichte hinein. Durch ihre Nutzung, durch ihre Prompts gestalten sie aber immer auch mit, etwa wenn die von ihnen eingespeisten Daten für das weitere Training von KI-Modellen genutzt werden.
In meiner Wahrnehmung werden diese Aspekte im aktuellen KI-Diskurs weitestgehend ausgeblendet. Ärgert dich das?
Wir beobachten, dass das Politische von KI-Technologie seit der neuen Ära Trump deutlich stärker diskutiert wird, weil z.B. die technologischen Einschreibungen in amerikanischen Produkten mit Grundwerten kollidieren, auf die sich die EU politisch verständigt hat (ein lesenswerter Artikel dazu findet sich hier). Und an diesem Beispiel sieht man auch, wie kompliziert die Verstrickungen und Abhängigkeiten tatsächlich sind. Gleichzeitig sehe ich diese Debatten noch kaum im Bereich der Bildungstechnologien bzw. der Einbindung von KI-Modellen in diese Bildungstechnologien. Überhaupt tun wir uns bisher sehr schwer damit, planetare Dimensionen von Bildungstechnologien überhaupt richtig in den Blick zu nehmen. Dazu gehören dann auch solche Dinge wie Umweltauswirkungen, die ich mit jedem Prompt miterzeuge. Also etwa die Energie, die wir verbrauchen, oder die Kühlbedarfe der riesigen Serverfarmen, die meist jedoch relativ weit weg von der eigenen Bildungseinrichtung stehen und dort Ökosysteme verdrängen. Eine gute, wenngleich bereits etwas veraltete Übersicht dazu finden sich in einem Artikel der Washington Post.
Ein anderes Beispiel sind die planetaren Ressourcen wie z.B. seltene Erden, um deren Abbaurechte die große Techkonzerne kämpfen und die ebenfalls große Umweltzerstörung und auch soziale oder politische Schäden mit sich bringen (vgl. hier). Oder auch die Arbeitsbedingungen in den Bereichen Crowd- und Clickwork, die globale Ungleichheiten durch unsere Technologienachfrage reproduzieren oder sogar verschärfen (vgl. hier). All diese Beispiele werfen zentrale Fragen auf, wie es mit unserer Weltgesellschaft und unserem Planeten weitergehen soll und auf Basis welcher Werte wir eigentlich die Zukunft gestalten wollen. Daher ja, es ärgert mich, dass wir gerade im Bildungskontext diese Aspekte der KI-Nutzung bisher so wenig betrachten.

Inwiefern siehst du Schulen bzw. Bildungseinrichtungen im Allgemeinen in der Verantwortung, die politische Dimension von KI-Anwendungen transparent(er) zu machen? Und wie könnte das zum Beispiel aussehen?
Generell sind Medienbildung im Sinne des Lernens über digitale Medien, aber auch politische Bildung oder Bildung für nachhaltige Entwicklung ja als zentrale Aufgaben unseres Bildungssystems in den Bildungsplänen benannt. Gerade im Bereich der Medienbildung hat hier in den letzten Jahren auch viel bildungspolitische Bewegung stattgefunden. Gleichzeitig wissen wir nicht erst seit gestern, dass es gerade diese Bildungsbereiche sind, die im Alltag und bei Ressourcenmangel dann doch gerne wieder runterfallen. Oder dass dann vor allem Themen wie Social Media oder auch KI-getriggerte Falschinformationen behandelt werden.
Diese Themen sind total wichtig, aber sie machen selten bewusst, dass auch die Apps und Plattformen, die die Bildungseinrichtungen selbst für ihre Lernprozesse nutzen (mit oder ohne KI-Elementen), kritisch angeschaut werden müssen. Also zum Beispiel mit Blick auf die Frage, welche Machtverhältnisse eigentlich in der Bildungseinrichtung selbst durch bestimmte Technologien erzeugt werden, wessen Perspektiven in den Technologien ausgeblendet werden oder wie Schülerinnen und Schülern eigentlich Mitbestimmung mit Blick auf die genutzten Bildungstechnologien erleben. Und ich glaube, dass Bildungseinrichtungen bei aller Regulation von außen doch einige Spielräume haben, diese Themen stärker in ihre Schulentwicklungsprozesse und auch in den Unterricht einzubinden. In unserem Projekt SMASCH (Smarte Schulen) versuchen wir z.B. Schulen in unterschiedlichen europäischen Ländern bei der Entwicklung solcher Schulentwicklungsvorhaben zu unterstützen, und die Ideen der Schulen sind großartig.
Was können Lehrkräfte tun? Kann deren Verantwortung über Information und Aufklärung hinausgehen, wenn sie das Thema „KI-Nutzung als politischer Faktor“ in den Unterricht integrieren, um Schüler:innen für nachhaltige Technologien und kritisches Denken zu sensibilisieren?
Information und Aufklärung sind natürlich ganz wichtige Komponenten, aber am besten werden diese Themen durch Anschauung und selbst Erleben vermittelbar. Es gibt inzwischen einige Tools und auch Seiten im Netz, die hier viel Potential haben. Z.B. haben Kolleginnen und Kollegen ein Tool names Infrareveal entwickelt, in dem während der Nutzung digitaler Technologien in Echtzeit angezeigt wird, wie viele Datenpakete eigentlich wohin geschickt werden.
Ein anderes Beispiel ist der Carbonalyser, den man als Plugin installieren kann und dann wird beim Browsen im Internet getrackt, wie viele Emissionen verbraucht werden. Aber ich muss gar nicht unbedingt eigene Lerneinheiten zum Thema machen. Im Prinzip kann ich in jedem Unterricht und bei jeder Nutzung von KI über kleine Reflexionsfragen oder Mini-Aufgaben Betroffenheit für das Thema herstellen (z.B.: „Prüft einmal, was es in dieser Lernapp an Einstellungsoptionen gibt und diskutiert, was sich ändert, wenn bestimmte Funktionen ein- oder ausgeschaltet werden.“).

Du engagierst dich auch in der Initiative „Unblack the Box“. Worum geht es da genau?
Wir haben die Initiative 2019 gegründet, als die Digitalisierung in vielen Schulen in Deutschland noch in den Kinderschuhen steckte, wir aber damals schon eine problematische Verkürzung auf Hard- und Softwareausstattung oder Bedienkompetenzen beobachtet haben. Entsprechend haben wir mit der Initiative von Anfang an versucht, das Bewusstsein für die Notwendigkeit, digitale Technologien kritisch zu reflektieren und zu gestalten, zu stärken. Hierzu gehören die oben genannten Dimensionen, aber z.B. auch sowas wie gesundheitliche Effekte von Technologienutzung. Wir haben viele Events gemacht, Workshops und Fortbildungen, aber auch Instrumente entwickelt wie z.B. die Alternative Checkliste oder den EdTechReflektor.
Über die Jahre hinweg haben wir uns tatsächlich ziemlich gut etabliert und werden immer wieder von unterschiedlichsten Einrichtungen angefragt. Auch international haben wir uns mit Projekten und Initiativen vernetzt, die ähnliche Ziele verfolgen, darunter in den Niederlanden, der Schweiz, Spanien, Italien oder Australien. Man sieht, dass das weltweite Bewusstsein für die problematischen Seiten von Bildungstechnologie über die Jahre deutlich gewachsen ist. Trotzdem glaube ich, was die flächendeckende Implementation derartiger Perspektiven in Lehrkräfteaus- und weiterbildung und auch in Schulpraxis angeht, haben wir noch wahnsinnig viel zu tun.
Kannst du sonst noch Hilfsmittel, Tools oder Seiten im Netz für Lehrkräfte empfehlen, die sich kritisch mit Datentechnologien in Bildungseinrichtungen beschäftigen möchten?
Es gibt inzwischen sehr viele tolle Seiten und Tools, auch einige deutschsprachige. Wer sich hier mehr mit beschäftigen will, kann über das Critical Big Data and Algorithmic Literacy Network einsteigen, das eine Art Online-Suchmaschine für solche Tools und Seiten im Netz anbietet. Als Lehrkraft kann man die Suche zum Beispiel filtern nach Zielgruppe, Format, Sprache oder auch nach Offline-Nutzbarkeit oder Lizenzen.
Gehört ein Bewusstsein über diese Themen für dich zu KI-Kompetenz (bei Lehrenden und Lernenden), wie sie jetzt auch in der KI-Verordnung der EU eingefordert wird?
Auf jeden Fall. Wir tun uns als Gesellschaft einen großen Gefallen, wenn wir Lehrkräfte und auch Schülerinnen und Schüler schnell und umfassend für diese Themen sensibilisieren. Denn hier geht es um ganz zentrale Zukunftsfragen, die uns alle betreffen, aber die nachfolgende Generation natürlich nochmals besonders. Aber wie eben schon gesagt, dürfen wir nicht beim Bewusstsein stehenbleiben, sondern es braucht konkrete Ideen von möglichst vielen Menschen, wie ich dieses Bewusstsein mit aktiver Technologiegestaltung zusammenbringen kann. In diesem Sinne handelt es sich eigentlich vielmehr um eine Gestaltungskompetenz, die ich vor allem üben muss.
Zusammen mit drei Kolleg:innen habe ich ein KI-Kompetenzmodell aus der Praxis für die Praxisentwickelt. Wir beschreiben vier Kompetenzbereiche (Verstehen, Anwenden, Reflektieren und Mitgestalten), die idealerweise auf AI-Leadership als zentrale Kompetenz hinauslaufen. Wo würdest du die angesprochenen Punkte verorten?
Erstmal finde ich es super, dass ihr mit dem Modell etwas von Praxis für Praxis entwickelt habt. Ich als Wissenschaftlerin habe natürlich immer das Problem des Bruchs mit der Praxis, selbst wenn wir mit unseren Projekten und Initiativen zunehmend enger mit Schulen zusammenarbeiten und ich aus meiner eigenen Hochschullehre ja auch die Perspektive einer Lehrkraft mitbringe. Gleichzeitig finde ich an den vier Kompetenzbereichen, die ihr im Modell aufgreift, wirklich sehr gut, dass mindestens drei, aber eigentlich alle vier Bereiche das kritische Auseinandersetzen mit KI sowie die aktiv-bewusste Mitgestaltung adressieren, die eben über reine Anwendung hinausgeht.
Und ich finde super, dass Reflektieren nicht erst eingeplant wird, nachdem man die Nutzung gelernt hat, sondern von Anfang an eine mindestens gleichwertige Rolle spielt. In meiner Perspektive müsste man im Bereich Verstehen die politischen oder ökologischen Perspektiven noch stärker einbinden, also dass es nicht nur um Funktionsweisen, sondern eben auch um die Hintergründe und Produktionskontexte von KI geht. Und ich glaube bei Mitgestalten fände ich es noch gut, hier nicht nur mit der Frage zu starten, wo KI überall genutzt werden kann, sondern von Anfang an zu üben, Werte und Visionen für die Gestaltung zu entwickeln und zu diskutieren.
Zum Schluss würde ich das Thema gerne noch einmal aus der Meta-Perspektive betrachten: Wie könnte eine nachhaltige(re) Nutzung von KI aussehen? Kann es das überhaupt geben? Und: Bräuchte es deiner Meinung nach mehr politische Steuerung in diese Richtung?
Ich glaube, wir haben mittelfristig keine andere Wahl, als unsere KI-Nutzung viel grundsätzlicher zu überdenken und hierfür entsprechende Rahmen zu setzen. Wir sehen aktuell, wie fragil die weltpolitische Lage ist und wie stark unsere Demokratien von allen Seiten angegriffen werden. Und dabei ist einer der vulnerabelsten Punkte die Manipulierbarkeit oder auch die Kappung digitaler Infrastrukturen. Dazu kommen die begrenzten planetaren Ressourcen, die wir nicht wegdiskutieren oder ignorieren können, und die gleichzeitig immer deutlicher die politischen und ökonomischen Machtgefälle dieser Welt aufzeigen.

Für mich bedeutet eine nachhaltigere KI-Nutzung entsprechend, dass wir diese politischen, sozialen und ökologischen Kontexte systematisch mit Nutzungsabwägungen verbinden müssen. Es bedeutet nicht, von KI-Nutzung komplett Abstand zu nehmen, aber doch, bei bestimmten Praktiken, Geschäftsmodellen oder Nebeneffekten aktiv(er) in den Widerstand zu gehen. Und da kann man schon sagen, dass jeder einzelne Prompt in gewisser Weise ein politischer Akt ist, mit dem wir uns für oder gegen etwas entscheiden (können). Gleichzeitig können und dürfen wir nicht alles beim Individuum abladen und wir sehen ja, dass viele Tech-Geschäftsmodelle bewusst damit kalkulieren, dass Einzelne die Ausmaße der Technologienutzung gar nicht überblicken können. Oder dass KI-Features eben einfach eingebaut werden und man sich dann gar nicht mehr dagegen entscheiden kann diese zu nutzen.
Daher: Ja, es braucht unbedingt eine starke politische Steuerung, gerade im Bildungsbereich. Und der AI Act würde in meinen Augen bei aller Kritik hierfür viele Möglichkeiten schaffen.
Vielen Dank für das spannende Gespräch!
Sigrid Hartong ist seit 2020 Professorin für Soziologie an der Helmut-Schmidt-Universität in Hamburg. Mit ihrem Team forscht und lehrt sie in den Bereichen Steuerung der Gegenwartsgesellschaft, Transformation von Bildung sowie insbesondere Effekte wachsender Datafizierung und Digitalisierung. Zu ihren aktuellen Projekten zählen unter anderem SMASCH (Smarte Schulen, www.smasch.eu), Unblack the Box (www.unblackthebox.org) sowie ETH-TECH (www.eth-tech.eu). Kontakt: hartongs[at]hsu-hh.de
Veröffentlicht am 29. April 2025
Ich habe in den letzten Monaten unglaublich viel über KI gelernt, nicht durch Fortbildungen, sondern durch das Fragen meiner Schüler*innen. „Warum weiß ChatGPT das?“ „Woher kommen die Antworten?“ „Ist das richtig, nur weil es gut klingt?“
Diese Fragen haben mich gezwungen, selbst noch mal tiefer zu graben. Und ich habe gemerkt: Es reicht nicht, nur zu wissen, wie man KI benutzt. Ich muss auch verstehen, was dahinter steckt und wen es betrifft. Wie viel Energie braucht so ein Modell eigentlich? Wer trainiert es? Und warum sprechen wir im Schulalltag so selten über genau diese Fragen?
Ich finde, wer heute mit Kindern arbeitet, darf sich nicht mehr raushalten. KI ist politisch. Punkt. Und wenn wir in der Schule nur auf Anwendung schauen, ohne über Herkunft, Macht und Folgen zu sprechen, machen wir unseren Job nicht zu Ende.
Ich glaube fest daran: Wenn wir schon in der Grundschule damit anfangen, Kinder ernsthaft in diese Gespräche einzubeziehen, dann legen wir das Fundament für echten, verantwortungsvollen Umgang mit Technologie.
Aber dafür müssen wir Erwachsenen zuerst bereit sein, selbst genau hinzusehen. Auch wenn es unbequem ist.