Zum Inhalt springen

KI in der Bildung

Jeder Prompt hat einen Preis

Die Bildungsforscherin Prof. Sigrid Hartong von der Helmut-Schmidt-Universität Hamburg fordert mehr Aufklärung über Strukturen und Zusammenhänge der KI-Systeme. Zudem plädiert sie für eine bewusste Abwägung bei der Nutzung in der Bildung.

Wir leben in einem Zeitalter der Digitalität. Diese muss daher Bestandteil der Bildung sein. Dennoch müssen sich Kinder und Jugendliche am Ende auch weiterhin analog mit der Welt um sie herum auseinandersetzen, mit Lehrkräften, Peers oder Eltern. (Foto: GEW/Shutterstock)
  • E&W: Ist der KI-Hype inzwischen ein bisschen abgeebbt?

Prof. Sigrid Hartong: Ich glaube, wir sind in einer anderen Phase. Der Umgang mit Künstlicher Intelligenz (KI) ist gelassener als zu dem Zeitpunkt, als ChatGPT auf den Markt kam. Gleichzeitig mangelt es uns nach wie vor an soliden Strategien, im Bildungssystem damit umzugehen. KI wird oft genutzt, ohne Strukturzusammenhänge ausreichend zu reflektieren. Die offenen Fragen werden aber zunehmend drängender. Der Druck, zu reagieren, ist eher noch größer geworden.

  • E&W: Was sind die offenen, dringlichen Fragen?

Hartong: Wir haben es bei KI mit einer globalen Infrastruktur zu tun, die – so wie sie im Moment gestaltet ist – Ungleichheiten und kapitalistische Strukturen verschärft. Die Zusammenhänge auf der Makroebene sind hochkomplex und haben massive Effekte, etwa mit Blick auf Märkte, Abhängigkeiten oder ökologische Dimensionen. Wir tun uns noch schwer damit, das auf der Mikroebene mit einer guten Nutzungspraxis zusammenzubringen. Wir müssen über Datenschutz, Ethik und pädagogische Sinnhaftigkeit hinausdenken. KI landet aktuell in zahlreichen Bildungstools, ohne dass jemand beispielsweise weiß, wie viele Ressourcen die Nutzung verbraucht. Wir denken viel über Risiken nach, aber wir stellen nicht alle Verbindungen her. KI-Nutzung ist hochpolitisch, aber genau das vernachlässigen wir nach wie vor.

  • E&W: Kommen wir aus diesem Dilemma noch raus oder sind die Entwicklungen schon zu weit fortgeschritten?

Hartong: Die positive Nachricht auf der Mikroebene ist: Ich kann mit jedem Klick politisch Einfluss nehmen und zwar durch die Art und Weise, wie ich KI nutze, und was ich als Lehrkraft mit meinen Schülerinnen und Schülern diskutiere. Diese Entscheidungen haben einen Effekt, auch wenn dieser erst einmal klein erscheint. Auf Makro-ebene versteht Europa immer mehr, dass es eigene Lösungen braucht. Mit der Datenschutz-Grundverordnung (DSGVO) haben wir bereits gezeigt: Wir schützen Persönlichkeitsrechte. Bei der KI-Nutzung könnte man sagen, uns sind Nachhaltigkeit, soziale Verträglichkeit und Arbeitsschutz wichtig. Dann müssten auch Regularien im Bildungssystem entsprechend aussehen. Es werden bereits europainterne Sprachmodelle entwickelt. Es passiert viel, man muss also nicht sagen, es ist zu spät oder man kann gegen die internationalen Wettbewerber sowieso nicht bestehen.

  • E&W: Gibt es keine gute Bildung ohne Algorithmen?

Hartong: Ich würde es so formulieren: Bildung über Algorithmen ist in der heutigen Zeit alternativlos. Wir leben in einem Zeitalter der Digitalität. Wir hängen permanent von algorithmischen Entscheidungssystemen ab. Wenn wir dies nicht in Bildungsprozesse einbeziehen, wird es für Heranwachsende schwierig, sich politisch und sozial einzubringen. In einer Welt, in der Macht über digitale Infrastrukturen zu einem zentralen politischen Interesse geworden ist, dürfen wir uns aber auch nicht zu stark von Technologien abhängig machen. Am Ende müssen sich Schülerinnen und Schüler auch weiterhin analog mit der Welt um sie herum auseinandersetzen, mit Lehrkräften, Peers oder Eltern.

Prof. Sigrid Hartong ist Inhaberin der Professur für Soziologie mit Schwerpunkt auf Transformation von Governance in Bildung und Gesellschaft an der Helmut-Schmidt-Universität Hamburg. (Foto: Ulrike Schröder)
  • E&W: Wie sieht dann ein sinnvoller Einsatz der KI aus?

Hartong: Generell müssen wir uns stärker bewusst werden, dass auch eine sinnvolle KI-Nutzung immer einen Preis hat, etwa soziostrukturell oder mit Blick auf die Umwelt. Daher sollte ich immer zumindest grob abwägen, welchen Preis ich gerade für einen Einsatz der Technologie bezahle. Es gibt im Moment viele Praktiken, bei denen ich sagen würde: Der Abwägungsprozess ist schief. Nur aus Spaß mit KI rumzuspielen und den 50. Prompt* zu setzen, wäre wie 500 Mal den Wasserkocher anzustellen, nur weil man das Blubbern mag. Und wir müssen uns auch die Frage stellen, was wir verlieren, wenn wir immer mehr als Einzelne mit KI interagieren, statt in die Auseinandersetzung mit anderen Menschen zu gehen.

  • E&W: Müssten solche Aspekte auch stärker Teil der Lehrkräfte(fort)bildung sein?

Hartong: Wir sehen in der Fortbildungslandschaft aktuell viel Bewegung. Oft sind die Angebote aber stark didaktikbezogen: Wie setze ich eine Technologie pädagogisch sinnvoll ein, wie kann ich Lernziele fördern? Die Strukturen und Zusammenhänge dahinter sind nach wie vor ein blinder Fleck. Wenn diese insgesamt stärker ins Bewusstsein rückten, würden sich vielleicht auch mehr Leute dagegen wehren, dass KI-Assistenten inzwischen fast überall standardmäßig direkt eingebaut sind. Der Aufwand, Funktionen einzuschränken, wird immer höher – und automatisch nutzen immer mehr Leute diese dann. Man muss aber selbst entscheiden können. Alles andere ist eine hochproblematische Grenzüberschreitung.

  • E&W: Die GEW schlägt eine öffentliche KI-Infrastruktur vor. Das würde aber auch nicht alle genannten Probleme lösen.

Hartong: Nein, aber die Wiederstärkung öffentlicher Infrastruktur ist ein guter Weg im Gesamtpuzzle. Gemeinwohlorientierung gibt es bei Google und Meta nicht, da geht es um wirtschaftliche Logiken. Aktuell haben immer weniger große Player die Kontrolle über Infrastruktur und damit Gestaltungsmacht. Je mehr Player – mit unterschiedlichen Interessen – es aber gibt, desto mehr Demokratie können wir auf Infrastrukturebene leben. Desto weniger kann glattgebügelt, manipuliert oder in eine bestimmte Richtung getrieben werden. Man kann allerdings auch nicht sagen: Wir machen jetzt alles Open Source. Auch ein offener Code ist riskant geworden, weil er leicht in die falschen Hände geraten kann. Auch da müssen wir eine neue Debatte führen: Was müsste infrastrukturell abgekoppelt werden, was hinter Schutzwänden liegen? Infrastruktur ist politisch und hat viel damit zu tun, welche Gesellschaft der Zukunft wir wollen. 

*Ein Prompt ist eine Eingabeaufforderung oder auch Anweisung, die einem KI-Modell gegeben wird, um es zu einer spezifischen Reaktion oder Aktion zu veranlassen.