Zum Inhalt springen

KI in der Bildung

„KI kann nicht pauschal entlasten“

Der Einsatz künstlicher Intelligenz (KI) in Schulen könnte Lehrkräfte unterstützen – aber zugleich neue Belastungen mit sich bringen. Viele technische, rechtliche und pädagogische Fragen seien noch offen, sagt KI-Expertin Nina Galla im E&W-Interview.

Nina Galla ist Büroleiterin und Wissenschaftliche Mitarbeitern bei der Bundestagsabgeordneten Petra Sitte (Die Linke). Von 2018 bis 2020 war sie Referentin für die Enquete-Kommission Künstliche Intelligenz für die Linksfraktion im Bundestag. Zuvor war die Netzpolitikexpertin im Bereich digitale Bildung für Erwachsene und Lehrkräfte tätig. (Foto: Lisa Szugfil)
  • E&W: Fachleute mahnen, Deutschland dürfe beim Thema KI nicht den Anschluss verlieren. Was heißt das für Schulen?

Nina Galla: Wir müssen dringend Tempo aufnehmen, was digitale Mündigkeit und Medienkompetenz angeht – sowohl auf der Seite der Lehrenden als auch auf der Seite der Lernenden. Damit meine ich das Lernen über künstliche Intelligenz, nicht den Einsatz der KI als Mittel, um zu unterrichten. Bei Learning Analytics (s. E&W 11/2019, 7-8/2020) etwa würde ich gerne Tempo rausnehmen, weil viele Lehrkräfte sowie Schülerinnen und Schüler das komplexe Thema KI noch gar nicht vollständig erfasst haben.

  • E&W: Wo sehen Sie Chancen von KI-Systemen in Schulen?

Galla: KI-Systeme könnten im Unterricht unterstützen und individuelles Lernen fördern, wenn sie transparent und diskriminierungsfrei wären – was sie aber nicht sind. Deshalb halte ich Vorteile beim Lernen mit Schülerinnen und Schülern im Moment eher für theoretisch. Aber schon jetzt könnten Lehrkräfte KI für organisatorische Aufgaben nutzen: zur Unterrichtsvorbereitung, Stunden- und Vertretungsplanung oder für Übersetzungen bei Elterngesprächen. So etwas sollten Lehrende auch wirklich üben, um die Systeme und ihre Grenzen kennenzulernen. Geht es um den Aspekt Entlastung, muss man aber genau hinsehen: Was sind denn die größten Belastungen für Lehrkräfte – ist es tatsächlich Organisatorisches? Oder sind es die wachsenden Aufgaben und der psychische Druck durch Leistungsbewertungen und Selektionsprozesse? Dabei kann KI nicht pauschal entlasten.

  • E&W: Was sind Ihrer Einschätzung nach die Risiken der KI in der Schule?

Galla: Ein großes Problem ist die Intransparenz der Systeme: Dadurch könnten sich Diskriminierungen, gesellschaftliche Wertungen und Bildungsideale einschleichen, die von außen oft nicht zu erkennen sind. Wir würden Schülerinnen und Schüler dann auch dazu erziehen, Systementscheidungen anzunehmen, die nicht hinterfragt werden können. Das ist nicht unser bisheriges Verständnis von Medienkompetenz. Man muss sich das am Beispiel eines multiprofessionellen Teams vorstellen: Eine Lehrerin bekäme einen Partner an die Seite gestellt, der weder sagt, wo er ausgebildet wurde, noch welche pädagogischen Konzepte er anwendet und wie er zu seinen Bewertungen kommt.

  • E&W: In der Debatte um die KI-Verordnung der Europäischen Union (EU) wird Bildung als Hochrisikoanwendung gehandelt. Was heißt das konkret?

Galla: Das bedeutet verkürzt gesagt, dass Menschen, die KI im Bildungsbereich nutzen, rechtlichen Verpflichtungen unterliegen.

  • E&W: Welche Aufgaben und welche Verantwortung kommen damit auf die Schulen zu?

Galla: Das ist noch nicht klar. Aber es stellt sich mit Blick auf die Belastungen der Lehrkräfte die Frage, ob diese sich nicht einfach nur auf andere Bereiche verschieben – technische, administrative oder auch juristische. Dadurch könnte sich die Rolle der Lehrkräfte in eine Richtung verändern, die mit Pädagogik nicht mehr so viel zu tun hat.

  • E&W: Viele technische, rechtliche und pädagogische Fragen sind also noch offen. Was muss am Dringlichsten geregelt werden?

Galla: Das Thema Wissensbildung bei den Entscheidenden, egal auf welcher Ebene. Hier ist ein umfassendes Verständnis für die Möglichkeiten, Grenzen und der Interessenslagen der KI erforderlich. Es gibt im Moment ein starkes Engagement der Techkonzerne und der EdTech-Industrie, in den Bildungssektor einzusteigen. Aber diese Unternehmen handeln ja nicht altruistisch. Es geht ihnen um wertvolle Bildungsdaten. Auf der nächsten Ebene brauchen wir mehr Forschung. Wir haben noch keine belastbaren Ergebnisse, ob KI im Bildungsprozess förderlich ist oder Bildungsprozesse vielleicht eher behindert und Bildungsungerechtigkeiten verstärkt.

  • E&W: Sie plädieren auch für klassische analoge Maßnahmen für mehr Bildungsqualität?

Galla: Ich will Technologie nicht aus den Schulen raushalten, Digitalisierung und Medienbildung müssen dort stattfinden. Aber die großen Probleme, die wir seit Jahren im Bildungssystem sehen, sind der Lehrkräftemangel, schlecht ausgestattete Schulen, die reformbedürftige Ausbildung sowie die mangelnde Wertschätzung, nicht ausreichende Bezahlung und wachsende Aufgabenlast der Lehrerinnen und Lehrer. Da müssen wir stärker die bisherigen Lösungsansätze im Auge behalten, das kann uns die Technik nicht abnehmen. 

Neben ChatGPT gibt es weitere künstliche Intelligenzen, die ähnliche Funktionen bieten. Wir haben eine Auswahl zusammengestellt-

Diese KI-Tools gibt es neben ChatGPT

Bloom ist ein von Forscher*innen entwickeltes Open-Source-Projekt.

ChatABC verfügt über zusätzliche Funktionen wie Teamzusammenarbeit, Prompt Library und Never-Down-Service.

ChatPDF ist eine KI-Anwendung, um PDF-Dateien hochzuladen und dann die KI zu den PDF-Inhalten zu befragen.

Claude ist eine Familie großer Sprachmodelle, die von dem US-Start-up Anthropic entwickelt wurden. Die KI hat eine ethische Ausrichtung. 

DeepL Write ist ein KI-Schreibassistent, der dabei unterstützt, bessere Texte zu schreiben.

Das Open-Source-Sprachmodell Dolly wurde von dem US-Unternehmen Databricks entwickelt und ist sowohl für Forschungs- als auch kommerzielle Zwecke frei verfügbar. 

Die Open-Source-Sprachmodellreihe Falcon wurde vom Technology Innovation Institute (TII) in Abu Dhabi konzipiert. Falcon 180B gilt als eines der größten, jemals trainierten LLM. 

Gemini ist eine Serie multimodaler Sprachmodelle Googles und baut auf den zuvor veröffentlichten Modellen LaMDA und PaLM auf. 

Das Open-Source-Projekt GPT4All ist eine ChatGPT-Alternative, die lokal auf dem Rechner ausgeführt werden kann. 

Grammarly ist ein Schreibassistent, der Rechtschreib-, Grammatik-, Interpunktions-, Klarheits- und Übermittlungsfehler überprüft und mittels KI einen Ersatz für den Fehler sucht. 

Hugging Face ist eine Community, die auf Basis von ChatGPT und GPT4all eigene Sprachmodelle baut. 

Das von Meta AI entwickelte multimodale Sprachmodell ImageBind soll verschiedene Daten wie Text, Bild, Audio aber auch Sensordaten verarbeiten und verknüpfen. 

LLaMA ist eine Familie großer Sprachmodelle aus dem Hause Meta. Es gibt unterschiedlich große Versionen, außerdem Feintunings wie Alpaca, Vicuna und Gorilla mit Fokus auf bestimmten Funktionen. 

Das Open-Source-Konversationssprachmodell LaMDA (Language Model for Dialogue Applications) wurde von Google AI speziell für Dialoganwendungen entwickelt. 

Die KI des deutschen Start-ups Aleph Alpha besteht derzeit aus drei Modellen, die sich in Komplexität und Leistungsfähigkeit unterscheiden. Die Luminous-Familie ist multimodal.

Microsoft Copilot ist eine Assistentenfunktion mit Künstlicher Intelligenz für Microsoft-365-Anwendungen und -Dienste, Windows 11 und Microsoft Bing.

Das Sprachmodell Mistral Large wurde von Mistral AI für fortgeschrittene Texterstellung, Schlussfolgerungen und mehrsprachige Unterstützung konzipiert

Neuroflash ist ein KI-Text- und Bildgenerator – allerdings vor allem für Marketingtexte.

Das Open-Source-Sprachmodell Orca 2 von Microsoft soll ähnliche Leistungen wie die größeren KI-Systeme erbringen, aber mit geringerer Rechenleistung, um weniger Energie zu verbrauchen. 

PaLM ist die Abkürzung für Pathways Language Model, eine von Google konzipierte Familie großer Sprachmodelle. PaLM 2 wird in verschiedenen Google-Produkten verwendet, darunter das Chat-Tool Bard

Der T5 (Text-to-Text Transfer Transformer) von Google AI ist ein leistungsstarkes Sprachmodell für Textaufgaben wie Übersetzungen oder Zusammenfassungen - allerdings nicht speziell darauf ausgelegt, als interaktiver Chatbot wie ChatGPT zu fungieren. 

Die Plattform SchulKI wurde von Lehrkräften gegründet und wird gemeinsam mit Forschenden und Programmiertalenten entwickelt. 

Perplexity AI ist eine KI-Suchmaschine, die ähnlich wie ChatGPT funktioniert, aber auch Quellen angibt. Zudem werden unter dem Text „related“-Anfragen angezeigt.

Smodin ist ein KI-basiertes Tool für die automatische Textgenerierung. Das Tool bietet außerdem einen Plagiatscheck.

You.com ist der KI-Chatbot der Suchmaschine You.com

(Quellen: unterrichten.digital und Manuel Flick)

Diese Auswahl erhebt keinen Anspruch auf Vollständigkeit und kann und soll fortlaufend ergänzt werden. Schreibt uns, welche KI-Tools ihr nutzt und in dieser Liste ergänzt werden sollen!