Zum Inhalt springen

Forum Offene KI in der Bildung

In das Gemeinwohl statt Big-Tech-Firmen investieren

Wikimedia hat Handlungsempfehlungen für eine offene KI in der Pädagogik vorgelegt. Anne-Sophie Waag, Referentin Bildung in der digitalen Welt, erklärt die Vorschläge.

Foto: CC0, pexels.com
  • E&W: Mit den zehn Empfehlungen liegen viele Aufforderungen an die Politik auf dem Tisch. Was kann oder muss im ersten Schritt passieren?

Anne-Sophie Waag: Aktuell gibt es bundesweit einen Flickenteppich an Zugängen zu generativen Chatbots, meist ChatGPT. Man könnte zunächst versuchen, flächendeckend zu einer Vereinheitlichung zu kommen. Wir sehen die unterschiedlichen Zugänge je nach Bundesland und auch Bildungssektor als problematisch. Um die Technologie zu verstehen, muss man selbst erleben, wie es ist, mit einer generativen KI zu arbeiten. Derzeit können einige Personengruppen und Einrichtungen schon sehr viel experimentieren und dazulernen, andere wiederum werden abgehängt. Es geht also auch um Bildungsgerechtigkeit.

  • E&W: Durch einen einheitlichen Zugang haben wir aber noch keinen Zugriff auf eine offene und demokratisch gestaltete KI, wie sie das Forum KI in der Bildung fordert.  

Waag: Es gibt aber schon kleinere, offene Modelle, mit denen man die Technologie erstmal kennenlernen kann. Wir verweisen auch auf bestehende Open-Source-Möglichkeiten oder einzelne Lösungen. Die Hochschule für angewandte Wissenschaft und Kunst Hildesheim/Holzminden/Göttingen (HAWK) etwa hat eine offene Schnittstelle programmiert, mit der man Zugänge zu Lernmanagementsystemen schaffen kann, wie es sie auch in den Bundesländern gibt. Darüber könnte man einen zentralen Zugang zu offenen KI-Tools anbieten, so dass Lehrende und Lernende diese ausprobieren könnten.

Eine unserer Ideen ist: Redet doch mal mit den Hochschulen über deren Möglichkeiten in ihren Rechenzentren. Wir sprechen aber aus der Perspektive von Bildungsfachleuten, nicht Experten für Maschinelles Lernen. Wir wissen, dass das Ganze technisch und juristisch herausfordernd ist. Uns geht es darum, zu sagen: Wir sehen da eine Herausforderung, wir brauchen eine Lösung, und wir haben Ideen. Die Umsetzung und Ausgestaltung liegt bei der Politik.

  • E&W: Ist das Forum Offene KI in der Bildung eher dafür, bestehende Open-Source-Lösungen weiterzuentwickeln, statt ein ganz neues System zu entwickeln?

Waag: Bei unseren Veranstaltungen gingen die Meinungen dazu ein bisschen auseinander. Die Frage ist tatsächlich: Ist es realistisch, jetzt noch mal ein eigenes Bildungs-Sprachmodell zu bauen? Oder investiert man lieber Zeit und Kraft, um vorhandene Open-Source-Modelle nachzubearbeiten und für den Bildungsbedarf passender zu machen? Mit Blick auf den zeitlichen Faktor ist wahrscheinlich die zweite Idee sinnvoller.

  • E&W: Wer könnte eine offene KI, ob neu oder weiterentwickelt, betreiben?

Waag: Wir könnten uns ein Modell vorstellen, das wir uns bei Wikimedia für viele Bildungs- und Digitalprojekte wünschen: eine Art Plattformrat. Dieser bestünde aus Nutzenden, also Lernenden und Lehrenden der verschiedenen Bildungsbereiche, und natürlich Personen, die das Ganze technisch umsetzen könnten. Man könnte ein Konsortium aus Menschen mit einem pädagogischen, ethischen und rechtlichen Blick zusammenstellen, das ähnlich einer Anstalt öffentlichen Rechts betrieben wird – mit einer gewissen politischen Unabhängigkeit und der fachlichen Expertise, über die Weiterentwicklung der KI- Modelle mitentscheiden zu können.

  • E&W: Welche Merkmale müsste eine offene KI haben – neben Datenschutz- und sicherheit?

Waag: Dazu bräuchte es wohl noch einen Kriterienkatalog. Im jüngst verabschiedeten AI Act der Europäischen Union, der künstliche Intelligenz reguliert und ab 2026 gelten soll, wird Bildung als Hochrisikobereich eingestuft. Das heißt: Hier gelten besonders strenge Kriterien für den Einsatz von KI. Man müsste sich genau anschauen, welche Bestimmungen daraus folgen.

  • E&W: Kann das Ganze tatsächlich ohne die Privatwirtschaft funktionieren?

Waag: Das ist eine gute Frage. Es geht aber auch nicht darum, zu sagen, die Privatwirtschaft ist schlecht oder böse. Für uns ist einfach ein zentraler Punkt, dass privatwirtschaftliche Interessen nicht über Bildung bestimmen dürfen. Wenn man klare Regelungen hätte, könnten Unternehmen mit ihrer Expertise unterstützen und im Sinne des Gemeinwohls bestimmte Prozesse voranbringen. Es müsste nur sehr transparent sein: Wer hat warum wie mitgemacht? Und gibt es irgendwelche Einflussmöglichkeiten oder nicht?

  • E&W: Wieviel Geld müsste die Politik investieren, um die Empfehlungen umzusetzen?

Waag: Das ist schwer zu beantworten. Aber grundsätzlich steigen die Ausgaben für Bildungstechnologien gerade massiv an. Es wird sehr viel Geld für Lizenzen ausgegeben, damit Technologien an Schule eingesetzt werden können. Es gibt bereits einzelne Stimmen, die sagen: Das können wir uns auf Dauer nicht leisten, wir müssen andere Lösungen finden. Die Frage ist also: Investieren wir öffentliche Mittel in Informatikerinnen und Informatiker, die uns eigene Modelle weiterentwickeln und an den Universitäten hosten, und in Infrastruktur, die allen zur Verfügung steht? Oder zahlen wir diese Gelder an Big-Tech-Firmen? Wenn wir die Mittel in gemeinwohlorientierte Systeme stecken, könnte dies übrigens auch für andere Bereiche als die Bildung relevant sein, etwa den Gesundheitsbetrieb.

  • E&W: Auf die Bildung bezogen plädiert das Forum in seinen Empfehlungen auch für Small Language Models, also weniger leistungsfähige KI-Tools.

Waag: Ja, denn es geht bei dem Thema auch um Nachhaltigkeit. Generative KI verbraucht massiv Ressourcen. Aus pädagogischer Perspektive muss aber nicht immer das gesamte Textwissen der Welt abgefragt werden können. Zum Beispiel könnte im Fach Erdkunde auch ein kleineres Sprachmodell beim Lehren und Lernen unterstützen. Von Small Language Models bekomme ich meist auch eine korrektere Antwort, weil die Anwendungen mit Wissensstrukturen für einen spezifischen Bereich trainiert wurden und algorithmisch anders aufgebaut sind. Die halluzinieren sich weniger zusammen. Zudem können sie oft auch auf dem Handy laufen - und dort verbleiben dann auch die Daten.

Neben ChatGPT gibt es weitere künstliche Intelligenzen, die ähnliche Funktionen bieten. Wir haben eine Auswahl zusammengestellt-

Diese KI-Tools gibt es neben ChatGPT

Bloom ist ein von Forscher*innen entwickeltes Open-Source-Projekt.

ChatABC verfügt über zusätzliche Funktionen wie Teamzusammenarbeit, Prompt Library und Never-Down-Service.

ChatPDF ist eine KI-Anwendung, um PDF-Dateien hochzuladen und dann die KI zu den PDF-Inhalten zu befragen.

Claude ist eine Familie großer Sprachmodelle, die von dem US-Start-up Anthropic entwickelt wurden. Die KI hat eine ethische Ausrichtung. 

DeepL Write ist ein KI-Schreibassistent, der dabei unterstützt, bessere Texte zu schreiben.

Das Open-Source-Sprachmodell Dolly wurde von dem US-Unternehmen Databricks entwickelt und ist sowohl für Forschungs- als auch kommerzielle Zwecke frei verfügbar. 

Die Open-Source-Sprachmodellreihe Falcon wurde vom Technology Innovation Institute (TII) in Abu Dhabi konzipiert. Falcon 180B gilt als eines der größten, jemals trainierten LLM. 

Gemini ist eine Serie multimodaler Sprachmodelle Googles und baut auf den zuvor veröffentlichten Modellen LaMDA und PaLM auf. 

Das Open-Source-Projekt GPT4All ist eine ChatGPT-Alternative, die lokal auf dem Rechner ausgeführt werden kann. 

Grammarly ist ein Schreibassistent, der Rechtschreib-, Grammatik-, Interpunktions-, Klarheits- und Übermittlungsfehler überprüft und mittels KI einen Ersatz für den Fehler sucht. 

Hugging Face ist eine Community, die auf Basis von ChatGPT und GPT4all eigene Sprachmodelle baut. 

Das von Meta AI entwickelte multimodale Sprachmodell ImageBind soll verschiedene Daten wie Text, Bild, Audio aber auch Sensordaten verarbeiten und verknüpfen. 

LLaMA ist eine Familie großer Sprachmodelle aus dem Hause Meta. Es gibt unterschiedlich große Versionen, außerdem Feintunings wie Alpaca, Vicuna und Gorilla mit Fokus auf bestimmten Funktionen. 

Das Open-Source-Konversationssprachmodell LaMDA (Language Model for Dialogue Applications) wurde von Google AI speziell für Dialoganwendungen entwickelt. 

Die KI des deutschen Start-ups Aleph Alpha besteht derzeit aus drei Modellen, die sich in Komplexität und Leistungsfähigkeit unterscheiden. Die Luminous-Familie ist multimodal.

Microsoft Copilot ist eine Assistentenfunktion mit Künstlicher Intelligenz für Microsoft-365-Anwendungen und -Dienste, Windows 11 und Microsoft Bing.

Das Sprachmodell Mistral Large wurde von Mistral AI für fortgeschrittene Texterstellung, Schlussfolgerungen und mehrsprachige Unterstützung konzipiert

Neuroflash ist ein KI-Text- und Bildgenerator – allerdings vor allem für Marketingtexte.

Das Open-Source-Sprachmodell Orca 2 von Microsoft soll ähnliche Leistungen wie die größeren KI-Systeme erbringen, aber mit geringerer Rechenleistung, um weniger Energie zu verbrauchen. 

PaLM ist die Abkürzung für Pathways Language Model, eine von Google konzipierte Familie großer Sprachmodelle. PaLM 2 wird in verschiedenen Google-Produkten verwendet, darunter das Chat-Tool Bard

Der T5 (Text-to-Text Transfer Transformer) von Google AI ist ein leistungsstarkes Sprachmodell für Textaufgaben wie Übersetzungen oder Zusammenfassungen - allerdings nicht speziell darauf ausgelegt, als interaktiver Chatbot wie ChatGPT zu fungieren. 

Die Plattform SchulKI wurde von Lehrkräften gegründet und wird gemeinsam mit Forschenden und Programmiertalenten entwickelt. 

Perplexity AI ist eine KI-Suchmaschine, die ähnlich wie ChatGPT funktioniert, aber auch Quellen angibt. Zudem werden unter dem Text „related“-Anfragen angezeigt.

Smodin ist ein KI-basiertes Tool für die automatische Textgenerierung. Das Tool bietet außerdem einen Plagiatscheck.

You.com ist der KI-Chatbot der Suchmaschine You.com

(Quellen: unterrichten.digital und Manuel Flick)

Diese Auswahl erhebt keinen Anspruch auf Vollständigkeit und kann und soll fortlaufend ergänzt werden. Schreibt uns, welche KI-Tools ihr nutzt und in dieser Liste ergänzt werden sollen!