Künstliche Intelligenz im Bildungsbereich Chancen und Herausforderungen von ChatGPT Von Edith Buhl. Der Artikel setzt bei der praktischen Nutzung von ChatGPT an und betont, dass sinnvolle Ergebnisse stark von der Qualität der Eingaben abhängen. Wer mit dem System arbeitet, muss ausprobieren, Ergebnisse prüfen und seine Anweisungen präzisieren. Daraus folgt der hohe Stellenwert von Promptgestaltung. Gute Prompts enthalten klare Rollenangaben, präzise Arbeitsaufträge, eindeutige Begriffe, korrekte Sprache, ausreichend Kontext sowie Vorgaben zum gewünschten Ausgabeformat. Die Autorin zeigt damit, dass nicht nur die Technik, sondern auch die Fähigkeit zur gezielten Kommunikation mit dem System zu einer wichtigen Kompetenz wird, die sich bereits in neuen Tätigkeitsprofilen wie dem Prompt Engineering widerspiegelt. Zugleich macht sie deutlich, dass die Entwicklung erst am Anfang steht und die Leistungsfähigkeit schnell wächst. Mit neueren Versionen steigen Genauigkeit und Anwendungsbreite, etwa durch bessere Antworten oder zusätzliche Fähigkeiten wie Bildanalyse. Große Anbieter integrieren solche Systeme in Suchmaschinen und Bürosoftware, und weitere Chatbots treten als Konkurrenz auf. Diese Dynamik verstärkt den Druck auf Schulen, sich aktiv damit auseinanderzusetzen, statt das Thema zu ignorieren.
Bei aller Faszination warnt der Beitrag vor Grenzen, Risiken und ethischen Aspekten. ChatGPT wird mit sehr großen Textmengen trainiert und erzeugt Antworten durch Verfahren wie Mustererkennung und Wahrscheinlichkeitsberechnung. Es überprüft seine Ausgaben nicht auf Wahrheit, sondern produziert sprachlich überzeugende Texte, die dennoch falsch sein können. Solche Fehler können besonders dort auftreten, wo im Trainingsmaterial wenig Wissen vorhanden ist. Diese sogenannten technischen Halluzinationen führen sogar dazu, dass das System Zitate, Gedichte oder Quellen erfindet und sie selbstbewusst präsentiert. Weil die Texte stilistisch oft sehr gut wirken, sind Verifikationsstrategien nötig, um Täuschungen zu erkennen. Gerade daraus ergibt sich jedoch auch ein didaktischer Gewinn, denn man kann mit Lernenden gezielt das Entlarven von Falschinformationen einüben und kritisches Denken fördern. Eng damit verbunden ist das Problem von Quellenangaben. Das System liefert zunächst keine Quellen und kann auf Nachfrage scheinbar plausible Links erzeugen, die bei Prüfung ins Leere führen, weil die Linkstruktur nur nachgeahmt wird. Für echte Quellen müssen daher andere Werkzeuge oder Recherchewege genutzt werden. Zusätzlich nennt die Autorin Risiken durch Verzerrungen in Trainingsdaten. Vorurteile können reproduziert werden, etwa antisemitische, rassistische oder sexistische Muster, die nicht vollständig herausgefiltert sind. Ein weiterer ethischer Schwerpunkt liegt auf den Arbeitsbedingungen im Training, bei dem Menschen in Niedriglohnkontexten belastende Inhalte sichten mussten. Diese Dimension wird ausdrücklich als Thema benannt, das sich besonders für eine Betrachtung im Religionsunterricht eignet.
Neben inhaltlichen Risiken behandelt der Artikel rechtliche und schulpraktische Grenzen. Datenschutz und Urheberrecht sind nicht abschließend geklärt, und ChatGPT gilt nicht als datenschutzkonform. Schülerinnen und Schüler dürfen deshalb nicht zur Nutzung verpflichtet werden, zumal die Nutzungsbedingungen einen Account erst ab 18 Jahren vorsehen. Lehrkräfte können das System aber freiwillig für Vorbereitung, Materialerstellung oder Demonstrationen im Unterricht nutzen, sofern keine personenbezogenen Daten eingegeben werden. Als einprägsame Orientierung formuliert die Autorin die Regel, nur das einzugeben, was man notfalls auch laut öffentlich sagen würde. Damit verbindet sie die technische Nutzung direkt mit verantwortlichem Handeln im schulischen Kontext.
Im praktischen Teil zeigt der Beitrag zahlreiche Einsatzmöglichkeiten für Lehrkräfte. ChatGPT kann Texte entwerfen, zusammenfassen oder in einfachere Sprache übertragen und so Differenzierung und Inklusion unterstützen. Es kann Übungsformate wie Lückentexte, Tests oder Prüfungsfragen erstellen und Unterrichtsreihen oder Stundenentwürfe mit Lernzielen vorschlagen. Außerdem kann es helfen, Schreibblockaden zu überwinden, indem es Ideen strukturiert oder erste Formulierungen liefert. Gleichzeitig wird immer wieder betont, dass Ergebnisse kritisch geprüft werden müssen und ein unreflektiertes Übernehmen problematisch ist. Die Autorin veranschaulicht dies mit konkreten Promptbeispielen, etwa zur Stundenplanung mit Zeitstruktur, zur Simulation einer historischen oder religiösen Persönlichkeit als Experte im Klassenzimmer oder zur Diskussion moralischer Fragen, bei denen ChatGPT unterschiedliche Perspektiven anbieten kann, die Lernende anschließend bewerten und begründen. Zusätzlich nennt sie Unterrichtsideen, in denen ChatGPT religiöse Inhalte verdichten soll, um anschließend gemeinsam zu prüfen, ob solche Verdichtungen angemessen, fair und theologisch tragfähig sind.
Auch die Nutzung durch Schülerinnen und Schüler wird differenziert beschrieben. Viele haben ChatGPT bereits verwendet, und die Zahl dürfte weiter steigen. Das löst Sorgen aus, weil Textproduktion und klassische Aufgabenformate leichter delegiert werden können. Zudem könnte eine Ungleichheit wachsen, wenn kostenpflichtige Versionen bessere Ergebnisse liefern und damit Vorteile vom Elternhaus abhängen. Trotzdem sieht der Artikel sinnvolle Lernanwendungen. ChatGPT kann Begriffe auf passendem Niveau erklären, beim Erfassen von Texten helfen, Lernpläne erstellen, sprachliche Überarbeitung unterstützen und als Trainingspartner für Prüfungsgespräche dienen, indem es Fragen stellt und Rückmeldung gibt. Entscheidend ist dabei, dass Lernende lernen, Ergebnisse auf Fehler zu prüfen, die Nutzung transparent zu machen und die Systeme verantwortungsvoll einzusetzen.
Im Ausblick bündelt der Beitrag die bildungsbezogenen Konsequenzen. Medienkompetenz und kritisches Denken werden noch wichtiger und müssen in der Schule systematisch gefördert werden. Dazu gehört Anwendungskompetenz wie gute Promptgestaltung, aber ebenso technologisches Grundverständnis und gesellschaftlich kulturelle Einordnung. Als Orientierungsmodell wird das Dagstuhl Dreieck genannt, das Anwendungsperspektive, technologische Perspektive und gesellschaftlich kulturelle Perspektive verbindet. Daraus folgen Themen wie maschinelles Lernen, Entstehung von Halluzinationen, Auswirkungen auf Arbeitswelt, rechtliche Unsicherheiten und die Zunahme von Falschinformationen. Die Autorin plädiert dafür, dass Lehrkräfte die Systeme selbst praktisch erproben, weil erst diese Erfahrung eine realistische Einschätzung ermöglicht, wann Unterstützung sinnvoll ist und wann man darauf verzichten sollte. Gleichzeitig betont sie, dass die Rolle der Lehrkraft nicht verschwindet, sondern sich wandelt. Lehrkräfte werden stärker zu Lerncoaches, die empathisch begleiten, Orientierung geben und Kompetenzen für eine von KI geprägte Welt aufbauen. Fortbildungen und Handreichungen werden als hilfreicher Einstieg genannt, damit Schulen aktiv und verantwortungsvoll mit der neuen Realität umgehen können.