Der Artikel setzt bei gegensätzlichen Erzählungen über Künstliche Intelligenz an. Einerseits wird KI als Lösung fast aller Menschheitsprobleme gefeiert, andererseits als Bedrohung bis hin zur möglichen Auslöschung des Menschen dargestellt. Vor diesem Hintergrund werden Regulierung und Ethik zu zentralen Themen. Der Autor betont, dass ethische Klärungen Voraussetzung für sinnvolle Regeln sind und dass Kirche und Theologie einen eigenen Beitrag leisten können, weil es beim KI Diskurs nicht nur um Technik, sondern um Menschenbilder und Grundfragen des Menschseins geht.
Als aktueller Auslöser der neuen Debatten wird ChatGPT genannt. Die Veröffentlichung leistungsfähiger Textgeneratoren habe einen dritten Aufschwung der KI Diskussion begünstigt. Gleichzeitig wird erklärt, wie solche Systeme funktionieren. Sie erzeugen Texte nicht durch Verstehen, sondern indem sie auf Basis großer Trainingsdaten in neuronalen Netzen statistisch wahrscheinliche Wortfolgen zusammensetzen. Sie beherrschen Grammatik, aber nicht Bedeutung und vor allem nicht die pragmatische Ebene menschlicher Kommunikation. Ihnen fehlt Intention, daher ist ihr Output ein Sprechen ohne Meinen. Daraus folgt, dass die Ergebnisse oft sprachlich überzeugend, inhaltlich aber mitunter erfunden oder auffällig unverbindlich sind. Die beeindruckende Oberfläche verdeckt, dass es sich um komplexe Vorhersagesysteme handelt.
Von dort aus beschreibt der Artikel das Spannungsverhältnis zwischen Mensch und Maschine. Menschen nutzen digitale Technik und neigen dazu, sie zu vermenschlichen, während sie sich zugleich immer stärker digitalen Strukturen anpassen. Damit kann Technik zum scheinbaren Subjekt werden und der Mensch zum Objekt. Die Folge ist bei vielen ein Gefühl von Unterlegenheit und Ausgeliefertsein, verstärkt durch Intransparenz von Datenerhebung Speicherung und Verarbeitung. Der Text fragt deshalb, wie das Verhältnis von Mensch und Maschine angemessen zu bestimmen ist und ob KI Freiheit vergrößert oder einengt.
Der Autor setzt sich auch mit apokalyptischen Warnungen vor einer KI Katastrophe auseinander und verweist darauf, dass solche Narrative in Filmen und Literatur verbreitet sind und auch ältere Motive wie die Golem Legende aufnehmen. Eine wirkliche dystopische Gefahr wäre allerdings erst bei einer starken KI denkbar, die ein Weltmodell und umfassende Handlungsfähigkeit hätte. Davon sei man bei heutigen Anwendungen weit entfernt. Dennoch wird eine entscheidende Frage aufgegriffen, die etwa Katharina Zweig formuliert: Nicht ob starke KI irgendwann möglich ist, sondern ob man sie überhaupt wollen sollte. Theologisch wird das als Frage nach Hybris zugespitzt. Warum will der Mensch sich ein Geschöpf nach seinem Bild schaffen, das ihm Unterstützung oder sogar Beziehung bieten soll. Dahinter kann der Versuch stehen, selbst Gott zu spielen.
Ein weiterer Schwerpunkt ist die Datafizierung des Menschen. KI braucht digitale Daten. Damit die Welt und der Mensch für Maschinen verarbeitbar werden, müssen analoge Erfahrungen vermessen, quantifiziert und in Zahlen übersetzt werden, etwa im Selftracking mit Smartwatch oder Fitness App. Das führt zu zwei Problemen. Erstens entstehen zwangsläufig Vereinfachungen und Übertragungsfehler, weil digitale Systeme Zwischenstufen und Unschärfen nur begrenzt abbilden. Zweitens wächst die Tendenz zu immer lückenloserer Überwachung, weil gute Vorhersagen das vollständige Vorliegen von Daten voraussetzen. Der Text zeigt am Beispiel von Navigation mit Echtzeitdaten, wie nützlich solche Systeme sind und zugleich wie problematisch sie aus Datenschutzperspektive werden.
Besonders wichtig ist die Beobachtung, dass Quantifizierung immer Wertsetzung enthält. Wenn ein Gerät bestimmte Ziele als gut markiert und mit Erfolgsmeldungen belohnt, wirkt das wie Konditionierung und kann Selbstbewertung beeinflussen. Zudem entsteht die Gefahr, dass Nichtmessbares abgewertet wird. Wenn ein Erlebnis nicht aufgezeichnet oder geteilt wurde, erscheint es kulturell weniger real oder weniger wert. Der Autor betont, dass dies kein pauschaler Kulturpessimismus sein soll, aber dass digitale Werkzeuge kritisch begleitet werden müssen, damit sie Werkzeuge bleiben und Menschen nicht zunehmend maschinenförmig werden.
Deutlich wendet sich der Artikel gegen transhumanistische Visionen, die den Menschen radikal als Daten und Geistinformation verstehen und die Überwindung von Endlichkeit durch technische Erweiterung anstreben bis hin zur Idee des Minduploads. Diese Vorstellungen beruhen auf einem problematischen Dualismus von Geist und Körper und widersprechen einem christlichen Verständnis des Menschen als leibseelischer Einheit. Gerade Leiblichkeit mit Vulnerabilität Begrenztheit und Endlichkeit mache menschliche Identität aus und unterscheide Menschen von technischen Artefakten. Darum kritisiert der Autor Machbarkeitsideologien und reduktionistische Modelle, die Menschen als informationsverarbeitende Maschinen deuten.
Im Blick auf das häufige Narrativ einer Partnerschaft zwischen Mensch und KI wird auf Interessenlagen hingewiesen. Anbieter betonen gerne Kooperation, doch Technik entwickelt sich nicht von selbst, sondern wird von Menschen mit Zielen und Werten gestaltet. Außerdem bleiben wesentliche Grenzen bestehen, weil Maschinen weder echte Semantik und Pragmatik noch die existenzielle Erfahrung von Verletzlichkeit und Endlichkeit haben. Hinzu kommt das Unbehagen, das viele Menschen bei sehr menschenähnlichen Robotern empfinden, beschrieben mit dem Konzept des Uncanny Valley.
Am Ende stellt der Artikel die Frage, ob KI nicht trotzdem menschliche Freiheit fördern kann, weil sie Informationen schneller verarbeitet und Unsicherheiten reduziert. Beispiele sind Navigation oder Hilfe beim Schreiben. Der Text definiert Freiheit als verantwortliche Entscheidung zwischen Optionen auf Grundlage von Informationen. KI kann hier helfen, doch sie bleibt begrenzt durch Datenqualität, Verzerrungen und Programmierung. Selbst bei optimalen Bedingungen kann sie Entscheidungsräume zugleich erweitern und verengen, weil ihre Empfehlungen so überzeugend erscheinen, dass Menschen sich kaum trauen zu widersprechen, etwa in medizinischen Anwendungen. Damit entsteht eine neue Form von Bevormundung durch vermeintliche Gewissheiten.
Der Schluss betont die bleibende Ambivalenz. Es geht nicht um Alarmismus oder Verbote, sondern um kritische Begleitung, gesellschaftlichen Diskurs und persönliche Abwägung zwischen Komfort Datenschutz und Abhängigkeit von Konzernen. Skepsis gegenüber ökonomisch motivierten Versprechen ist notwendig und wird am besten durch eigene Auseinandersetzung mit Technik gestützt. Für Schule und Religionsunterricht bedeutet das, KI nicht nur zu fürchten oder zu verherrlichen, sondern als Anlass für Medienbildung und für anthropologische und theologische Reflexion zu nutzen, damit im Zentrum der Debatte der Mensch bleibt.