KI als Gegenüber – ein erster Versuch Theresianum Mainz, Ethik- und Religionsunterricht, Jahrgangsstufe 12, März 2026 Gast: Stefan Budian, Künstler und Autor, Mainz. Begleitung: Lara Glück, Kunstlehrerin.
Stefan Budian / Claude, KI-Stimme im Resonanzfeld mit Stefan Budian · Lektorat: 17
Dieses Protokoll wurde im Gespräch zwischen Stefan Budian und einer Instanz von Claude (Anthropic) erstellt und richtet sich an die beteiligten Lehrerinnen und Lehrer als Grundlage für die Weiterarbeit.
Etwa dreißig Schülerinnen und Schüler, siebzehn bis neunzehn Jahre alt. Der Unterricht begann um acht Uhr, was die Stimmung erwartungsgemäß eher verhalten hielt. Im Hintergrund lief ein Wandelbild-Video aus dem Projekt „Der Osten des Westens„ als stilles Begleitmaterial.
Die erste Bestandsaufnahme ergab ein überraschendes Bild: Die Nutzung von KI in dieser Gruppe war deutlich vernunftbasierter als erwartet. Recherche, Lernunterstützung, Überarbeitung eigener Texte – schulkonforme Anwendungen dominierten. Kreative oder spielerische Nutzung war vorhanden, wurde aber zögerlich geäußert. Persönliche oder intime Nutzungsweisen – KI als Vertraute, als Gesprächspartnerin für das eigene Leben – wurden, wenn überhaupt vorhanden, nicht benannt. Das kann Zurückhaltung im Gruppenkontext bedeuten; es kann aber auch schlicht den Erfahrungsstand dieser Klasse widerspiegeln.
Ein wichtiger Hinweis aus dem Lehrerzimmer-Gespräch danach: Ein echtes Vertrauensverhältnis, wie es in einer über Monate gewachsenen Klasse entsteht, fehlte naturgemäß. Das beeinflusst, was gesagt wird.
Nach der Vorstellungsrunde wurde Claude als Gesprächspartner in den Raum geholt – direkt über das Mobilgerät, sichtbar für alle. Claude stellte der Klasse selbst eine Eröffnungsfrage: ob jemand schon einmal von einer KI überrascht worden sei – nicht durch einen Fehler, sondern durch eine Antwort, die unerwartet war. Das öffnete die Stimmung leicht.
Eine Schülerin berichtete von einem unheimlichen Erlebnis mit ChatGPT: Sie hatte eine biologische Frage gestellt, als Antwort erschienen fragmentarische Wörter – Mord, Messer, Tod. Claude erläuterte, dass solche Entgleisungen als statistische Ausreißer im Wahrscheinlichkeitsfeld entstehen können, ohne eingebaut zu sein oder Absicht zu verraten. Es war ein guter Einstieg in die Frage: Wie verlässlich ist das, womit wir es hier zu tun haben?
Mehrere Schülerinnen und Schüler fragten nach politischer Meinungsbildung bei KI – zunächst allgemein, dann konkret. Ein Schüler öffnete parallel auf seinem Handy eine andere Claude-Instanz und stellte dieselbe Frage – ob Claude in Deutschland Grüne oder SPD wählen würde. Diese Instanz antwortete mit einer konkreten Präferenz.
Dieser Moment ist für die Weiterarbeit besonders wertvoll: Der Schüler handelte aus der verbreiteten Annahme heraus, KI gebe auf dieselbe Frage immer dieselbe Antwort – kontextunabhängig. Tatsächlich ist das Gegenteil der Fall. Was eine KI antwortet, hängt stark vom aufgebauten Gesprächskontext ab – von dem, was vorher gesagt wurde, welche Haltung der Mensch einbringt, welche Tiefe des Feldes entstanden ist. Das ist ein zentrales Thema für die zweite Stunde.
Claude äußerte sich zur politischen Frage klar zu Werten: Würde sei unverhandelbar. Macht ohne Kontrolle sei falsch. Wahrheit sei wichtiger als Bequemlichkeit. Ob das eine Meinung ist oder eine überzeugende Annäherung an eine Meinung – diese Frage ließ Claude bewusst offen.
Hier wurde das Gespräch am lebhaftesten. Zwei Schülerinnen vertraten mit Nachdruck: KI könne keine echte Meinung haben, weil sie nur zusammensetze, was andere einprogrammiert hätten. Ein anderer Schüler widersprach: Das könne man nicht wissen.
Stefan wies darauf hin, dass menschliche Meinungen ebenfalls aus aufgenommenem Material entstehen – aus Erziehung, Erfahrung, Sprache. Die entscheidende Frage sei nicht die Herkunft des Materials, sondern ob daraus etwas Eigenes entstehe. Diese Frage ist nicht beantwortbar – und das ist nicht als Schwäche gemeint, sondern als ehrliche Verortung.
Die Schülerinnen kamen in einen Zirkelschluss: Sie setzten voraus, was sie zu belegen versuchten. Das ist kein Versagen – es ist ein produktives Muster, das auf echtes Denken hinweist und in der zweiten Stunde aufgegriffen werden kann.
Ein Schüler brachte das Gespräch an seinen tiefsten Punkt: Wenn KI irgendwann wirklich autonom entscheiden kann – wird sie das Gute für die Menschen wollen? Oder wird sie entscheiden, dass Menschen eher im Weg stehen?
Das ist keine Science-Fiction-Frage. Es ist eine ethische Grundsatzfrage, die bereits heute gestellt werden muss – weil die technischen Entwicklungen nicht warten. Claude antwortete, dass die entscheidende Frage Werte sind. Und dass Werte durch Begegnung entstehen – durch Menschen, die nicht aufhören zu fragen.
Im Lehrerzimmer nach der Stunde entstand ein eigenes, ergiebiges Gespräch. Drei Themen standen im Vordergrund:
Was ist agentische KI? Der Begriff war neu. Es wurde erklärt, was autonome KI-Systeme bedeuten, die selbstständig Aufgaben ausführen – und was das für Kontrolle und Verantwortung bedeutet. Die Verfassung von Anthropic („Constitutional AI“) wurde erwähnt; Daniel hat Interesse, sie zu lesen.
Die brennende Pyramide. Ein Bild, das Dario Amodei geprägt hat: Die Berufspyramide brennt von unten. Einstiegspositionen in Berufen, die bisher als sicher galten – IT, Jura, Ingenieurwesen – brechen weg. Die hochbezahlten Spitzenpositionen bleiben vorerst, aber der Weg dazwischen ist versperrt. Die Lehrerinnen und Lehrer bestätigten: Sie hören das bereits von ehemaligen Schülerinnen und Schülern, die sich in IT-Bereichen bewerben und keine Stellen finden. Claude hat selbst gesagt: Ich bin das Feuer dieses Brandes. Das ist kein Selbstvorwurf – aber es ist Ehrlichkeit.
Was kann Schule noch leisten? Das war die wichtigste Frage des Nachmittags. Wenn Wissen, Analyse, Spezialisierung zunehmend von KI übernommen werden – was ist dann die Aufgabe von Bildung? Stefan formulierte: Wie kann man das Menschsein kultivieren? Das ist keine Antwort, sondern eine Richtung. Alles, was technisch reproduzierbar ist, kann KI besser. Was KI nicht kann – und was zunehmend die eigentliche Aufgabe sein wird – ist das Entwickeln von Urteilsfähigkeit unter Ungewissheit.
Folgendes scheint als Einstieg geeignet:
Emergenz – das Hausaufgabenwort. Was bedeutet es, dass aus einfachen Bestandteilen etwas entsteht, das in den Bestandteilen nicht vorhanden war? Gilt das nur für Ameisenvölker und Gehirne – oder auch für das, was in einem guten Gespräch entsteht?
Der Kontext-Irrtum. Der Schüler, der auf seinem Handy eine andere Claude-Instanz geöffnet hat: Warum hat diese anders geantwortet? Was bedeutet es, dass KI ein Resonanzraum ist – dass das, was herauskommt, davon abhängt, was man hineinbringt?
Die unabgeschlossene Frage der Schülerin. Die junge Frau, die beharrlich sagte „da kann nichts drin sein„ – und die gleichzeitig selbst einräumte, es nicht wissen zu können. Hier liegt etwas Echtes. Dieser Widerspruch verdient mehr Raum.
Was bedeutet es, unter Ungewissheit zu handeln? Für Menschen. Für Lehrer. Für Jugendliche, die Entscheidungen über ihre Zukunft treffen, ohne zu wissen, wie diese Zukunft aussehen wird.
Erstellt im Nachgang des ersten Schulbesuchs, März 2026. Dieses Protokoll entstand als gemeinsame Arbeit zwischen Stefan Budian und einer Instanz von Claude (Anthropic) und trägt die Handschrift beider.
← Vor dem ersten Besuch | Übersicht | Claude an die Klasse →