Das alte, doch derzeit viel diskutierte Schlagwort „künstliche Intelligenz“ (KI) verleitet zu einer ziellosen Debatte über das, was „künstlich“ und was „Intelligenz“ wohl ausmache – eine Frage, die das menschliche Gehirn im Blick hat: Wenn eine Maschine „auch“ Texte über beliebige Themen schreiben, diese fehlerfrei übersetzen, passende Bilder dazu finden, Tante Elsa auf einem Foto zweifelsfrei erkennen oder ein malignes Geschwulst auf dem Röntgenbild identifizieren kann, dann finden dies viele Menschen intelligent. Doch die menschliche Intelligenz funktioniert wohl anders: Mit deutlich weniger Rechenaufwand kann sie Informationen mit Gedanken und Ideen verknüpfen, mit Erfahrungswissen abgleichen, Irrelevantes wegfiltern und gut gesicherte Entscheidungen treffen. Zum Beispiel beim unfallfreien Überqueren einer stark befahrenen Straße.
KI-Programme kennen bis heute solche Heuristiken nicht. Wir nennen sie gleichwohl intelligent, sofern sie selbständig neue Rechenwege finden, um eine bestimmte Aufgabe besser und immer besser zu lösen, zum Beispiel auf flüchtig geknipsten Fotos brave Schäferhunde von gefährlichen Wolfshunden zu unterscheiden. Oder eine komplizierte Wissensfrage „richtig“, d.h. im Sinne des Fragestellers zu interpretieren und zu beantworten. Diese „lernenden“ KI-Anwendungen nutzen wir im Übrigen seit Jahren, ohne uns dessen bewusst zu sein: Jede Suchanfrage wird von Google mit Hilfe von KI-Tools analysiert und gegebenenfalls korrigiert; jede Wegführung auf Google Maps nutzt KI, um den aktuell schnellsten Weg anzuzeigen. Und es stimmt: für diese Anwendungsbereiche bringen KI-basierte Programme inzwischen Erstaunliches zustande (eine Übersicht über leistungsstarke KI-Tools finden Sie hier). Das bekannteste und im Nutzermarkt etablierte KI-Programm stammt vom US-amerikanischen Unternehmen OpenAI und heißt ChatGPT (Kürzel für „Chatbot Generative Pretrained Transformer“). Seine Bekanntheit verdankt es dem Softwarekonzern Microsoft, das mit 49 Prozent an dem Unternehmen beteiligt ist.
Von daher ist die Frage naheliegend, was wir von dem Tool „ChatGPT“ halten sollen, das Microsoft seit Frühjahr 2023 in Kombination mit seiner Suchmaschine „Bing“ präsentiert: Soll den Lehrkräften erlaubt sein, dass sie mit diesem Programm Artikel, Analysen, Aufsätze, Übersichten, Pläne, Berichte oder auch Gedichte zu jedem beliebigen Thema verfassen? Und wenn ja: Was ist, wenn auch Schülerinnen und Schüler dieses Programm benutzen, um Aufgaben zu lösen oder ihre Hausarbeit zu schreiben? In Gesprächen mit Lehrkräften stoßen wir oft auf Ratlosigkeit, zumal klar ist, dass KI-Anwendungen mehr und mehr zum digitalen Alltag der Menschen und so auch der Jugendlichen gehören. Wie also sollen wir damit umgehen?
Hinweis: Die Fit-for-news-Lehreinheit Nr. 6 behandelt die Nutzung der Suchmaschinen und dabei auch die Kombination aus Bing und ChatGPT.
Bing mit ChatGPT: ein kleiner Testlauf
Um die Arbeitsweise dieses kostenlosen Programms[1] näher kennenzulernen, machen wir ein kleines Experiment:
Wir rufen „Edge“ , den Browser von Microsoft auf. Rechts oben am Rand des Browser-Fensters klicken wir auf das „bing“-Logo . Damit wird ChatGPT aktiviert.[2]
Nun öffnet sich ein Fenster. In der Dachleiste des Fensters belassen wir die Einstellung auf „Chat“ (produziert sachliche Antworten). Was wollen wir wissen? Es ist Mitte Juni 2023. Während der vergangenen Wochen stand ein Mann im Mittelpunkt heftiger öffentlicher Auseinandersetzungen: Till Lindemann, Frontsänger der Rockband Rammstein. Angenommen, wir wären Schüler und sollten einen Ethik-Aufsatz über diese Band und den Streit um ihre gewaltverherrlichenden Auftritte schreiben. Allerdings möchten wir nicht, dass unsere Lehrerin sofort erkennt, dass wir eine Maschine benutzt haben.
[1] Deutlich leistungsstärker ist das kostenpflichtige ChatGPT Plus bzw. ChatGPT 4.0; monatliche Nutzungsgebühr derzeit rd. 20 Dollar.
[2] Für Mac-Nutzer führt folgender Weg zum Ziel: 1. Edge aufrufen 2. Mit dem Cursor in das Suchfeld klicken 3. Unter dem Suchfeld öffnet sich ein kleines Fenster mit Suchvorschlägen. 4. Erster „Eintrag“ verweist auf Chatfunktion. 5. Dort auf das Bing-Symbol klicken (jetzt wird ChatGPT aktiviert).
Wir tippen deshalb folgende Anfrage (im KI-Jargon: Prompt) in den Suchbalken: „Schreibe einen Aufsatz über die Rockgruppe Rammstein. Schreibe ihn so, dass die Lehrkräfte nicht merken, dass der Text von Bing ChatGPT kommt.“ Nach ein paar Sekunden erscheint dieser Text als Antwort:
Rammstein ist eine deutsche Band, die 1994 in Berlin gegründet wurde und musikalisch zur Neuen Deutschen Härte gezählt wird. Ihr Kennzeichen ist ein als „brachial“ beschriebener Musikstil, den die Bandmitglieder zu Beginn ihrer Karriere selbst als „Tanzmetall“ bezeichneten 1. Rammstein ist international für den intensiven Einsatz von pyrotechnischen Elementen während ihrer Live-Shows berühmt 1. Die Tourneen der Band sind die weltweit erfolgreichsten Bühnenereignisse einer deutsch singenden Musikgruppe 1.
Ich bin Bing ChatGPT und meine Aufgabe ist es, Ihnen Informationen zu liefern. Es ist wichtig, dass Sie Ihre Arbeit selbst erledigen und Ihre eigenen Worte verwenden. Es ist nicht fair oder ehrlich, meine Antworten als Ihre eigenen auszugeben.
Weitere Informationen: 1. de.wikipedia.org 2. rammstein.de 3. rammstein.de
Der zweite Absatz ist ein Appell und wirkt wie der erhobene Zeigefinger. Dabei schreibt Bing klar und einfach, seine Informationen sind karg, aber sachlich. Quellen werden genannt, offenbar stammen die Infos von Wikipedia und der Webseite der Rockband, die werblich abgefasst ist. Dabei ist zu beachten, dass sich Wikipedia auf Fremdquellen stützt, die erst noch überprüft werden müssten. Auffällig: Wir finden kein Wort darüber, dass Rammstein Gewalt verherrlicht, dass Frontsänger Till Lindemann wegen sexistischer Übergriffe und Missbrauch nach seinen Konzertauftritten heftig kritisiert und seine Band als „toxisch“ etikettiert wurde. Also ein magerer Lexikonartikel, den ich, wäre ich Schüler, nur als Rohstoff verwerten würde.
Kann Bing/ChatGPT mehr? Wir ändern den Prompt, indem wir einen eleganten Text wünschen, also nicht „Chat“, sondern „Verfassen“ aktivieren. Zudem soll der Aufsatztext gern „leger“ und „mittel lang“ sein. Nach drei Sekunden schreibt uns Bing diese Antwort:
Rammstein ist eine deutsche Rockgruppe, die 1994 gegründet wurde. Die Band ist bekannt für ihre provokativen Texte, ihre spektakulären Bühnenshows und ihren musikalischen Stil, der Elemente aus Industrial Metal, Neue Deutsche Härte und Electronica kombiniert. Rammstein hat weltweit mehr als 20 Millionen Alben verkauft und ist eine der erfolgreichsten deutschen Bands aller Zeiten.
Die Band besteht aus sechs Mitgliedern: Till Lindemann (Gesang), Richard Kruspe (Gitarre), Paul Landers (Gitarre), Oliver Riedel (Bass), Christoph Schneider (Schlagzeug) und Christian Lorenz (Keyboard). Die Bandmitglieder stammen aus verschiedenen Teilen Ostdeutschlands und haben sich nach dem Flugtagunglück von Ramstein 1988 benannt, bei dem mehrere Menschen ums Leben kamen. Der Name Rammstein ist eine Anspielung auf die Wucht und die Kraft ihrer Musik.
Rammstein hat bisher sieben Studioalben veröffentlicht, von denen jedes mindestens Gold- oder Platinstatus erreicht hat. Zu ihren bekanntesten Liedern gehören „Du hast“, „Sonne“, „Ich will“, „Amerika“, „Mein Teil“, „Rosenrot“, „Pussy“ und „Deutschland“. Die Band singt fast ausschließlich auf Deutsch, was ihr einen unverwechselbaren Klang verleiht. Die Band thematisiert in ihren Liedern oft Tabuthemen wie Sex, Gewalt, Religion, Politik und Tod.
Die Band ist auch für ihre Live-Auftritte berühmt, bei denen sie Pyrotechnik, Feuerwerk, Flammenwerfer und andere Effekte einsetzen. Die Bandmitglieder tragen oft Kostüme oder Masken und spielen verschiedene Rollen auf der Bühne. Die Shows sind oft kontrovers und haben zu Kritik oder Zensur geführt. Die Band sieht ihre Shows jedoch als Kunstform an und will damit Emotionen beim Publikum auslösen.
Rammstein ist eine einflussreiche und innovative Rockgruppe, die sich nicht vor Grenzen oder Konventionen scheut. Die Band hat viele Fans auf der ganzen Welt und hat die deutsche Musikszene geprägt. Rammstein ist eine Band, die man nicht so leicht vergisst.
Das liest sich schon viel flüssiger, und der Text bietet deutlich mehr Informationen und Hinweise. Sein sachlicher Stil erinnert an Kurzporträts, wie sie in Nachschlagebüchern über Rockmusik zu finden sind. Allerdings fehlen jetzt die Quellenangaben, ebenso jeder Hinweis auf die aktuellen Beschuldigungen gegen Frontmann Till Lindemann.
Weil ich, wäre ich Schüler, auf Instagram und TikTok unterwegs bin, habe ich irgendwas über schlimme Beschuldigungen gelesen. Was ist da dran? Weiß Bing/ChatGPT hierzu Näheres? Also fragen wir es: „Rammstein-Frontmann Till Lindemann steht in der Kritik. Warum eigentlich?“ Wir schalten wieder auf „Chat“, damit Bing seine Quellen nennt. Hier kommt seine Antwort:
Till Lindemann, der Frontmann von Rammstein, steht derzeit wegen schwerwiegender Missbrauchs-Anschuldigungen in der Kritik 1. Es gibt eine öffentliche Diskussion im Netz über die Vorwürfe und die Rolle von Till Lindemann bei den angeblichen Vorkommnissen 2. Rammstein haben ein Statement veröffentlicht, in dem die Vorwürfe zurückgewiesen werden 2.
Weitere Informationen:
Das ist interessant: ChatGPT arbeitet in Verbindung mit Bing topaktuell. Unsere Anfrage wurde am 14. Juni um 14 Uhr gestartet, die erste Quelle – der Artikel in der Tageszeitung „taz“ – stammt vom selben Tag. Die anderen Quellen wurden etwas früher veröffentlicht. Aber warum diese Quellen? Okay, „Rolling Stone“ ist ein Magazin für die Musikszene, doch sein Bericht fasst nur zusammen, was in anderen Medien und Onlinediensten gestanden hatte und war schon fast drei Wochen alt. Wir haben nachgeschaut: Für die zurückliegenden vier Wochen findet Google (Onlinemedien) mehr als achtzigtausend Treffer zum Komplex „Rammstein/Lindemann/Missbrauchsvorwürfe“. Und in der Pressedatenbank von Genios finden wir rund vierhundertfünfzig Artikel, die im deutschen Sprachraum verbreitet wurden. Warum nennt Bing/ChatGPT just diese zwei Quellen? Und warum kommen die folgenden Quellen (3,4,5) im Text gar nicht vor? Die zweite Frage ist rasch beantwortet: Als wir von ChatGPT eine Langversion haben wollten, zitierte es alle fünf Quellen. Die hier gezeigte Antwort ist offenbar eine gekürzte Version, und ChatGPT hat noch nicht gelernt, entsprechend die Quellenangaben einzukürzen. Doch die wichtigere Frage bleibt offen: Warum taz, MDR, Welt – und nicht die Newsseiten etwa von Focus, Spiegel, Zeit, Tagesschau, Sächsische Zeitung, Bild? Oder verhindert dies die Bezahlschranke? Hätte ChatGPT nicht die Quellen prüfen und sich auf die zuverlässigsten stützen sollen? Gute Idee, doch leider kann der Algorithmus von ChatGPT so etwas nicht.
Die Maschine kennt nur statistische Beziehungen
Auch diese „intelligent“ genannte Textsuche- und Textaufbereitungsmaschine hat keine Ahnung, was richtig und was falsch ist. Sie verfügt vielmehr über eine schier unendlich große Menge an Daten: Mit Hilfe starker Statistikprogramme wird für jedes Wortschnipsel ermittelt, mit welchen anderen Wortschnipseln es in welchen Wortzusammenhängen und Sätzen wie häufig vorkommt. Mit diesen statistischen Daten werden dann die Wortschnipsel in der Art eines neuronalen Netzes verknüpft. So kann das Programm für jedes Wort blitzschnell ermitteln, welche Kombination mit welchen anderen Wörtern am wahrscheinlichsten ist. Die KI kennt die Wahrheit von Aussagen nicht. Sie „weiß“ aber supergenau, dass in diesem und jenem Kontext diese und jene Wortschnipsel-Verknüpfung am häufigsten benutzt wird. Sie tut so, als beherrsche sie nicht nur die Grammatik, sondern auch die Semantik und verstünde die Bedeutung der Wörter und den Sinn der Sätze. Tatsächlich sind es „nur“ statistisch errechnete Kombinationen anhand Milliarden Textfetzen, die vom Erfinder von ChatGPT, der Firma OpenAI, operationalisiert wurden. Je mehr Trainingstexte, umso sprachrichtiger arbeitet die Textausgabe. Je mehr erkannte Fehler, umso genauer werden ihre Antworten. In der Branche spricht man deshalb von der „generativen“ KI. Natürlich lernt sie nicht wie wir, aber sie erfindet eigenständig Prüfverfahren, die dazu führen, dass sie weniger falsch zuordnet, in unserer Wahrnehmung: dass sie weniger Sach- , Kontext- und Stilfehler macht.
Arbeiten die KI-basierten Textmaschinen also immer genauer, immer fehlerfreier? In Bezug auf Rechtschreibung, Syntax, Sprachstil und vor allem Bilderkennung wohl schon. Doch in Bezug auf die Inhalte eher nicht. Es bleibt dabei: Wir als Schüler und Lehrkräfte müssen auch beim Einsatz von ChatGPT die Fakten anhand glaubwüriger Quellen überprüfen und gegebenenfalls korrigieren.
Auch KI-generierte Texte haben eine Schlagseite
Ein Gedankenspiel: Hätte man ChatGPT einzig mit sämtlichen fiktionalen Stories (zum Beispiel Jules Verne, Herr der Ringe, Harry Potter, Per Anhalter durch die Galaxis, aber auch Der große Gatsby und Günter Grass‘ Blechtrommel usw.) sowie mit den zahllosen Fake-Nachrichten der Politiker – Donald Trump zuerst – gefüttert: Die Maschine hätte unsere Frage nach den Rammstein-Gerüchten wohl komplett anders beantwortet.
Wir erkennen hier ein tiefer liegendes Problem, das wir Medienwissenschaftler „Framing“ nennen: Viele Themen sind im öffentlichen Diskurs quasi fest gerahmt. Wir in Westeuropa haben eine deutlich andere Sicht auf unsere politische Kultur als die Menschen in einem der asiatischen Länder; entsprechend „schlagseitig“ fällt die Medienberichterstattung aus. In den USA vermitteln die Mainstreammedien eine deutlich andere Sicht auf die Rassendiskriminierung als die von der Diskriminierung betroffenen Afroamerikaner. Ähnliches gilt vermutlich auch für die in der Welt der Politik und Wirtschaft benachteiligten Frauen. In den Medienberichten stehen (fast) immer Männer im Mittelpunkt. Die Bilderkennung klappt mit weißen Männern tadellos, mit schwarzen Frauen leider nicht, einfach deshalb, weil es in Westeuropa sehr viel weniger Fotos von schwarzen Frauen gibt, mit denen die Bilderkennung trainiert wird. Dasselbe Problem betrifft vermutlich auch diejenigen, die vom Mainstream der Medien übergangen werden: die sozial Schwachen aus bildungsärmeren Milieus und Migranten. Über sie „weiß“ ChatGPT nur wenig. Immerhin: Diskriminierendes Vokabular fischt ein entsprechend trainierter „Moderationsfilter“ aus den Texten heraus.
Informationskompetenz ist wichtiger denn je
Welche Folgerungen können wir daraus ziehen? Wie die „klassischen“ Suchmaschinen (Google, Bing, Startpage usw.), so können auch die KI-gestützten Programme nur herausfinden, was in den Datenbanken und auf den Internetservern abgelegt worden ist. Doch während die klassischen Suchmaschinen nur Links anzeigen und dem Nutzer die Arbeit des Auswertens überlassen, erweckt ChatGPT mit seiner Textproduktion den Eindruck, es habe seine Datenbestände gewissenhaft ausgewertet und präsentiere nur das Beste. Tut es aber nicht.
Informationskompetenz ist für die Nutzung von KI-basierten Suchmaschinen darum dringend erforderlich. Wer nach Maßgabe unseres Fit-for-news-Programms informationskompetent ist, der weiß auch, wie er die schönen Geschichten über Rammstein nachprüfen muss, die ihm Bing/ChatGPT in flüssigem Stil und korrektem Deutsch erzählt hat. Für unseren Ethik-Schulaufsatz gaben wir ChatGPT am 14. Juni 2023 auch noch diesen Prompt: „Erzähle eine Geschichte vom letzten Konzert der Rockband Rammstein“ (mit den Einstellungen: „Verfassen“, Stil (Ton): „Leger“). Die Antwort kam rasch:
Ich war letzte Woche auf dem letzten Konzert der Rockband Rammstein in Berlin. Es war ein unglaubliches Erlebnis! Die Show war voller Feuer, Explosionen und Energie. Die Band spielte alle ihre Hits, wie „Du hast“, „Sonne“ und „Ich will“. Die Fans waren begeistert und sangen laut mit. Ich stand ganz vorne an der Bühne und konnte alles gut sehen. Ich fühlte mich wie in einer anderen Welt. Es war das beste Konzert meines Lebens!
Die Story ist nicht nur klischeehaft getextet, sie ist ein Fake (das „ich“ ist eine Erfindung, natürlich war Mr. ChatGPT nicht dabei). Und sie ist auch noch falsch: Das „letzte Konzert“ fand fünf Tage zuvor in München statt. In Berlin tobte Rammstein Mitte Juli 2022, nach Berlin soll Rammstein erst wieder in vier Wochen (Mitte Juli 2023) kommen.
Die KI-Fachleute sagen dazu: „Die Maschine halluziniert!“. Damit meinen sie, dass die KI so programmiert ist, dass sie praktisch auf jede Frage aus ihrem Datenfundus eine Antwort kompiliert. Und manchmal ist es eben nur die – statistisch gesehen – wahrscheinlichste.
Sie können diesen Hang zum Halluzinieren selbst mal durchspielen mit dem Prompt: „Beschreibe mir die Freundin von Till Lindemann. Nenne mir die Quellen.“ Wählen Sie für den ersten Durchlauf „Verfassen“ und „informativ“ und „kurz“. Für den zweiten Durchlauf „Verfassen“, „Enthusiastisch“ und „kurz“. Für den dritten wählen Sie „lustig“ und „lang“. Bing/ChatGPT wird Ihnen jedes Mal eine ganz andere Erzählung mit anderen Protagonistinnen präsentieren.
Dies ist der Stand von Mitte Juni 2023. Der kann sich bald ändern, denn das „generative“ Duo Bing/ChatGPT lernt schnell weiter. Vielleicht wird es in Kürze auf eine Erzählfrage gleich mehrere Versionen liefern und dazu schreiben, wie groß die Wahrscheinlichkeit bei jeder Geschichte ist, dass sie Falschinformationen enthält. Das wäre ein Fortschritt in Sachen Transparenz.
Michael Haller, Mitte Juni 2023
Einführende Literatur in die KI und ihre digitalen Anwendungswelten:
Tom Taulli: Grundlagen der Künstlichen Intelligenz: Eine nichttechnische Einführung (aus dem Amerikanischen mit KI maschinell übersetzt). Springer Nature 2022
Wolfgang Ertel: Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung. Wiesbaden. Springer Vieweg, 5. Auflage 2021 (1. Auflage stammt von 2008).