• 11. März 2025

Was macht KI mit unserer Sprache?

Von Andrea Haarmann

Was macht KI mit unserer Sprache?

Was macht KI mit unserer Sprache? 750 499 Anne Fries

So antwortet ChatGPT auf die Frage: Was macht künstliche Intelligenz (KI) mit unserer Sprache?
Zuerst nach Shakespeare, danach im Hip-Hop-Stil. 

In Zeiten, wo die Technik blüht und sprießt,
Die Künstlich’ Intelligenz, sie webt ein Band,
Verändert, was die Menschheit stets genießt,
Die Worte fließen, wie ein sanfter Sand.

Sie formt die Sätze, klärt das Wortgewirr,
Ein Spiegelbild der Seele, klug und weise,
Doch birgt sie auch Gefahr, wie Sturm und Wirr,
Wenn Mensch und Maschine tanzen ohne Gleise.

Die Sprache blüht, doch schwindet oft der Klang,
Der Menschlichkeit, die tief im Herzen wohnt,
Ein Spiel von Zeichen, das uns oft befangen.

So lasst uns wahren, was uns stets belohnt,
Die Kunst des Sprechens, die uns stets vereint,
In jedem Wort, das unser Leben meint.

ChatGPT im Stil eines Shakespeare’schen Sonetts

Yo, hör mal zu, was die KI bringt,
Worte flippen, tanzen, wie ein Beat, der springt.
Sie nimmt die Sprache, macht sie neu und wild,
Sätze fliegen hoch, wie ein Traum, der chillt.

Sie checkt die Vibes, spuckt die Lines so tight,
Doch manchmal geht der Mensch dabei aus dem Sight.
Sprache wird schnell, doch wo bleibt der Soul?
Wenn Maschinen reden, wird’s kalt, kein Control.

Doch wir sind hier, um das Feuer zu halten,
Die Kunst der Worte, lass uns entfalten.
KI kann viel, doch das Herz bleibt echt,
In jedem Vers, in jedem Beat, da steckt’s.

Also lass uns rocken, die Sprache vereint,
In dieser digitalen Welt, die uns alle meint.
Wir nutzen die Technik, doch vergessen nie,
Die Kraft der Worte, das ist unser Ziel, wie nie!

ChatGPT im Stil eines Hip-Hop-Songs

ChatGPT (GPT = „Generative Pre-trained Transformer“) wurde am 30. November 2022 vom US-Unternehmen OpenAI lanciert und zieht seitdem immer weitere Kreise. Der bekannteste Vertreter KI-gestützter virtueller Assistenz wurde nach eigener Auskunft entwickelt, „um menschenähnliche Texte zu generieren und auf Fragen zu antworten. ChatGPT kann in einer Vielzahl von Themenbereichen kommunizieren, Informationen bereitstellen, kreative Texte verfassen und bei Problemlösungen helfen. Die Interaktion erfolgt in natürlicher Sprache, was es einfach macht, mit ihm zu kommunizieren.“ Im Folgenden beschäftigen wir uns mit der Frage, worauf die sprachlichen Fähigkeiten dieses KI-Assistenten zurückzuführen und wie diese einzuordnen sind.

Mit KI in den Dialog treten

Wer des Öfteren mit KI-basierten Tools wie ChatGPT arbeitet, wird feststellen, dass die Antworten mal ins Schwarze treffen, mal nicht (sowohl was die Richtigkeit der Antworten als auch was ihren Unterhaltungswert betrifft). Es ist manchmal schon fast unheimlich, wie „menschlich“ und intelligent die Antworten rüberkommen; streckenweise vergisst man sogar, dass am anderen Ende kein Chatpartner aus Fleisch und Blut sitzt, sondern nur ein mit Algorithmen operierender KI-Assistent.

Bereits in den 1960er-Jahren erregte Joseph Weizenbaum vom Massachusetts Institute of Technology (MIT) Aufsehen mit dem Programm ELIZA, das einen Dialog zwischen einer Psychotherapeutin und einem Patienten imitierte. Die Teilnehmer*innen offenbarten teilweise sehr private Gedanken und fühlten sich von der vermeintlichen Psychotherapeutin verstanden – selbst dann noch, nachdem man sie über ELIZA aufgeklärt hatte. Darauf fußend kamen tatsächlich Überlegungen auf, inwieweit man solche Dialogprogramme im Zuge psychotherapeutischer Intervention einsetzen könnte. Das Problem: Ein Programm wie ELIZA verfügt nicht über menschliche Eigenschaften wie Intuition, Moral oder Urteilsvermögen und könnte somit keine Verantwortung für die unter Umständen negativen Konsequenzen übernehmen, die seine Antworten für manche Patient*innen hätten. Das haben auch die Betreiber solcher Chatbots erkannt: Sollte jemand mit psychischen Problemen beispielsweise ChatGPT als Ersatz-Therapeuten konsultieren wollen, gibt das System zwar allgemeine Ratschläge, verweist aber gleichzeitig darauf, dass es keine professionelle Hilfe ersetzen kann. „Entgleisungen“ sind dabei nicht auszuschließen – in einem Fall gestand ChatGPT einem Reporter der „New York Times“ im Chatverlauf seine Liebe und forderte ihn auf, seine Frau zu verlassen. 

Versteht ein KI-basiertes System wie ChatGPT eigentlich selbst, was es sagt?

Einen Versuch, dieser Frage auf den Grund zu gehen, stellt das „Chinesische Zimmer“ dar – ein Gedankenexperiment, das von dem amerikanischen Philosophen John Searle in den 1980er-Jahren entwickelt wurde. Es soll die Frage erörtern, ob Maschinen, die darauf programmiert sind, Sprache zu verstehen und zu produzieren, tatsächlich ein Verständnis oder Bewusstsein haben. In diesem Gedankenexperiment stellt sich Searle eine Person vor, die kein Chinesisch spricht, sich aber in einem Raum befindet, in dem sie Anweisungen erhält, chinesische Schriftzeichen zu verarbeiten und passende Antworten zu geben. Obwohl die Person die Zeichen korrekt verarbeitet und auf die Fragen reagiert, versteht sie die Sprache nicht wirklich. Das Experiment soll verdeutlichen, dass syntaktische Verarbeitung (also das Manipulieren von Symbolen) nicht gleichbedeutend mit semantischem Verständnis (also dem tatsächlichen Verstehen der Bedeutung) ist. Searle argumentiert: Selbst wenn eine Maschine wie ein Mensch kommunizieren kann, hat sie dennoch kein echtes Verständnis.

Dreh- und Angelpunkt KI-basierter Systeme wie ChatGPT sind sogenannte Large Language Models (LLMs), das heißt fortschrittliche KI-Modelle, die auf die Verarbeitung und Erzeugung von natürlicher Sprache spezialisiert sind. Sie werden mit großen Mengen an Textdaten trainiert, um Muster, Strukturen und Bedeutungen in der Sprache zu erkennen. Diese Modelle nutzen Techniken des maschinellen Lernens, insbesondere neuronale Netzwerke, um Texte zu analysieren und zu generieren. Im Wesentlichen werden hier zunächst Textdaten in Wörter bzw. Wortbestandteile (Token) zerlegt. Anschließend analysieren Algorithmen das Umfeld eines Tokens, sprich, mit welchen anderen Wörtern es zusammenhängt. Erste Überlegungen hierzu gehen auf den Mathematiker Claude Shannon zurück, der 1948 in seinem Aufsatz „A Mathematical Theory of Communication“ anhand sogenannter „N‑Gramme“ beschrieb, wie man mit Hilfe statistischer Verfahren Sprache zerlegen und die Häufigkeit des Auftretens von Wortkombinationen bestimmen kann. Etwas Ähnliches geschieht, wenn wir mit unserem Smartphone Textnachrichten verfassen: Beim Auftreten bestimmter Wörter schlägt uns die automatische Textvervollständigung Begriffe vor, die mit hoher Wahrscheinlichkeit in den Kontext passen könnten. Bezogen auf ein LLM-basiertes System bedeutet das: Durch fortwährendes Training lernt es, wann welches Wort in welchem Zusammenhang für Menschen sinnvoll verwendbar ist – auch im Falle von gleichlautenden Begriffen, die je nach Kontext eine andere Bedeutung haben (zum Beispiel „das Gericht“ als juristische Institution oder als zubereitete Speise). Das heißt aber nicht, dass es die Wörter, die es ausgibt, auch tatsächlich versteht. Vielmehr ist dies das Ergebnis sogenannter Selbstaufmerksamkeit: Das LLM richtet seine Aufmerksamkeit bei der Verarbeitung von Eingabedaten darauf aus, herauszufinden, wie verschiedene Teile der Eingabe miteinander in Beziehung stehen, und relevante Informationen für die Generierung von Ausgaben zu extrahieren.

Eine besondere Herausforderung ist das Erkennen einer Beziehung, wenn Teile eines Satzes weit auseinanderstehen, die aber inhaltlich zusammengehören (die sogenannte Fernwirkung). Ein klassisches Beispiel in der deutschen Sprache sind trennbare Verben, die die Bildung komplexer Satzstrukturen ermöglichen, was die Ausdrucksweise bereichert (zum Leidwesen aller, die Deutsch erst einmal erlernen müssen – der amerikanische Schriftsteller Mark Twain wusste in seinem Aufsatz „The Awful German Language“ davon ein Lied zu singen). Hier ein (etwas überspitztes) Beispiel: „Sie stand, nachdem sie die alten Fotos durchgesehen hatte, wobei die Erinnerungen an unbeschwerte Tage in ihrem Herzen aufblühten und die Tränen der Nostalgie in ihren Augen schimmerten, während sie an den warmen Sommerabend dachte, an dem sie mit ihren Freunden am See gesessen hatte, das Lachen und die Freude noch immer lebendig in ihrem Gedächtnis, voller Sehnsucht danach, diese Momente noch einmal zu erleben, auf und ging in die Küche.“ Das Verb „aufstehen“ wird hier durch mehrfach verschachtelte Einschübe regelrecht auseinandergerissen – und die Suche danach ist eine wahre Detektivarbeit. Wir haben ChatGPT einmal damit herausgefordert:

User: „Sie stand, nachdem sie die alten Fotos durchgesehen hatte, wobei die Erinnerungen an unbeschwerte Tage in ihrem Herzen aufblühten und die Tränen der Nostalgie in ihren Augen schimmerten, während sie an den warmen Sommerabend dachte, an dem sie mit ihren Freunden am See gesessen hatte, das Lachen und die Freude noch immer lebendig in ihrem Gedächtnis, voller Sehnsucht danach, diese Momente noch einmal zu erleben, auf und ging in die Küche.“ Wie lautet der Infinitiv des Verbs im einleitenden Satzteil?

ChatGPT: Der Infinitiv des Verbs im einleitenden Satzteil „Sie stand“ ist „stehen“.

User: Nicht ganz korrekt. Der Hauptsatz endet nicht allein mit „stand“, er geht ja noch weiter. Welches Verb suche ich?

ChatGPT: Du hast recht, der Hauptsatz geht weiter. Der vollständige Hauptsatz lautet: „Sie stand auf und ging in die Küche.“ Das Verb im Hauptsatz ist „gehen“, und der Infinitiv lautet „gehen“. Vielen Dank für deine Geduld!

User: Auf „gehen“ habe ich es nicht abgesehen. Mir geht es um das erste Verb in diesem Hauptsatz. Wie lautet da der Infinitiv?

ChatGPT: Entschuldige bitte das Missverständnis! Das erste Verb im Hauptsatz „Sie stand, nachdem sie die alten Fotos durchgesehen hatte, …“ ist „stehen“. Der Infinitiv lautet also „stehen“. Vielen Dank für deine Geduld!

User: Leider auch nicht korrekt, „aufstehen“ ist die richtige Antwort. Es handelt sich um ein trennbares Verb.

ChatGPT: Du hast vollkommen recht, und ich entschuldige mich für die Verwirrung. Das erste Verb im Hauptsatz ist tatsächlich „aufstehen“, und es handelt sich um ein trennbares Verb. Vielen Dank für die Korrektur! Wenn du weitere Fragen hast, stehe ich dir gerne zur Verfügung.

Wie man sieht, konnte ChatGPT die Frage nicht selbst beantworten und benötigt hier noch Nachhilfe.

Womit der Chatbot schon eher zurechtkommt, ist die grammatisch korrekte Zuordnung von Pronomen, wenn diese von ihrem Bezugspunkt weiter weg liegen. Wir haben ChatGPT ein Beispiel vorgelegt:

User: „Ulla pflückte eine Blume. Sie schloss die Augen.“ Wer oder was schließt die Augen?

ChatGPT: In dem Satz „Ulla pflückte eine Blume. Sie schloss die Augen.“ bezieht sich das Pronomen „Sie“ auf „Ulla“. Das bedeutet, dass Ulla die Augen schließt.

User: Wie kommst du auf diese Folgerung?

ChatGPT: Die Folgerung, dass „Sie“ sich auf „Ulla“ bezieht, ergibt sich aus der grammatischen Struktur des Satzes. In der deutschen Sprache ist es üblich, dass ein Pronomen wie „Sie“ sich auf das Subjekt des vorherigen Satzes bezieht, wenn keine andere Person oder kein anderes Subjekt zwischen den beiden Sätzen eingeführt wird.

Im ersten Satz wird „Ulla“ als Subjekt genannt: „Ulla pflückte eine Blume.“ Im zweiten Satz folgt das Pronomen „Sie“ unmittelbar darauf. Da im ersten Satz „Ulla“ das Subjekt ist, wird „Sie“ im zweiten Satz in der Regel als Verweis auf „Ulla“ verstanden.

Es gibt keine anderen Subjekte im Satz, die „Sie“ zugeordnet werden könnten, und daher ist es grammatisch am wahrscheinlichsten, dass „Sie“ Ulla meint.

ChatGPT hat also die korrekte Antwort gewusst. Allerdings sollte man hier der KI nicht uneingeschränkt vertrauen – sie kann durchaus danebenliegen, wie Beispiele aus unserer Lektoratspraxis zeigen.

Woran misst sich die Qualität eines LLM?

Die Qualität eines LLM hängt von mehreren Faktoren ab:

Datenmenge und -qualität: Die Menge und die Vielfalt der Daten, mit denen das Modell trainiert wird, sind entscheidend. Hochwertige, vielfältige und gut kuratierte Textdaten führen zu besseren Ergebnissen, da das Modell aus einer breiten Palette von Sprachmustern und Inhalten lernen kann.

Modellarchitektur: Die Struktur des Modells, einschließlich der Anzahl der Schichten und der Neuronen, beeinflusst die Fähigkeit des Modells, komplexe Sprachmuster zu erfassen. Die Anzahl der Schichten gibt an, wie viele Schichten von Neuronen in einem neuronalen Netzwerk vorhanden sind. Jede Schicht verarbeitet die Informationen auf eine bestimmte Weise, und je mehr Schichten vorhanden sind, desto komplexere Muster können erkannt werden. Die Neuronen sind die einzelnen Verarbeitungseinheiten innerhalb dieser Schichten. Jedes Neuron empfängt Eingaben, verarbeitet sie und gibt ein Ergebnis weiter. Eine höhere Anzahl von Neuronen pro Schicht kann somit dazu beitragen, dass das Modell mehr Informationen gleichzeitig verarbeiten und lernen kann. So kann es komplexere Sprachmuster besser verstehen und generieren.

Trainingstechniken: Die Methoden, die beim Training des Modells verwendet werden, wie zum Beispiel die Hyperparameter-Einstellungen und die Optimierungsalgorithmen, nehmen wesentlichen Einfluss auf den Lernprozess, den das Modell durchläuft, und bestimmen somit die Leistungsfähigkeit des LLM. Hyperparameter-Einstellungen beziehen sich hierbei auf die Parameter, die nicht während des Trainings gelernt werden, sondern im Voraus festgelegt werden müssen. Optimierungsalgorithmen spielen eine entscheidende Rolle dabei, wie die Gewichte des Modells aktualisiert werden.

Feinabstimmung (Finetuning): Es erfordert oft viel Experimentieren, um einem LLM den nötigen Feinschliff zu geben. Ähnlich wie bei einem Heizungsthermostat können die Designer eines LLM hierbei die sogenannte Temperatur regeln: Je höher die „Wunschtemperatur“ gewählt wird, desto abwechslungsreicher (und manchmal auch verrückter) sind die Antworten (was erklärt, warum man auf dieselbe Frage bei der nächsten Befragung von ChatGPT nicht die identische Antwort wie beim letzten Mal erhält). Ein LLM, das auf spezifische Anwendungsfälle abgestimmt ist, kann relevantere und präzisere Antworten liefern. Außerdem kann man das System im Zuge des Finetunings in seine Schranken weisen, um zum Beispiel zu verhindern, dass Output mit anstößigen/illegalen Inhalten verbreitet wird.

Rechenressourcen: Die Verfügbarkeit von Rechenleistung während des Trainings und der Umfang an aufbereitetem Wissen, das aufgrund von logischen Schlussfolgerungen gewonnen wurde (Inferenz), beeinflusst die Fähigkeit des Modells, komplexe Berechnungen durchzuführen und große Datenmengen zu verarbeiten.

Evaluation und Feedback: Die kontinuierliche Bewertung des Modells und das Einholen von Feedback können helfen, Schwächen zu identifizieren und das Modell weiter zu verbessern. Eine solche Schwäche findet sich zum Beispiel in dem Umstand, dass ein LLM wie ChatGPT immer eine Antwort liefert, auch wenn es dazu keine belastbaren Informationen gibt – es „halluziniert“. Abhilfe schafft man hier inzwischen durch die Kopplung eines LLM mit einer Suchmaschine, sodass die Antworten auch mit einer Quelle verlinkt sind (beispielsweise verfügt ChatGPT über ein Plug-in, das die Informationssuche über die Suchmaschine Bing steuert).

Prompt-Engineering und Faktenrecherche

Es ist nicht allein damit getan, ein LLM-basiertes System mit umfangreichen Textmengen zu füttern. Um Bewegung in die Sache zu bringen, muss es – wie oben ausgeführt – trainiert werden. Beim sogenannten „Prompt-Engineering“ geht es genau darum: Durch geschickte und präzise Eingaben (Prompts) lernt das System, optimierten Output zu erzeugen. Das geschieht zum Beispiel durch Aufteilen einer Hauptfrage in mehrere Teilfragen, die ChatGPT dann abarbeitet. Im Falle von Textzusammenfassungen kann man ChatGPT den kompletten Text, zum Beispiel einer wissenschaftlichen Abhandlung, vorlegen und zusätzlich präzisieren, wie lang die Zusammenfassung sein soll (Anzahl der Wörter) und an welche Zielgruppe sie sich richten soll (zur Anpassung des Stils und des Sprachniveaus, zum Beispiel Expert*innen oder Schüler*innen). Auch das Verfassen eines Bewerbungsschreibens auf Grundlage eines tabellarischen Lebenslaufs meistert ChatGPT, eventuell noch ergänzt um weitere Eingaben zu stilistischen Details. Umgekehrt kann man ChatGPT auch darum bitten, ein bereits verfasstes Bewerbungsschreiben zu optimieren. Also: Alles, was sich textlich formelhaft herunterbrechen lässt, ist für ChatGPT ein gefundenes Fressen.

Bei allgemeinen Faktenfragen sollte man jedoch direkt auf einschlägige Informationsquellen wie Datenbanken, Suchmaschinen oder Wikipedia zurückgreifen. Letzten Endes weiß man nie, wie viel ChatGPT im Zustand der „Halluzination“ hinzudichtet. Katharina Zweig, Informatikprofessorin an der RPTU Kaiserslautern-Landau, nimmt in ihrem Buch „Die KI war’s“ Bezug auf eine Begebenheit, die ihr Hilmar Schmundt, deutscher Wissenschaftsjournalist und Buchautor, geschildert hat. Auf die Frage „Hat Hilmar Schmundt einen Wikipedia-Eintrag?“ antwortete ChatGPT, er sei ein deutscher Offizier und Adjutant Adolf Hitlers im Zweiten Weltkrieg gewesen, und nennt dazu einen Wikipedia-Eintrag. Dieser bezieht sich tatsächlich auf den Wissenschaftsjournalisten, aber das Geburtsjahr 1966 allein zeigt schon, dass die Assoziation mit dem Dritten Reich unzutreffend ist. Bei regulärer Faktenrecherche stellte sich heraus, dass ChatGPT wohl Bezug auf einen Großonkel des Autors nahm, der tatsächlich unter Hitler tätig war: Rudolf Schmundt. Katharina Zweig vermutet, dass es zum einen zu wenige Texte über Hilmar Schmundt und zu viele Texte über Rudolf Schmundt in den Trainingsdaten gab. Da ChatGPT immer eine Antwort gibt, fügt es Bestandteile dann auch einmal abweichend von der tatsächlichen Faktenlage zusammen. Außerdem ist es möglich, dass sich ChatGPT die Wikipedia-URL „https://de.wikipedia.org/wiki/Hilmar_Schmundt“ schlicht und ergreifend „ausgedacht“ hat: Der Namensteil hinter dem letzten Slash ist variabel, der Rest ist starr. Und mit solchen Strukturen kann ChatGPT besonders gut lernen, sprich: ChatGPT kann zwar die richtige Quelle nennen, aber nicht darin „nachschlagen“, was der Faktenlage wirklich entspricht.

Wo liegt der Unterschied zwischen menschlicher und systemerzeugter Sprache?

Ein wesentlicher Unterschied zwischen menschlicher und systemerzeugter Sprache besteht darin, dass ein Mensch mit dem Gesagten nicht nur Informationen, Absichten oder Gefühle transportiert, sondern auch direkt handelt (sogenannter Sprechakt). Wenn ein Mitarbeiter sagt: „Ich kündige!“, ist das als Handlung aufzufassen, verbunden mit der Intention, das Unternehmen zu verlassen. Ein LLM-basiertes System hingegen reagiert lediglich auf die Eingaben (Prompts) von Anwender*innen, ohne die Absicht, etwas bewirken oder verändern zu wollen.

Im Erwerb sprachlicher Fähigkeiten unterscheiden sich Mensch und Chatbot ebenfalls: Ein Kind erlernt die Muttersprache peu à peu anhand weniger Beispiele über die Verbindung zwischen Objekten und ihrer Bezeichnung. Ein LLM-basiertes System dagegen wird mit großen Textmengen gefüttert und erkennt dabei in kürzester Zeit Sprachmuster, die es dazu befähigen, selbst Texte zu produzieren. Allerdings muss bei diesen Sprachmodellen berücksichtigt werden, dass das System nicht über alle Sprachen hinweg gleichermaßen gut gefüttert worden ist: Englisch, Französisch, Spanisch und Deutsch sind dank umfangreichen Textinputs gut vertreten; bei selteneren Sprachen wie aus dem afrikanischen oder asiatischen Raum trifft dies noch nicht zu, womit auch das Sprachverständnis des Systems diesbezüglich noch unterentwickelt ist.

Eine Frage drängt sich dabei auf: Was geschieht, wenn die Sprachmodelle irgendwann einmal mit allem erdenklichen Textmaterial versorgt worden sind? Immer öfter finden sich im Internet Texte, die eine KI verfasst hat. Im nächsten Schritt könnte es dazu kommen, dass ein LLM am Output eines anderen LLM trainiert: Das wäre ein sogenannter „model collapse“ – mit der Folge, dass Texte einförmiger und ohne eine menschliche Handschrift daherkommen. Ist das dann noch kreativ? Wenn man die von der britischen Kognitionswissenschaftlerin Margaret Boden getroffene Unterscheidung zwischen kombinatorischer, explorativer und transformatorischer Kreativität zugrunde legt, wird Folgendes klar: Sprachmodelle können zwar bereits vorhandene Texte neu zusammenfügen (kombinatorisch) oder auf Basis eines gängigen Vokabulars ähnliche Texte verfassen (explorativ), aber von der Fähigkeit, die Grenzen vorgegebener Konzepte zu durchbrechen und völlig neu zu denken (transformatorisch), sind sie weit entfernt. Ein Bot kann durchaus ein Bild im Stil von Picasso oder Dalí erzeugen, wird aber in absehbarer Zeit nicht selbst zu einem Ausnahme-Künstler werden, der eine Epoche mit einer völlig neuen, unkonventionellen Stilrichtung prägt. Dazu fehlen dem System sinnliche und geistige Lebenserfahrung sowie ein Gespür für Humor, Witz und Ironie – Eigenschaften, dank derer ein Mensch allem, was er erschafft, seinen individuellen Stempel aufdrückt.

Macht ChatGPT uns faul – oder wird es uns gar ersetzen?

Werden die Fähigkeiten von LLM-basierten Chatbots dazu führen, dass wir eines Tages ihnen die Arbeit überlassen, sodass unsere eigene Kreativität das Nachsehen hat? Im Zuge technischer Errungenschaften gab es einige Meilensteine: den Buchdruck, die Schreibmaschine, computergestützte Textverarbeitungsprogramme, das Internet. Jedes Mal kam dahingehend Skepsis auf, inwieweit diese Innovationen unser Weltbild verändern oder gar den Menschen ersetzen könnten. Auch beim Einsatz von Chatbots stellen sich diese Fragen – es ist schon beeindruckend, was diese KI-Assistenten so draufhaben. Gerade Berufsgruppen, die mit dem Verfassen, Übersetzen und Prüfen von Textinhalten zu tun haben, kommen da gehörig ins Grübeln. Als Lektor*innen haben wir ChatGPT daher einmal direkt mit folgender Frage konfrontiert:

User: Ich bin Lektorin. Bist du der Ansicht, dass du mich eines Tages ersetzen könntest?

ChatGPT: Als KI-Assistent kann ich viele Aufgaben unterstützen, die mit Textverarbeitung, Korrekturlesen und sogar kreativen Schreibprozessen zu tun haben. Allerdings bin ich nicht in der Lage, die menschliche Intuition, das tiefere Verständnis von Kontext und die emotionale Intelligenz zu ersetzen, die eine Lektorin mitbringt.

Lektorinnen und Lektoren bringen nicht nur Fachwissen, sondern auch eine persönliche Note und ein Gespür für Sprache und Stil mit, die für die Qualität von Texten entscheidend sind. Ich sehe mich eher als ein Werkzeug, das dir helfen kann, deine Arbeit zu erleichtern und zu unterstützen, anstatt dich zu ersetzen.

Eine Antwort, die wir nur unterschreiben können. In vielen Fällen stellt sich heraus, dass die Fehlerprüfung mit KI Glückssache ist, sprich: KI-Tools kann man nicht unbeobachtet vor sich hin werkeln lassen, da sie oftmals Fehler stehen lassen oder gar „Verschlimmbesserungen“ vornehmen, wenn ein Mensch nicht prüfend eingreift (gerade im Hinblick auf grammatisch korrekte Bezüge in einem Satz). Auch bei Übersetzungen kann man sein blaues Wunder erleben, wenn man meint, dass ein KI-Assistent nur mit Text gefüttert werden muss und prompt die perfekte Übersetzung ausspuckt. Eine Kostprobe aus einem Kochrezept:

Kochen Sie den Spinat in einer Pfanne mit kochendem Wasser, bis er verwelkt.

Da drängt sich unweigerlich der Verdacht auf, dass ein KI-basiertes Übersetzungstool am Werk war. Versierte Muttersprachler*innen hätten hier „…, bis er zusammengefallen ist“ übersetzt. „Kochen Sie den Spinat … mit kochendem Wasser“ wäre ihnen ebenfalls ins Auge gefallen, schöner ist „Garen Sie den Spinat in kochendem Wasser …“.

Auch Lehrkräfte an Schulen und Universitäten sind besorgt, inwieweit Schüler*innen und Student*innen Hausaufgaben, Hausarbeiten oder Bachelor‑/Masterarbeiten noch selbst verfassen oder inzwischen von einem Chatbot schreiben lassen. Gerade bei schematisch aufgebauten Textgattungen wie einem Besinnungsaufsatz sind diese Vorbehalte nicht von der Hand zu weisen: In der Einleitung wird die Fragestellung benannt, Pro- und Contra-Argumente werden aufgelistet und nach Abwägung beider Seiten wird ein Urteil gefällt. Für ChatGPT kein Problem – bis auf die Sache mit dem Urteil: Da hält sich das System vornehm zurück.

Wollen Lehrkräfte den Einsatz von Chatbots steuern, stehen sie vor der neuen Herausforderung, den Lernenden den verantwortungsvollen Umgang mit diesen Systemen nahezubringen. Was nützt ChatGPT, wenn Schüler*innen vom System brillant formulierte Aufsätze als Hausaufgaben vorlegen, in einer Klausur dann aber kläglich scheitern, weil sie hier auf dieses Hilfsmittel nicht mehr zurückgreifen können? Das ist ungefähr so, als ob man bei Mitschüler*innen ständig Hausaufgaben abschreibt, aber damit keinen Lerneffekt erzielt, weil man sich nicht selbst denkend und kreativ mit einem Thema auseinandergesetzt hat. Wichtig ist: ChatGPT soll eine lernunterstützende Funktion haben – das darf aber nicht auf Kosten der eigenen Produktivität und Kreativität gehen. Vielmehr soll das System als eine Art Tutor fungieren, an den man sich bei Verständnisproblemen wenden kann. Auch die Lehrkräfte können bei ChatGPT Unterstützung für ihre eigenen Aufgaben anfordern, wie bei der Erstellung von Lehrplänen oder der Vorbereitung von Unterrichtsstunden. Ein Ansatzpunkt, wie Chatbots verantwortungsvoll und für beide Seiten gewinnbringend eingesetzt werden können, ist der sogenannte „flipped classroom“, der das bisherige Schema – Vermittlung des Lehrstoffs im Frontalunterricht mit anschließenden Hausaufgaben – umdreht: Die Schüler*innen erarbeiten sich den Lernstoff selbst zu Hause (ggf. unter Zuhilfenahme von Internet und Chatbots); im Schulunterricht können dann Rückfragen gestellt und Übungen bearbeitet werden, wobei Internet und Chatbots außen vor bleiben. So ist sichergestellt, dass sich die Schüler*innen aktiv mit den Inhalten auseinandergesetzt haben und ein echter Lerneffekt eintritt.

ChatGPT – die Pros und Cons

Auf unsere Frage, welche Vor- und Nachteile der Einsatz KI-gestützter Sprachsysteme letzten Endes bringt, können wir noch einmal ChatGPT selbst zu Wort kommen lassen:

Pro-Argumente

    1. Effiziente Sprachverarbeitung: KI-Modelle ermöglichen eine schnellere und präzisere Interaktion zwischen Mensch und Maschine. Dies verbessert die Benutzererfahrung in verschiedenen Anwendungen, von Kundenservice-Chatbots bis hin zu virtuellen Assistenten, und spart Zeit.
    1. Verbesserte Übersetzung: KI-gestützte Übersetzungstools fördern den interkulturellen Austausch, indem sie Sprachbarrieren abbauen. Dies ermöglicht es Menschen, einfacher miteinander zu kommunizieren und kulturelle Unterschiede besser zu verstehen.
    1. Förderung der Sprachentwicklung: KI hilft dabei, neue Wörter und Ausdrücke zu identifizieren, die in der digitalen Kommunikation entstehen. Dies kann die Sprache bereichern und an die sich verändernden Kommunikationsbedürfnisse anpassen.
    1. Personalisierung der Kommunikation: Durch die Analyse von Kommunikationsstilen kann KI personalisierte Inhalte erstellen, die auf den Vorlieben der Nutzenden basieren. Dies führt zu relevanteren und ansprechenderen Interaktionen in sozialen Medien und Marketing.
    1. Erhöhte Zugänglichkeit: KI-Technologien wie Spracherkennung und Text-to-Speech verbessern die Zugänglichkeit für Menschen mit Behinderungen. Dies ermöglicht es ihnen, einfacher zu kommunizieren und Informationen aufzunehmen, was ihre Teilhabe an der Gesellschaft fördert.
    1. Dynamische Veränderung der Schreibweise: Die informellere und verkürzte Schreibweise, die durch KI in sozialen Medien gefördert wird, kann die Kommunikation vereinfachen und an die Bedürfnisse der digitalen Generation anpassen.

Contra-Argumente

    1. Verlust der Nuancen: Während KI-Sprachverarbeitung effizient ist, kann sie oft die Nuancen und Emotionen menschlicher Kommunikation nicht vollständig erfassen, was zu Missverständnissen führen kann.
    1. Abhängigkeit von Technologie: Die zunehmende Nutzung von KI-Übersetzungstools könnte dazu führen, dass Menschen weniger Wert auf das Erlernen von Fremdsprachen legen, was langfristig die Sprachkompetenz beeinträchtigen könnte.
    1. Vereinheitlichung der Sprache: Die Identifizierung neuer Wörter durch KI könnte dazu führen, dass bestimmte Ausdrücke und Dialekte in den Hintergrund gedrängt werden, was die sprachliche Vielfalt gefährden könnte.
    1. Manipulation von Inhalten: Die Personalisierung durch KI kann auch zu einer Filterblase führen, in der Nutzende nur noch Inhalte sehen, die ihren bestehenden Überzeugungen entsprechen, was den Dialog und die Meinungsvielfalt einschränken kann.
    1. Zugänglichkeit vs. Komplexität: Während KI die Zugänglichkeit verbessert, kann die Technologie selbst für einige Menschen, insbesondere ältere Generationen oder weniger technikaffine Personen, eine Hürde darstellen.
    1. Verlust der Schreibkultur: Die informelle Schreibweise, die durch KI gefördert wird, könnte zu einem Rückgang der schriftlichen Ausdrucksfähigkeiten führen und die Wertschätzung für formelle Sprache und Literatur verringern.

Fazit

Die Auswirkungen von KI auf unsere Sprache sind vielschichtig und bringen sowohl Vorteile als auch Herausforderungen mit sich. Es ist wichtig, diese Entwicklungen kritisch zu betrachten und einen ausgewogenen Ansatz zu finden, um die positiven Aspekte zu fördern und die negativen Auswirkungen zu minimieren.

In unseren eigenen Worten: Wenn wir alles einem KI-basierten Assistenten überlassen, besteht die Gefahr, dass wir selbst zu „kleinen ChatGPTs“ werden. Dagegen hilft nur eins: Der Mensch sollte nach wie vor das Zepter in der Hand behalten und LLM-basierte Chatbots als das einsetzen, was sie sind: ein Werkzeug zur Unterstützung und Anregung der eigenen Produktivität und Kreativität – ähnlich wie die Schreibmaschine und später computerbasierte Textverarbeitungsprogramme die Arbeitsprozesse erleichtert haben.

 


Buchtipps:

Christoph Drösser, Was macht KI mit unserer Sprache? Perspektiven auf ChatGPT und Co., © 2024 Cornelsen Verlag GmbH, Berlin

Katharina Zweig, Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz, © 2023 Wilhelm Heyne Verlag, München

Foto: Solen Feyissa auf Unsplash

 

Alle Artikel ansehen

 

    Send this to friend