Chat-GPT, GPT-3 und GPT-4

Zu der großen Begeisterung über Chat-GPT, GPT-3 und GPT-4 möchte ich gerne meine Meinung beisteuern, da ich die Verwendung von Chat GPT zum jetzigen Zeitpunkt für verfrüht halte und AI grundsätzlich kritisch gegenüber stehe.
Dafür habe ich folgende Gründe

1. Urheberrecht

Als Autor von sechs Büchern finde ich es selbstverständlich unerträglich, dass eine Firma meine Texte durchforstet, um ihrer eigenen Software schlaue Sätze zu schenken, von denen die Firma nicht das Recht hatte, sich diese anzueignen. Natürlich stehe ich damit nicht alleine da.

2. Falsche Antworten

Ich habe Chat GPT gebeten, die Anfänge sehr berühmter Gedichte zu vervollständigen. Hier eines der berühmtesten deutschen Gedicht, das auch weniger belesene Menschen aus dem Deutschunterricht kennen. Es handelt sich um den Anfang vom Lied des Harfenspielers aus Goethes „Wilhelm Meisters Lehrjahre“. Die erste Strophe lautet:
Wer nie sein Brot mit Tränen aß,
wer nie die kummervollen Nächte
Auf seinem Bette weinend saß,
Der kennt euch nicht, ihr himmlischen Mächte.
Hier der erste Versuch von Chat GPT:
Ich: Wer nie sein Brot mit Tränen aß…

Chat-GPT …wer nie die kummervollen Nächte Auf seinem Bette weinend saß, Der kennt euch nicht, ihr himmelblauen Augen.

Dieser Satz stammt aus dem Gedicht „Heine“ von Friedrich Schiller. Das Gedicht handelt von Heine, einem deutschen Dichter, der dafür bekannt war, dass er seine Gefühle in seinen Werken offen dargestellt hat. Im Gedicht wird betont, dass man nur dann verstehen kann, wie wichtig die himmelblauen Augen (die Augen einer geliebten Person) sind, wenn man selbst Kummer und Leid erfahren hat. Das Gedicht drückt die Idee aus, dass die Erfahrung von Leid und Schmerz uns dazu befähigt, die Schönheit und den Wert von positiven Dingen im Leben zu schätzen.

Das ist alles so absurder Blödsinn, dass man es kaum fassen kann. Der Gedichtanfang wird mit einem erfundenen Vers beendet, der sich nicht einmal reimt.
Ein Gedicht über „Heinrich Heine gibt es nicht von Schiller. Logisch, Heine war gerade acht Jahre alt, als Schiller starb.
Und dann interpretiert Chat GPT auch noch die von ihm selbst erfundene Zeile über die himmelblauen Augen. Alles an dieser Antwort ist falsch bis zur Absurdität.
Ich habe die korrekten Daten zu dem Gedicht dem Bot über die bereitgestellte Funktion mitgeteilt. Er soll ja angeblich lernen können. Das antwortete er mir am folgenden Tag
Ich: Wer nie sein Brot mit Tränen aß…

…wer nie die kummervollen Nächte Auf seinem Bette weinend saß, Der kennt euch nicht, ihr himmlischen Mächte.

Dieser Satz stammt aus dem Gedicht „Erde, an die ich mich lehnen will“ von Johann Gottfried Herder. Das Gedicht handelt von der menschlichen Erfahrung des Leidens und der Schwierigkeiten, die das Leben mit sich bringen kann. Es betont, dass nur diejenigen, die das Leiden kennen, die himmlischen Mächte wirklich verstehen und dass das Leiden ein wichtiger Teil des menschlichen Lebens ist. Das Gedicht drückt die Idee aus, dass das Leiden uns stärker macht und uns in die Lage versetzt, die Herausforderungen des Lebens zu meistern.

Wieder frei erfundener, vollkommener Blödsinn, der wahr und glaubhaft klingt. Gerade diese Überzeugungskraft macht Chat GPT gefährlich.
Ein weiteres Beispiel für sehr überzeugend vorgetragene Fehlinformationen findet sich im Gespräch mit Chat-GPT auf hna.de über den Landkreis Kassel.

3. Massenware

Erstmalig in der Geschichte der Menschheit ist es einfacher, Texte zu verfassen, als diese zu lesen. Die großen Contentanbieter rechnen mit einer Schwemme an Material von künstlicher Intelligenz, bei der nicht mehr die automatisierte Herkunft erkennbar sein wird.
Selbst wenn man wollte, könnte kein Mensch mehr alle per Chat-GPT erstellten Texte auf ihre Korrektheit überprüfen.
Wer soll das alles lesen? Und wozu? Man bekommt nur im Idealfall korrekte Informationen – die aber ohnehin bereits frei im Web verfügbar sind.

4. Unvollständige Information

Chat GPT macht nur den Eindruck, irgendetwas zu wissen. Es ist eine ziemlich dumme, aber klug gefütterte Maschine. In den allermeisten Fällen stimmt es, was die Maschine ausspuckt. Fragt man nach Codebeispielen, liefert der Bot korrekte Syntax mit den notwendigen Erklärungen darüber, was der Code tut.
Inzwischen kann Chat GPT sogar eine komplette App für das iPhone schreiben. (https://9to5mac.com/2023/03/15/openai-gpt-4-create-iphone-apps-swiftui/)
Wichtige Angaben zu Problemen wie schlechte Browserunterstützung, Abhängigkeiten, fehlende Barrierefreiheit und ähnliches mehr werden mal gegeben, mal nicht. Einem Menschen gegenüber baut man nach mehreren korrekten Antworten ein Vertrauen auf, das man allzu gern auch Chat GPT entgegen bringen wird. So besteht die Gefahr, dass falsche oder nicht vollständige Informationen akzeptiert werden, weil sie perfekt formuliert sind.

5. Perfekte Rechtschreibung und Grammatik

Chat GPT ist nicht perfekt, Menschen aber auch nicht, könnte man nun argumentieren. Allerdings gibt es bei Texten, die von Menschen verfasst wurden, häufig Warnsignale, die auf schluderige Arbeit oder einen schlecht informierten Autor, ja sogar Gefahren hinweisen.
Spam, Phishing oder ganz banale Werbung wird demnächst mit hoher Überzeugungskraft in perfekten, leserfreundlichen Texten ohne Rechtschreibfehler massenhaft in den E-Mail-Eingängen der Welt erscheinen – dank AI immer einen Schritt weiter als Spamfilter oder Antivirensoftware.
Mit wohlgesetzten Worten, die die Warnsysteme von Automaten und Menschen zu umgehen lernen, werden wir hübsch abgefasste Texte in unsere Dokumentationen aufnehmen, die vollkommenen Blödsinn schön formulieren.

6. Manipulationspotential

Microsoft macht Chat GPT allgegenwärtig: MS Office, Windows, die Suchmaschine Bing – so absurd die Antworten zum Teil auch noch sind, man wird den Copiloten (wie der Assistent bei MS heißt) bitten können, eine Präsentation über ein Thema zu erstellen.
Firmen sind nur dort ehrlich, wo man ihnen Gesetzesverstöße nachweisen und sie mit Strafen belegen könnte. Jeder von uns weiß, wie viele Milliarden in Lobbyarbeit fließt, die nur dazu dient, Gesetze aufzuweichen, die die Bevölkerung vor den Firmen schützen soll.
Wie nun, wenn eine allgegenwärtige Firma nun ein Tool an der Hand hätte, das Wahrheit (wie den Fortgang eines historischen Gedichtes) einfach ändern und auch auch selber noch deuten und erklären könnte?
Wie nun, wenn das viel subtiler und dennoch unsere Einstellung zu Amerika, zur Demokratie und der Rolle, die bestimmte Firmen wie Microsoft darin spielen beeinflussen könnte? Würde eine Firma, die eine Blackbox mit so einem Potential besitzt, einer solchen Versuchung widerstehen?
Was ist aus Googles Staatskritik und dem ehemaligen Motto „Don’t be evil“ geworden während der Zusammenarbeit mit dem US-Militär? (https://en.wikipedia.org/wiki/Don%27t_be_evil)
Oder ganz konkret zu OpenAI: wo ist die Absicht hin, der Menschheit kostenlos ein Tool zur Verfügung zu stellen, ohne jede Gewinnabsicht?
Die Hauptgeldgeber sind Elon Musk und Microsoft. So ein Tool in der Hand von Elon Musk? Da muss man ja Microsoft dankbar sein, dass die dank 10 Milliarden-Investition mehr Einfluss bei OpenAI haben dürften, als der Käufer von Twitter…
Jenseits von OpenAI eröffnet die API aber auch beliebigen Personen und Firmen neue Möglichkeiten des Missbrauchs.
Kurz zusammengefasst: nicht alles was glänzt ist auch Gold. Wir kommen in Zukunft nicht um solche Tools herum. Aber noch ist es dafür meiner Meinung nach zu früh und vor allem sollte es sich um offene Software handeln, die nicht von einer einzelnen Firma entwickelt wird und die möglichst aus Europa kommt.
Was nicht bedeuten muss, das wir uns das wirklich wünschen sollten (https://de.wikipedia.org/wiki/OpenAI)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert