Musk hat die Firma OpenAI, die ChatGPT entwickelt und betreibt, im Jahr 2015 selbst mitgegründet, ist dort aber 2018 wieder ausgestiegen. Heute wird OpenAI unter anderem von Google und Microsoft mit milliardenschweren Investitionen unterstützt; letzteres nutzt das Programm z.B. in seiner Suchmaschine Bing.
ChatGPT ist ein Programm, das einen Dialog zwischen dem Nutzer und einem anderen menschlichen Sprecher nachahmt. Diese Art von Programmen entwickelte sich seit dem Beginn der KI-Forschung in der Informatik in den 1950er Jahren zu einem zentralen Kriterium der Beurteilung der Leistungsfähigkeit künstlicher Intelligenz (KI). Ziel war ein Programm, das den nach dem Mathematiker Alan Turing benannten Turing-Test besteht, das heißt, dass die Ausgaben des Programms nicht von denen eines Menschen unterschieden werden können. Das erste bekannte Beispiel ist das Chatprogramm ELIZA von Joseph Weizenbaum, das von 1964-66 entwickelt wurde. Im Zentrum stand damals und steht auch bei ChatGPT heute der sprachliche Dialog zwischen Mensch und Maschine im Medium des Textes. Man kann dem Programm durch Texteingaben Anweisungen geben oder Fragen stellen. Dabei kann die Texteingabe auch Programmiersprachen beinhalten, man kann sich also mit ChatGPT auch über Computer-Code ‚unterhalten’. Seit der aktuellen, Mitte März 2023 veröffentlichten Version mit der Bezeichnung GPT-4, hat der Bot dazu noch ein multimodales Sprachmodel, das auch Bilder oder Audiodateien als Eingaben verarbeiten kann.
Unter der Haube
Die Impf-Illusion: Infektionskrankheiten, Impfungen und die unterdrückten Fakten
von Suzanne Humphries (Autor), Roman Bystrianyk (Autor)
13,00 €
Chatbots basieren auf Sprachmodellen. In solchen Sprachmodellen wird zum Einen die grammatische Struktur der Zielsprache formallogisch beschrieben – die Syntax der Sprache – , und zum anderen bestehen sie aus einer Liste der kleinsten Bedeutungsträger der Sprache – den Wörtern –, die mit Hilfe der Syntax zu größeren bedeutungstragenden Einheiten wie Sätzen und Texten zusammengesetzt werden können. Diese grundlegende Unterscheidung zwischen syntaktischer und semantischer Modellierung ist die Grundlage der Nachahmung der menschlichen Sprache durch den Computer, dem sogenannten Natural Language Processing. Sie ist stetig weiter entwickelt und differenziert worden, und im Laufe der Zeit sind viele verschiedene Sprachmodelle entwickelt worden, die sich hinsichtlich ihrer Eigenschaften und Fähigkeiten stark unterscheiden, und mittlerweile auch noch andere Aspekte in der Modellierung berücksichtigen, wie zum Beispiel die Situationen, in denen Sprache gebraucht wird.
ChatGPT
Die Kapitalien GPT im Namen des Bots von ChatGPT stehen für Generative Pre-trained Transformer, zu deutsch in etwa: Erzeugende, vor-trainierte (Sprach-)Transformation. ‚Generativ’ bedeutet, dass der Bot nicht darauf in erster Linie ausgerichtet ist, Texte zu analysieren, sondern darauf, sprachliche Äußerungen wie Sätze, Texte und Gedichte zu erzeugen; vor-trainiert, dass der Bot an einem Textkorpus trainiert wurde, bevor er für den Nutzer zugänglich gemacht wurde; und ‚Transformation’ bzw. englisch Transformer bezeichnet das regelgeleitete Überführen einer Zeichenfolge in eine andere durch Methoden des maschinellen Lernens, wobei sich das Sprachmodel des Bots durch spezielle Algorithmen selbst korrigiert und optimiert.
Viel Wirbel um… was?
Man kann den Hype, der zur Zeit um KI-basierte Chatsysteme gemacht wird, als Wiederkehr des KI-Enthusiasmus der 1950er Jahre sehen. Im Zeitalter von Kybernetik und Elektronengehirnen versuchte man, einen General Problem Solver zu konstruieren, der die menschliche Intelligenz in einem umfassenden Sinn ersetzen kann. Diese Ambitionen zerschlugen sich ob der Komplexität und Unbestimmtheit der Aufgabenstellung ziemlich schnell, so dass man sich ab den 1960er Jahren damit beschied, sogenannte Expertensysteme für genau definierte Wissensdomänen zu entwickeln. Mit der Weiterentwicklung der Computertechnik kam es dann ab den 2000er Jahren zu einem Revival des General Problem Solvers, also dem Projekt, die menschliche Intelligenz in Gänze digital zu modellieren, diesmal unter dem Namen Artificial General Intelligence (AGI), zu deutsch: Allgemeine KI.
Die technischen Fortschritte, die dabei in den letzten 20 Jahren gemacht wurden, sind beeindruckend. Die dabei verwendeten avancierten statistischen und probabilistischen Methoden haben – insbesondere in technokratischen Kreisen wie zum Beispiel dem WEF – zu neuen Hoffnungen bezüglich der Möglichkeiten von KI geführt. Zugleich führen sie aber auch immer dringender zu der Frage, in welchem Verhältnis Verfahren dieser Art überhaupt zur menschlichen Intelligenz stehen. Musk hat wiederholt die Befürchtung geäußert, dass KI eine potentielle Gefahr für die gesamte Menschheit darstellt: Wenn ihre Fähigkeiten, den Menschen nachzuahmen, immer weiter steigen, kommt in dieser Sichtweise irgendwann der Punkt, an dem sie wie Skynet in der Filmreihe Terminator die Kontrolle übernimmt und das menschliche Leben auf dem Planeten der Rationalität der Maschinen unterwirft.
Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten
von Fritz Vahrenholt , Sebastian Lüning
28,00 €
Politische Chatbots
In Bezug auf ChatGPT kritisiert Musk zudem auf abc News, dass der Chatbot einen ideologischen Bias habe und darauf trainiert werde, politisch korrekte Antworten im Sinne des links-liberalen Establishments zu liefern. Man kann das z.B. daran sehen, dass das Programm Lobgedichte nicht für alle Politiker schreibt, oder dass es staatliche Vorgaben zur Corona-Berichterstattung befolgt. Dem wolle er mit TruthGPT etwas entgegensetzen, und zwar indem die zugehörige KI darauf ausgerichtet werden solle, die Wahrheit zu suchen und die Natur des Universums zu verstehen. (Siehe: https://abcnews.go.com/Technology/wireStory/elon-musk-hell-create-truthgpt-counter-ai-bias-98654332). Wenn es auch stimmen mag, dass Konkurrenz und Pluralität in Bezug auf die Weiterentwicklung von KI wichtige Punkte sind, so ist Musk’s Wahrheits-Semantik im Titel seines projektierten Chatbots nichts weiter als das übliche blumige PR-Geschwätz. Chatbots sind nicht intelligent, sie ahmen menschliche Intelligenz nach. Menschliche Intelligenz ist immer perspektivisch, deshalb sind auch die Sprachmodelle, die die Programmierer von KI entwickeln, immer perspektivisch. Auch Musk’s projektierter Chatbot wird Wahrheit innerhalb der Parameter suchen oder erzeugen, die ihm seine Programmierer vorgeben, und seien es auch noch so viele. Entscheidend für die Entwicklung von KI ist, dass ihre Anwender verstehen, wie sie funktioniert und nach welchen Prämissen sie konstruiert ist, sonst wird sie zu einem neuen Orakel, dem die Massen blind folgen, ohne zu wissen warum. Die neuen Orakle sind im Gegensatz zu den antiken allerdings keine göttlichen Ratgeber für existenzielle Lebensfragen, sondern werden durch private und staatliche Interessen im Hinblick darauf gestaltet, die Nutzer berechenbar und damit ökonomisch monetarisier- und politisch kontrollierbar zu machen. Es ist nicht die KI an sich, die uns Sorgen bereiten sollte, sondern die Herren der KI.