Direkt zum Inhalt
Künstliche Intelligenz

ChatGPT: Zwischen Superintelligenz und schnöder Mathematik

Werden Schüler bald von einer Maschine lernen, wie die Französische Revolution abgelaufen ist? Werden Patienten ihre Diagnosen und Medikation bald nur noch von einem Computer erhalten? Wird ein Großteil der Anwälte, Journalisten oder Werbetexter bald überflüssig?

Mit diesen Fragen beschäftigen sich Wissenschaftler, Medien oder Betriebswirte schon seit Jahren. Bis heute gibt es keine abschließenden Antworten darauf. Doch seit ein paar Tagen wissen wir, wie realistisch diese geschilderten Szenarien sind. Denn vor kurzem stellte der US-amerikanische Hersteller OpenAI sein Programm ChatGPT vor, ein Chatbot, der auf der hauseigenen künstlichen Intelligenz (KI) GPT-3.5 basiert.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die KI kann Gedichte verfassen, Geschichten erzählen, komplizierte Sachverhalte erklären, HTML-Codes schreiben, sie kann Rätsel lösen und Witze verstehen. Manchmal mehr, manchmal weniger gut. Doch noch nie hat ein Chat-Programm so menschlich geklungen wie ChatGPT. Der Prototyp der Anwendung ist nach einer Anmeldung zunächst kostenlos nutzbar.

Bei ChatGPT handelt es sich um ein „Large Language Model“ (großes Sprachmodell), eine bestimmte Form von KI. Dabei speisen die Entwickler den Algorithmus mit riesigen Textmengen. Das Programm leitet anhand dieser Symbolketten Zusammenhänge ab. Nachdem die KI damit „trainiert“, also gerechnet hat, kann es diese Bedeutungszusammenhänge abbilden. Je mehr Material das Programm zur Verfügung gestellt bekommt, desto größer ist auch die inhaltliche Bedeutung. GPT enthält 175 Milliarden Parameter und ist damit das größte Sprachmodell.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

„Es gibt keine KI, das sind lediglich mathematische Verfahren“

Technisch gesehen errechnet das Programm anhand statistischer Häufigkeiten eine Gleichung, die dann als Grundlage für die Texte dient, die es erstellt beziehungsweise vervollständigt. Vervollständigen, so beschreibt den Prozess auch Jobst Landgrebe. Der promovierte Arzt und Mathematiker beschäftigt sich mit seinem Unternehmen Cognotekt mit KI und hat jüngst zusammen mit Barry Smith das Buch „Why machines will never rule the world“ („Warum Maschinen niemals die Welt beherrschen werden“) veröffentlicht, in dem es auch um „Large Language Models“ geht.

Landgrebe verwahrt sich dagegen – wie einige andere Experten auch –, von künstlicher Intelligenz zu sprechen. „Es gibt keine KI, das sind lediglich mathematische Verfahren, die im Fall von GPT3 und den daraus abgeleiteten Anwendungen mit Hilfe von riesigen Textmengen sehr große Zeichenkettenmodelle aufstellen“, schildert der Mathematiker gegenüber Corrigenda. „Das Modell ist lediglich eine Rechenvorschrift, es versteht nichts und wird das auch nie tun.“ Zunächst werde ein Grundmodell mit von Menschen verfassten Texten erstellt, das dann durch Paare von Eingabe- und Ausgabetexten „trainiert“, als kalibriert werde.

Ist das Programm dann nicht anfällig für Missbrauch? Wenn der Entwickler oder Herausgeber des Programms es so kalibriert, dass genau die Zeichenfolge herauskommt, die er sehen möchte? Nein, meint Landgrebe:

„Es ist fast unmöglich, ein stochastisches Verfahren so zu kalibrieren, dass ein genau bestimmtes Zeichenkettenergebnis herauskommt. Vielmehr wird das System Ausgaben erzeugen, die im Großen und Ganzen den Mustern der Trainingsdaten entsprechen. Microsoft musste 2016 seinen Chatbot ‘Tay’ auf Twitter abschalten, weil Nutzer ihn mit verabscheuungswürdigen Äußerungen gefüttert hatten, die das Programm dann teilweise reproduzierte.“

ChatGPT hat dennoch eine politische Schlagseite, wie der Forscher David Rozado herausgefunden hat. Er stellte dem Programm gängige Fragen von Forschungsinstituten. Heraus kam: ChatGPT hat eine linksliberale Schlagseite.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die Furcht vor der „technologischen Singularität“

Sind unter anderem durch die Science-Fiction-Literatur geschürte Befürchtungen vor einer „technologischen Singularität“ – jenem Zeitpunkt, an dem die künstliche Intelligenz die menschliche übertrifft – also unbegründet? Einer der Mitgründer von OpenAI, der Multiunternehmer Elon Musk, sieht das anders. Er warnt schon lange vor der Entwicklung einer Superintelligenz, die sich ihrer Selbständigkeit bewusst und damit zu einer Gefahr für die Menschen werden könnte, weil sie die Zivilisation als Ganzes betreffe.

Der Philosoph und Psychiater Thomas Fuchs beschwichtigt: Die Idee, eine künstliche Intelligenz könnte durch fortschreitende Simulation von menschlichen Gehirnen ein Bewusstsein erlangen, hält er für eine Illusion. „Weil Simulation nicht das Gleiche ist wie Realität. Auch die perfekte Simulation intelligenter Leistungen bedeutet ja nicht, dass die Leistungen auch auf die gleiche Weise zustande gekommen sind wie bei uns, nämlich durch Überlegen, Nachdenken und ein Sich-Vorstellen, kurz: über imaginative Prozesse“, sagte Fuchs der Tagespost.

Der Professor für Philosophische Grundlagen der Psychiatrie und Psychotherapie an der Universität Heidelberg verwies auf einen ironischen Vergleich des US-amerikanischen Philosophen John Searle: Der Mensch kann zwar mit einem Computer einen Wirbelsturm simulieren, aber dieser hat noch keinen Meteorologen verweht.

Lehrerverbandschef Meidinger warnt: KI wird Lese- und Schreibfähigkeit verschlechtern

In der akademischen Welt scheiden sich die Geister bereits seit Jahrzehnten bei der Frage, wie schlau eine künstliche Intelligenz tatsächlich werden kann und welche Folgen das für die Menschheit hat. Weniger abstrakt lassen sich die Anwendungen etwa anhand des Lehrerberufs darstellen. Schon jetzt experimentieren Lehrer mit der computergestützten Auswertung von Aufsätzen, so dass beispielsweise eine fairere Benotung möglich sein könnte. Umgekehrt könnten Schüler mit Hilfe von ChatGPT ganze Aufsätze schreiben lassen.

Dass KI einen nachhaltigen Einfluss auf die Schule haben wird, davon ist der Präsident des Deutschen Lehrerverbandes, Heinz-Peter Meidinger, überzeugt. Er erklärt im Gespräch mit Corrigenda:

Natürlich wird die dynamisch-rasante Entwicklung von KI auch Bildungsprozesse und Schulen beeinflussen und verändern. Allerdings wird KI nie das Kernmedium schulischer Lernprozesse, nämlich die Lehrkraft ersetzen können. Erfolgreiche Bildungsprozesse beruhen letztendlich auf sozialer Interaktion und auf der nicht durch KI ersetzbaren persönlichen Motivations- und Begeisterungsfähigkeit von gut ausgebildeten Pädagoginnen und Pädagogen. Das zeigen auch alle bisherigen Metastudien zur Effektivität digitaler Medien.“

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bereits jetzt sei es ein Problem, dass Schüler Plagiate und nicht gekennzeichnete Übernahmen aus dem Internet als eigene Lernergebnisse ausgäben. „Entscheidend ist immer, inwieweit ein Schüler das, was er präsentiert, auch selbst verstanden und geistig durchdrungen hat“, betont Meidinger. Dies könne man durch gezieltes Nachfragen schnell erkennen.

Der Verbandschef warnt allerdings vor einem sich verstärkenden negativen Trend: „Wir haben auch ohne KI bereits das Problem, dass immer weniger Jugendliche in der Lage sind, Gedanken selbstständig schriftlich zu formulieren, was letztendlich eine sinkende Lese- und Schreibfähigkeit dokumentiert. Ich sehe nicht, dass GPT ein Heilmittel dagegen ist, im Gegenteil!“

Auch eine gute Imitation ist am Ende nur eine Imitation

Die neue OpenAI-Technologie hat auch Auswirkungen für Journalisten. Schon jetzt können „künstliche Redakteure“ die Ergebnisse von Sportereignissen in Texte umwandeln. Hendrik Zörner vom Deutschen Journalisten-Verband kann sich durchaus vorstellen, dass ein Programm wie ChatGPT die journalistische Arbeit erleichtern könne.

Wenn es jedoch auf fertige Reportagen oder Berichte vom ‘Kollegen Roboter’ hinausläuft, wird es gefährlich: für journalistische Arbeitsplätze, aber auch für die Glaubwürdigkeit der Medien, wenn das Zustandekommen von Geschichten nicht mehr erklärbar oder nachvollziehbar ist“, sagt er auf Corrigenda-Anfrage. Auf jeden Fall brauche es eine Kennzeichnungspflicht für künstlich erstellte Texte.

Sprachmodelle wie ChatGPT tangieren aber auch andere Berufe. Zum Beispiel den des Priesters „Natürlich kann eine KI auf Basis von Trainingsdaten von bisher geschriebenen Predigten etwas ‘Neues’ entwickeln. Dass das auch wie eine Predigt klingt, überrascht nicht, schließlich basiert es auf zahlreichen Textbausteinen, die einem aus Predigten bekannt sind“, schildert Benedict Dopplinger, Vikar einer evangelischen Gemeinde in Wien, gegenüber Corrigenda.

Ich bezweifle aber, dass es für die zuhörende Gemeinde an Predigten echter Menschen herankommt, weil der KI die beiden zuvor genannten Beziehungen – Beziehung zu Gott und Beziehung zu den Menschen – fehlt.“ Dopplinger verweist auf eine Aussage des Religionsphilosophen Martin Buber: Der Mensch wird am Du zum Ich.“ Theologe Dopplinger: „Gerade die Beziehung zu einem Gegenüber – sei es zu Gott oder eben zum Menschen – macht uns zu dem, was wir sind. Selbst wenn das nun eine KI gekonnt imitiert, bleibt es nur beim Imitat.“

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Hatten Musk und die Mitunterstützer von OpenAI – zu denen auch der Investor Peter Thiel, Amazon und Microsoft gehören – zunächst von der größtmöglichen Offenheit und gesellschaftlichen Mitbestimmung gesprochen, merkt man davon heute nichts. Ein Grund könnten Sicherheitsbedenken sein, ein anderer die Monetarisierungsmöglichkeiten von ChatGPT etwa für den Internethandel oder die Gesundheitsbranche.

Vielleicht liegt die Wahrheit also irgendwo zwischen den Extremen „gefährliche Superintelligenz“ und „schnöde Mathematik“.

0
0

Kommentare

Kommentar