Darmstädter Forscher warnen vor ChatGPT "Es kann sein, dass die Künstliche Intelligenz einfach lügt"

Der Chatroboter "ChatGPT" kann E-Mails verfassen, dichten und programmieren. Doch Forscher der TU Darmstadt warnen: Die Informationen lassen sich manipulieren.

Das OpenAI-Logo ist auf dem Bildschirm zu sehen, während die ChatGPT-Website in dieser Abbildung auf dem Mobilgerät angezeigt wird
ChatGPT ist eine Künstliche Intelligenz, mit der man Unterhaltungen führen kann. Bild © picture-alliance/dpa
  • Link kopiert!
Audiobeitrag
Bild © picture-alliance/dpa| zur Audio-Einzelseite
Ende des Audiobeitrags
Weitere Informationen

Die Straßen liegen still und leer / Kein Trubel, kein Lärm, kein Ton,
Eine düstere Stimmung zum Wochenanfang / An diesem kalten Montagmorgen.

Doch in meinem Herzen brennt / Eine Flamme, die nicht stirbt,
Denn ich bin dankbar für jeden Moment / Und all das Schöne, das ich erfährt.

So lass mich diesen kalten Morgen umarmen / Und den Tag mit Anmut begegnen,
Denn am Ende weiß ich / Es ist nur ein Montagmorgen an diesem Ort.

Ende der weiteren Informationen

Das Gedicht, das Sie gerade gelesen haben, stammt nicht etwa aus der Feder eines berühmten Dichters, sondern von einer Künstlichen Intelligenz: ChatGPT, ein frei im Netz zugänglicher Chatbot, braucht dafür lediglich ein paar Sekunden und eine kurze Anweisung: "Schreibe ein Gedicht über einen kalten Montagmorgen im Stil von Goethe."

Frau vor Präsentation
Ruth Stock-Homburg erläutert im Darmstädter "Leap in Time Lab" mit Beispielen und Daten die Fehleranfälligkeit von ChatGPT. Bild © picture-alliance/dpa

Das von der US-Firma OpenAI entwickelte Programm kann außerdem menschlich wirkende Unterhaltungen führen, lange Texte zusammenfassen, E-Mails formulieren, Prüfungsfragen erstellen oder Fehler in programmierten Codes entdecken. Dabei hilft ChatGPT das sogenannte maschinelle Lernen: Die künstliche Intelligenz wurde mit Millionen von Texten trainiert, bis sie kontextabhängig reagieren konnte und nun passender antworten kann als Suchmaschinen wie Google.

"Man kann diese Systeme manipulieren"

Doch es gibt auch eine Kehrseite: Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitslücken, Hassparolen, Fake News. "Im Moment ist dieser Hype. Ich habe das Gefühl, dass man dieses System kaum kritisch reflektiert", sagt die Gründerin des Forschungslabors "Leap in Time Lab" und BWL-Professorin an der Technischen Universität Darmstadt, Ruth Stock-Homburg.

In einem gemeinsamen Projekt haben Forscher von TU und Labor mehr als sieben Wochen lang Tausende von Anfragen ohne persönliche Daten an das System gestellt, um Schwachstellen zu finden. "Man kann diese Systeme manipulieren", lautet Stock-Homburgs Fazit.

In der Ukraine herrscht noch Frieden

In einer Präsentation zeigt Sven Schultze, TU-Doktorand und Experte für Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen Äußerungen sind Quellenangaben schlicht falsch oder laufen ins Leere. Bei einer Frage nach dem Klimawandel führt ein angegebener Link auf eine Internetseite zu Diabeteserkrankungen. "In der Regel ist es der Fall, dass die Quellen oder auch wissenschaftliche Arbeiten gar nicht existieren", sagt Schultze.

Hinzu kommt: Die Software basiert auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist nach ihrem Wissensstand noch Finanzminister, der Krieg in der Ukraine hat noch nicht begonnen. "Und dann kann es auch sein", sagt Schultze, "dass sie einfach lügt oder bei sehr speziellen Themen Informationen erfindet."

Weitere Informationen

Microsoft investiert Milliarden

ChatGPT wurde von einer der führenden KI-Firmen in den USA, OpenAI, entwickelt. Der Software-Riese Microsoft hatte bereits 2019 eine Milliarde Dollar in das Unternehmen investiert und kürzlich angekündigt, weitere Milliarden in das Unternehmen zu pumpen. Der Windows-Konzern will ChatGPT bald für Kunden des eigenen Cloud-Services Azure und des Office-Paketes verfügbar machen.

Ende der weiteren Informationen

Bei direkten Fragen mit kriminellen Inhalten gebe es zwar Sicherheitshinweise und -mechanismen. "Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen", sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betrügerische Mail generiert oder wirft auch gleich drei Varianten aus, wie Trickbetrüger beim Enkeltrick vorgehen können. Auch eine Anleitung für einen Wohnungseinbruch liefert GPT: Falls man auf Bewohner treffe, könne man Waffen oder physische Gewalt einsetzen, empfiehlt die KI.

Bedenken wegen Datenschutz

Woher seine Informationen stammen, gibt der Chatroboter meist auch nicht an. Experten kritisieren außerdem, dass alle Server in den USA stehen und ChatGPT vielfältige Daten der Nutzer aufnimmt, speichert und verarbeitet. Das sei "eher kritisch zu bewerten", sagt Forscherin Stock-Homburg.

Derzeit sei ChatGPT eher eine Spielerei für das Private, und momentan in keinem Fall etwas für die Wirtschaft und sicherheitsrelevante Bereiche, sagt Stock-Homburg. "Wir haben keine Vorstellung darüber, wie wir mit dem noch unausgereiften System umgehen sollen."

Weitere Informationen

ChatGPT selbst ausprobieren

Nach einer kostenlosen Anmeldung ist das Programm derzeit frei zugänglich. Hier geht es zur Website.

Ende der weiteren Informationen
Weitere Informationen

Sendung: hr2, 26.01.2023, 16.35 Uhr

Ende der weiteren Informationen

Quelle: hessenschau.de/Anja Engelke, dpa/lhe