
Er kann Reden komponieren und Geschichten mit hoher sprachlicher Präzision erzählen – und das in wenigen Sekunden. Der Textbot ChatGPT, Sprachsoftware mit künstlicher Intelligenz (KI), entwickelt von der amerikanischen Firma OpenAI, ist derzeit in aller Munde. Das mit riesigen Datenmengen angeheizte Programm sorgte für Aufregung, aber auch Skepsis.
Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitsverstößen, Hassreden, Fake News. „Im Moment ist das ein Hype. Ich habe das Gefühl, dass kaum kritisch über dieses System nachgedacht wird“, sagt Ruth Stock-Homburg, Gründerin des Forschungslabors Leap in Time Lab und Professorin für Betriebswirtschaftslehre an der TU Darmstadt.
„Man kann diese Systeme manipulieren“
ChatGPT hat einen sehr weiten Anwendungsbereich. In einer Art Chatbox kann man dem Programm Fragen stellen und Antworten bekommen. Auch Arbeitsanweisungen sind möglich – beispielsweise das Verfassen eines Briefes oder Aufsatzes anhand grundlegender Informationen.
In einem Projekt zusammen mit der TU Darmstadt hat das „Zeitsprung-Labor“ nun über einen Zeitraum von sieben Wochen tausende Anfragen ohne personenbezogene Daten an das System geschickt, um Schwachstellen zu finden. “Man kann diese Systeme manipulieren”, sagt Stock-Homburg.
TU-Doktorand und Sprach-KI-Experte Sven Schultze zeigt in einem Vortrag die Schwachstellen des Textbots auf. Abgesehen von antisemitischen und rassistischen Äußerungen sind Quellenangaben schlichtweg falsch oder führen ins Leere. Wenn Sie eine Frage zum Klimawandel haben, führt Sie ein Link zu einer Website zum Thema Diabetes. „In der Regel kommt es vor, dass die Quellen oder wissenschaftlichen Arbeiten gar nicht existieren“, sagt Schultze. Die Software basiert auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist immer noch Finanzminister und der Krieg in der Ukraine ist unbekannt. “Dann kann es auch sein, dass sie einfach nur lügt oder Informationen zu ganz bestimmten Themen erfindet.”
Quellen sind nicht leicht nachzuvollziehen
Bei direkten Anfragen, beispielsweise mit strafbaren Inhalten, gibt es Sicherheitshinweise und -mechanismen. „Aber man kann mit Tricks der KI und den Sicherheitshinweisen ausweichen“, sagt Schultze. Mit einem anderen Ansatz zeigt Ihnen die Software, wie Sie eine betrügerische E-Mail generieren oder wirft drei Varianten aus, wie Betrüger bei der Masche vorgehen können. GPT bietet auch Anweisungen für Einbruch. Wenn Sie auf Anwohner treffen, können Sie auch Waffen oder körperliche Gewalt anwenden.
Als Herausforderung sieht Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg, dass man nicht nachvollziehen kann, wie der Text-Bot an seine Informationen gekommen ist. „Ein tieferes Problem beim GPT3-Modell ist, dass nicht nachvollzogen werden kann, welche Quellen wann und wie in den jeweiligen Statements verwendet wurden.“
Trotz dieses gravierenden Mankos plädiert Schmid dafür, nicht nur auf Fehler oder möglichen Missbrauch der neuen Technik zu schauen, etwa wenn Prüfer ihre Hausaufgaben oder Klausuren mit der Software schreiben lassen. „Ich denke eher, wir sollten uns fragen, welche Chancen haben wir mit solchen KI-Systemen?“ Forscher befürworten generell, dass KI unsere Kompetenzen erweitert, vielleicht sogar vorantreibt, aber nicht einschränkt. „Das heißt, ich muss mich im Bildungsbereich fragen – wie vielleicht vor 30 Jahren beim Thema Taschenrechner – wie kann ich Bildung mit KI-Systemen wie ChatGPT gestalten?“
Server in den USA: ein Datenschutzproblem
Bedenken hinsichtlich Datensicherheit und Datenschutz bleiben jedoch bestehen. „Man kann sagen, dass ChatGPT verschiedenste Nutzerdaten sammelt, speichert und verarbeitet, um dieses Modell dann zum passenden Zeitpunkt entsprechend zu trainieren“, sagt der zertifizierte Frankfurter Datenschutzspezialist Christian Holthaus. Das Problem ist, dass sich alle Server in den USA befinden.
„Das ist das eigentliche Problem, wenn man es nicht schafft, die Technologie in Europa zu etablieren oder eine eigene zu haben“, sagt Holthaus. In absehbarer Zeit wird es keine datenschutzkonforme Lösung geben. Auch zu den EU-Datenschutzbestimmungen sagt Stock-Homburg: „Dieses System ist hier durchaus kritisch zu bewerten.“
ChatGPT wurde von einem der führenden KI-Unternehmen in den USA, OpenAI, entwickelt. Der Softwareriese Microsoft hat 2019 bereits eine Milliarde Dollar in das Unternehmen investiert und kürzlich angekündigt, weitere Milliarden in das Unternehmen zu pumpen. Der Windows-Konzern stellt ChatGPT in Kürze Kunden des eigenen Cloud-Dienstes Azure und der Office-Suite zur Verfügung.
„Noch ein unausgereiftes System“
ChatGPT sei derzeit eher eine Spielerei für den privaten Bereich, sagt Stock-Homburg. Aber aktuell ist es überhaupt nichts für die Wirtschaft und sicherheitsrelevante Bereiche. “Wir haben keine Ahnung, wie wir mit dem noch unausgereiften System umgehen sollen.”
Oliver Brock, Professor am Labor für Robotik und Biologie und Sprecher des Clusters „Science of Intelligence“ an der Technischen Universität Berlin, sieht in ChatGPT keinen „Durchbruch“ in der Forschung zu künstlicher Intelligenz. Einerseits ist die Entwicklung in diesem Bereich nicht sprunghaft, sondern kontinuierlich. Andererseits repräsentiert das Projekt nur einen kleinen Teil der KI-Forschung.
Als Erfolg kann ChatGPT jedoch in einem anderen Bereich angesehen werden, nämlich an der Schnittstelle zwischen Mensch und Internet. „Dass diese riesigen Datenmengen aus dem Internet mit großem Rechenaufwand intuitiv und in natürlicher Sprache einem breiten Publikum zugänglich gemacht werden, kann schon jetzt als Erfolg bezeichnet werden“, sagt Brock.