Der Chatbot ChatGPT sorgt für viel Diskussionsstoff. Über eine Million Nutzer haben seit dem Launch im Dezember bereits mit der KI „kommuniziert“. Die verblüfften Reaktionen auf Social Media reichen dabei von großer Begeisterung, über Risikoabwägungen bis hin zu reißerischen Warnungen vor der bevorstehenden Apokalypse.
Der ChatGPT ist ein Sprachmodell – kein Wissensmodell
Aus Sicht von Professor Dr. Johannes Moskaliuk sind die zuweilen heftigen Reaktionen der Nutzer zwar verständlich, aber wenig hilfreich, wenn es um eine nüchterne Beurteilung von ChatGPT geht. Digitalisierungsexperte Moskaliuk differenziert, dass es sich hier aktuell noch um ein Sprachmodell, und nicht etwa um ein Wissensmodell handelt. Diese Unterscheidung sei essenziell, wenn es um die Bewertung der neuen Technologie geht: „Grundlage für ChatGPT ist ein künstliches neuronales Netz, das versucht, menschliche Sprache in einem statistischen Modell abzubilden. Mit diesem Modell wird beschrieben, welche Sätze, Antworten und Aussagen in einem bestimmten Kontext passend sind. Dazu wird das Modell mit bestehenden Inhalten trainiert, im Falle von GPT sind das Milliarden von Wörtern, die auf Webseiten im Netz veröffentlicht sind.“ Die neue Technik versucht demnach, menschliche Kommunikation zu imitieren, ohne eigene kreative Denkleistung, betont Moskaliuk: „Die KI „versteht“ nicht, um was es geht, sondern berechnet, welche Antwort passend sein könnte – mit hoher Treffsicherheit.“
ChatGPT imitiert Sprache nach statistischen Berechnungen
Ein Blick auf Google sei dabei hilfreich, um die Weiterentwicklung von ChatGPT aufzuzeigen, erklärt ISM-Professor Dr. Veith Tiemann für Data Science und Business Analytics. Im Gegensatz zu Google zeigt ChatGPT nicht mehr die Links bzw. Textquellen zu einer Stichwortsuche an, sondern erstellt auf Basis eines künstlichen neuronalen Netzes selbst eine präzise erscheinende Antwort. Diese wird aufgrund statistischer Zusammenhänge und Wahrscheinlichkeiten berechnet. Da die menschliche Sprache aber auch von Feinheiten und Zwischentönen lebt, können dabei auch merkwürdige Ergebnisse bis hin zu Fake News entstehen: „Der Chatbot ist also nur so präzise und korrekt, wie die Textinhalte, mit welchen er gefüttert wurde,“ so der Statistik-Experte Tiemann.
Die Illusion von einer Denkleistung ist die eigentliche Herausforderung von ChatGPT
„Die Tatsache, dass die Unterscheidung zwischen ausgefeilter Sprachimitation und eigenständigem Denken kaum mehr für die menschlichen User*innen transparent ist, erscheint dabei als die eigentliche Herausforderung im Umgang mit der neuen KI-Generation,“ erläutert Tiemann. Aus diesem Grund sei auch eine disziplinübergreifende fachliche und gesellschaftliche Diskussion notwendig, wie ISM-Kollege und Wirtschaftspsychologe Johannes Moskaliuk fordert: „Psychologische, soziale, ethische und juristische Aspekte machen eine interdisziplinäre Sicht auf die anstehenden Veränderungen notwendig. Durch die neuen KI-Leistungen müssen wir Fragen lösen wie diese: wer ist verantwortlich für eine KI, die diskriminierende Aussagen macht – und damit nur das wiedergibt, was das System auf Basis von Trainingsdaten kombiniert hat? Wer übernimmt die Verantwortung für Behandlungsfehler, die auf Basis einer Empfehlung durch eine KI zustande kamen? Wer hat die Rechte an einem Gedicht, das von einer KI geschrieben wurde?“ Die Hochschulen sind in Zukunft also nicht nur gefordert, ihre Prüfungsnachweise zu überdenken, sondern müssen sich auch interdisziplinär mit den Auswirkungen der neuen KI-Systeme wissenschaftlich auseinandersetzen.
Quelle: https://ism.de/hochschule/presse/pressemeldungen/illusion-einer-denkleistung-von-chatgpt