Erst im November 2022 stellte die Firma OpenAI der Öffentlichkeit das neue KI-System ChatGPT vor, welches technisch auf dem Sprachmodell „Generative Pre-trained Transformer“ (GPT) 3.5 aufbaut und auf Dialoge mit den Nutzenden trainiert wurde. Das Interesse an diesem System ist riesig, denn bereits nach fünf Tagen hatten sich schon eine Millionen User registriert. und der Hype ist noch immer ungebrochen. Die verblüffend menschlichen Dialoge, die mit einem scheinbar unbegrenztem Wissen und Können gepaart sind, haben die Welt aufhorchen lassen und lassen Sorgen u.a. bei Bildungsexperten, Lehrer*innen und auch Hochschulen aufkommen, ChatGPT könnte Menschen verleiten, sich das Denken und Lernen von diesem Tool abnehmen zu lassen.
Natürlich ist es auch ein Thema, das an der Hochschule Bochum diskutiert wird. Den Bereich Natural Language Processing, darauf wies KI-Experte und Vizepräsident Prof. Dr. Jörg Frochte hin, hat an der Hochschule noch niemand bearbeitet. Aktuell wird jedoch vor allem die Auswirkung auf Lehre und Prüfungen von ChatGPT thematisiert. „Einstieg in Chat GPT - KI in der Lehre und bei Prüfungen“ war darum der Titel des Auftaktes der Workshop-Reihe „L3 und W3“des DigiTeach-Instituts am 8. März 2023, das 20 Teilnehmer*innen in Präsenz und rund 50 Interessierte via Zoom besuchten.
Digiteach-Mitarbeiter Dr. Alexander Dominicus stellte das System vor und zeigte an Beispielen Arbeitsweise, Möglichkeiten und Probleme von ChatGPT. Die Stärken sind offensichtlich: Es kann auf außerordentlich große Datenmengen zugreifen und wurde darauf trainiert Antworten zu erzeugen, die einen menschlichen Dialog imitieren. Das heißt, es nimmt Korrekturen der Nutzenden auf und kann so im Dialog durch Schritt-für-Schritt-Kommunikation und möglichst spezifische Angaben immer bessere Ergebnisse hervorbringen. Auch wenn es für die englische Sprache optimiert ist, wurde es in verschiedenen Sprachen trainiert, kann also auch auf Deutsch antworten.
Aufgrund des Sprachmodells kann ChatGPT umso zweckmäßiger formulieren, je genauer der Kontext der Eingabe definiert ist. Dr. Dominicus stellte darum Aufgaben wie „Erkläre einem fünfjährigen Kind, was ein Neuronales Netz ist“ oder „Verhalte Dich wie ein Hochschulprofessor der Biologie.“
Er machte an Beispielen aber auch die Eigenarten, Grenzen und Probleme des KI-Systems deutlich. So verfügt ChatGPT zwar über große Mengen an Informationen, gibt diese jedoch aufgrund der Funktionsweise des Sprachmodells nicht direkt aus: Es generiert stattdessen auf Grund von Wahrscheinlichkeiten neue unikale Texte. Darum können die Ergebnisse trotz aller scheinbaren Plausibilität faktische und wissenschaftliche Fehler enthalten. Offensichtliche Inkorrektheiten demonstrierte Dr. Alexander Dominicus etwa bei der Beantwortung mathematischer Aufgaben. Auch kann das Tool keine Angaben darüber machen, woher es seine Fakten bezogen hat (oder ob sie gänzlich fiktiv sind); für Nutzende ist es darum oftmals nicht möglich, ohne eigenes Vorwissen zu beurteilen, ob die Resultate richtig oder falsch sind.
Zunächst einmal: Es ist bereits getestet worden, inwieweit ChatGPT sich als Antwortgeber in Prüfungen bewährt hat. Die Ergebnisse waren zwar nicht hundertprozentig korrekt, zum Bestehen der Prüfungen hat es aber gereicht. Darum kann es wichtig sein feststellen zu können, ob in Prüfungen oder bei wissenschaftlichen Arbeiten KI-Systeme eingesetzt worden sind. Der Entwickler von ChatGPT OpenAI hat mit seinem Classifier selbst ein Tool entwickelt, mit dem das nachgewiesen werden soll. Allerdings ist der Nutzen aktuell begrenzt. Zum einen ist die Erkennungsrate noch nicht überzeugend: KI-generierte Testdaten wurden zu 26 % als „wahrscheinlich KI-generiert“ erkannt und von Menschen geschriebene Texte wurden fälschlicher Weise zu 9 % als KI-Produkte identifiziert. Zum anderen ist fraglich, ob Aussagen wie „wahrscheinlich KI-generiert“ zum Nachweis eines Täuschungsversuches ausreichen.
Auch wenn ChatGPT aktuell für die Lehre und für Prüfungen nur eingeschränkt von Nutzen sein kann, waren sich die Workshop-Teilnehmer*innen weitestgehend darin einig, dass es unmöglich ist, solche KI-Tools aus dem Lehralltag zu verbannen oder ihre Existenz zu ignorieren. Und so machte auch Dr. Alexander Dominicus Vorschläge, wie ChatGPT etwa für Prüfungen eingesetzt werden könnte.
Lehrende könnten ChatGPT zur Erstellung von Prüfungsfragen nutzen oder Studierende könnten verschiedene Antworten von ChatGPT generieren lassen und diese anschließend einordnen und bewerten. Aufgrund der beeindruckenden Plausibilität, welche die Texte aufweisen, die von ChatGPT erzeugt wurden, erfordert Letzteres von den Studierenden ein sehr gutes und tiefgehendes Verständnis des Prüfungsthemas. Denkbar ist auch eine Überprüfung der Fähigkeiten im Umgang mit textgenerierenden KI-Tools: Studierenden könnte zur Aufgabe gemacht werden festzustellen, welcher Prompt zur Lösung eines gegebenen Problems am besten geeignet ist.
Abschließend stellte Prof. Dr. Thomas Eder vom DigiTeach-Institut fest, dass es wichtig sei, selbst Erfahrungen im Umgang mit dem System zu machen. Im Hinblick auf die vor Kurzem veröffentliche Nachfolgeversion des Sprachmodells, GPT4.0, welche beispielsweise auch eine Bilderkennung enthält, gibt es sicherlich, neben den im Workshop besprochenen Beispielen auch viel neues zu erfahren. Es zeigt sich, dass die Welt der textgenerierenden KI-Software sich aktuell sehr rasch weiterentwickelt. Das DigiTeach-Institut wird diese Entwicklung weiterverfolgen und freut sich die gewonnenen Erkenntnisse zur Grundlage eines weiteren Workshops werden zu lassen.