ChatGPT und KI-Sprachmodelle als (unerlaubte) Hilfsmittel an der Uni Wien

Peter Lieberzeit, Studienpräses und stellvertretender Leiter des Instituts für physikalische Chemie an der Universität Wien, erklärt im Interview, welche Herausforderungen in der Lehre durch ChatGPT entstanden sind und warum KI-generierte Texte ohne Kennzeichnung als Ghostwriting betrachtet werden.

Studierende lernen gemeinsam und sitzen nebeneinander
ChatGPT an der Uni. Foto Adobe Stock

Studierende, die für Leistungen in einer prüfungsimmanenten Lehrveranstaltung unerlaubte Hilfsmittel wie etwa ChatGPT heranziehen, müssen an der Universität Wien mit studienrechtlichen Konsequenzen rechnen. Jedoch ermöglicht Künstliche Intelligenz auch viele hilfreiche Anwendungen im universitären Betrieb. Wie KI in den Uni-Alltag integriert werden kann und worauf dabei zu achten ist, lesen Sie im Interview.

KI-Sprachmodelle an der Uni Wien: ein Interview 

Ist der Einsatz von KI-Sprachmodellen wie ChatGPT an der Universität Wien erlaubt?
Peter Lieberzeit:
Das lässt sich nicht generell beantworten. Unsere Lehrenden müssen für jede Lehrveranstaltung definieren, was ein zulässiges Hilfsmittel ist. Es herrscht auf diesem Gebiet aber große Unsicherheit. Der erste Reflex wäre, ChatGPT beziehungsweise KI-Sprachmodelle generell zu verbieten. Das ist genauso naheliegend wie sinnlos, weil das Werkzeuge sind, die natürlich auch Vorteile bieten. Klar ist jedoch, dass künstliche Intelligenz bei schriftlichen Prüfungen nichts verloren hat und dass ChatGPT oder vergleichbare Systeme bei der Erstellung von Seminar- und Abschlussarbeiten verboten sind, sofern ihr Einsatz nicht ausdrücklich erlaubt ist. Allerdings muss dieser Diskussionsprozess weiterlaufen, da es durchaus sinnvolle Anwendungen geben kann.

Handelt es sich bei KI-generierten Texten um Plagiate?
Lieberzeit:
Texte, die beispielsweise von ChatGPT erstellt werden, sind für uns per Definition keine Plagiate. Denn ChatGPT generiert ja durchaus neue Texte. Plagiat hingegen heißt, dass ein bestehendes Werk kopiert oder adaptiert wird, wie etwa bei Übersetzungsplagiaten. Wir ziehen daher im Fall von ChatGPT eine Analogie zum Ghostwriting und betrachten ChatGPT gewissermaßen als „Person“, die für jemanden anderen einen Text schreibt. Wer KI-Sprachmodelle zum Verfassen einer Abschlussarbeit verwendet, begeht zwar kein Plagiat, hält sich aber nicht an die Spielregeln der guten wissenschaftlichen Praxis und Ethik.

Hinweis

Hier geht es zum Videoclip mit Peter Lieberzeit: KI-Sprachmodelle

Gibt es Mittel, um festzustellen, ob ein Text per KI-Sprachmodell erstellt wurde?
Lieberzeit: Die Anbieter unserer „Plagiatssoftware“ entwickeln derzeit Programme, die mit künstlicher Intelligenz generierte Texte erkennen sollen. Die gegenwärtigen technischen Lösungen arbeiten nur mit statistischen Wahrscheinlichkeiten. Mit Blick auf den technologischen Hintergrund von künstlicher Intelligenz ist das auch nicht weiter verwunderlich.

Für die Überprüfung schriftlicher Leistungen ist der Mensch also weiterhin als letzte Instanz anzusehen?
Lieberzeit: Ja, de facto braucht es den Menschen. Wir empfehlen unseren Lehrenden dieselbe Vorgehensweise wie bei Verdacht auf Schummeln oder Ghostwriting. Es gibt an der Universität Wien seit Jahren den sogenannten Plausibilitätscheck. Lehrende können nach der Einreichung schriftlicher Arbeiten die Studierenden zum Gespräch laden, um mündlich über die betreffende Arbeit zu sprechen und festzustellen, ob die Person den Text selbst verfasst haben kann. Bestünde also der Verdacht, dass ein Text KI-generiert ist, würden wir der Lehrenden oder dem Lehrenden vorschlagen, im Gespräch mit der Studierenden oder dem Studierenden abzuklären, ob der schriftliche und der mündliche Ausdruck zusammenpassen und die Person auch tatsächlich etwas über die Inhalte weiß.  

Wenn der Verdacht besteht, dass schriftliche Prüfungsleistungen mittels künstlicher Intelligenz erbracht wurden, empfehlen wir außerdem, die Prüfungsfrage als Prompt in ein KI-Tool wie ChatGPT einzugeben. Da wird zwar nicht derselbe Text herauskommen, aber zumindest erhalten die Lehrenden Hinweise in Bezug auf Struktur und Stilistik. Außerdem hinkt der Trainingsstand solcher Systeme derzeit noch ein paar Monate hinterher, sodass man mit sehr aktuellen Prüfungsfragen die Möglichkeit, KI als unerlaubtes Hilfsmittel einzusetzen, reduzieren kann. In Anbetracht der rasanten technologischen Entwicklung würde ich mich aber nicht allzu lange auf diese Lösung verlassen.

Ist es bereits Ghostwriting, wenn Studierende einen selbst verfassten Text zur Korrektur oder Optimierung in ein KI-Sprachmodell eingeben?
Lieberzeit: Hier kommen wir in einen Grenzbereich. Früher hätten Studierende womöglich eine Kollegin oder einen Kollegen gebeten, die Arbeit zu korrigieren. Ich würde sagen, solange sich die Überprüfung nicht auf inhaltliche Aussagen auswirkt und außerdem angegeben wird, dass ein entsprechendes Tool genutzt wurde, ist das unproblematisch.

Welche Tipps würden Sie Studierenden geben, die ChatGPT verwenden möchten?
Lieberzeit: KI-Tools auszuprobieren, um sich mit den Funktionen solcher Programme vertraut zu machen, lohnt sich auf jeden Fall. In Lehrveranstaltungen appellieren wir jedoch an unsere Studierenden, sich streng an die Vorgaben der Lehrveranstaltungsleitung zu halten.

Tipp

Mit diesen Tipps sind Studierende im Cyberalltag auf der sicheren Seite.

Mit welchen Konsequenzen müssen Studierende rechnen, wenn ihnen die regelwidrige Nutzung von KI nachgewiesen wird?
Lieberzeit:
Es drohen dieselben Konsequenzen, wie wenn bei einer Lehrveranstaltung „geschummelt“ wird, also unerlaubte Hilfsmittel verwendet werden. Bei Lehrveranstaltungen führt das üblicherweise zur Eintragung eines „X“ statt einer Note, das bezeichnet eine „erschlichene Leistung“. Wer erwischt wird, verliert durch den „Schummelvermerk“ den Prüfungsantritt.

Bei Abschlussarbeiten gilt dasselbe wie bei Plagiaten: Falls die Arbeit noch nicht benotet wurde und man draufkommt, wird sie als „Nicht genügend“ beurteilt. Die Studienprogrammleitung entscheidet dann, ob der Regelverstoß so schwerwiegend ist, dass auch Thema und Betreuung als genehmigte Kombination „verbrannt“ sind, die Person also ein völlig neues Thema bearbeiten muss. Das hängt vom Einzelfall ab. Wenn die Arbeit schon beurteilt und ein akademischer Grad verliehen wurde, dann wäre die Vorgehensweise analog zu einem Plagiatsverfahren.

Wie kann die Universität Wien im Bereich der Lehre von KI-Sprachmodellen profitieren?
Lieberzeit:
Das versuchen wir gerade herauszufinden. Vorstellbar wäre beispielsweise in den Naturwissenschaften, dass künstliche Intelligenz beim Schreiben von Laborprotokollen zum Einsatz kommt und die Literatur, die in die Gesamtthematik einführt, generiert. Diese muss dann nur noch überprüft werden. Ich höre auch von Kolleginnen und Kollegen aus der Informatik, dass KI im Bereich des Schreibens von Programmcodes eine große Zukunft hat. Gerade wenn es um Routinearbeiten geht, sehe ich da viel Potenzial. Ich bin überzeugt davon, dass es auch in den Geisteswissenschaften viele nützliche Anwendungen gibt.

ChatGPT oder künstliche Intelligenz generell zeigen aber auch auf, was wir als Universität – insbesondere seit der Covid-19-Pandemie – schon früher betont haben, nämlich dass der persönliche Kontakt zwischen Lehrenden und Studierenden einen großen Mehrwert bietet. Wenn uns künstliche Intelligenz auf anderen Ebenen Arbeit abnehmen kann, damit wir mehr Zeit mit den Studierenden verbringen können, ist das wünschenswert.

Tipp

Hilfreiche Ratschläge für die Recherche im Netz finden Sie im Beitrag „Internetrecherche: So finden Studierende sicher seriöse Quellen“.

Letzte Aktualisierung: 5. Oktober 2023

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria