skip to main contentskip to main menuskip to footer Universität Bielefeld Play Search
  • ChatGPT

    Campus der Universität Bielefeld
    © Universität Bielefeld

ChatGPT - aktuelle Fragen

Universität Bielefeld
© Universität Bielefeld

In letzter Zeit sind mit dem Aufkommen von kostenlosen Softwareanwendungen zur Bearbeitung von umfangreichen und auch komplizierten Anfragen durch „künstliche Intelligenz“ (KI) auch im Lehr- und Prüfungsbetrieb der Universitäten didaktische und rechtliche Unsicherheiten entstanden. Das Rechtsgutachten „Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung“ bietet einen guten Einstieg in die Thematik und soll zum besseren Verständnis im Folgenden durch einige prüfungsrechtliche Erwägungen ergänzt werden. 

Gliederung

Einführung

Rechtsfragen zu entsprechenden Technologien bei Prüfungen oder Studienleistungen entwickeln sich maßgeblich aus der Frage, ob und inwieweit die Verwendung von Chatbots bei Studien- und Prüfungsleistungen erlaubt, ausgeschlossen oder reglementiert werden muss oder darf.

Prüfungsverfahren dienen dazu, die in Prüfungsordnung und Modulbeschreibung beschriebenen Ziele und Kompetenzen nachzuweisen. Aufgabe von Prüfenden ist es, unter Berücksichtigung dieser Vorgaben, Prüfungen zu konzipieren und individuelle Aufgabenstellungen zu erstellen. In dem Zusammenhang gilt es auch, Aussagen zum Vorgehen und zu Hilfsmitteln zu treffen. Dabei stellt sich die Frage, ob der Einsatz von Chatbots wie ChatGPT oder anderen KI-Instrumenten erlaubt, ausgeschlossen oder reglementiert werden muss oder darf.

Je nach fachspezifischer Definition von Studienleistungen gilt es auch hier, dass eine eigenständige Leistung gefordert wird, die selbständig und somit ohne (KI-)Hilfsmittel erbracht werden muss.

Chatbots als unzulässiges Hilfsmittel - Täuschung

Der (ungekennzeichnete) Einsatz von Chatbots bei Studien- und Prüfungsleistungen entgegen anderslautenden Aufgabenstellungen oder Eigenständigkeitserklärungen ist nicht erlaubt. Eine solche Verwendung gilt, wie auch der Einsatz sonstiger (herkömmlicher) unzulässiger Hilfsmittel, als Täuschungsversuch. Ein Täuschungsversuch führt in der Regel dazu, dass eine Abwertung oder ein Nichtbestehen erfolgen "kann". Es ist also noch eine ordnungsgemäße Ermessensausübung durch die jeweils prüfende Person vorzunehmen. Überlicherweise sehen die Prüfungsordnungen vorher eine Anhörung zum Täuschungsvorwurf vor.

Im Einzelnen:

Studien- und Prüfungsleistungen müssen "eigenständig" und ohne fremde Hilfe erbracht werden, weil individuelle Fähigkeiten unter Beweis gestellt werden sollen. Beim Einsatz von KI-Software zur Erstellung von Prüfungsleistungen fehlt diese Eigenständigkeit. Die vermeintliche Prüfungsleistung beruht durch den Einsatz von Chatbots nicht mehr auf einer selbstständigen und persönlichen Anwendung der erlernten und nachzuweisenden Kompetenzen im individuellen Prüfungskontext.

Ursprünglich mag bei dem Ausschluss der Inanspruchnahme fremder Hilfe an andere Menschen oder Unternehmen gedacht worden sein, fremde Hilfe kann aber auch anderweitig zum Beispiel in technischer Hinsicht in Anspruch genommen werden. Übliche technische Unterstützungen durch ChatGPT oder andere KI-Software haben häufig den gleichen quantitativen und qualitativen Umfang wie eine bereits jetzt sanktionierte, durch „menschliche“ Hilfestellung erreichte Unterstützung. Daher wird die Inanspruchnahme von KI-Software ebenfalls begrifflich von der "Inanspruchnahme fremder Hilfe" umfasst.

Ist eine eigenständige Bearbeitung Bestandteil der Aufgabenstellung und werden ggf. übliche Eigenständigkeitserklärungen verlangt und benutzt, kann bereits auf dieser Basis angenommen werden, dass ein unzulässiger Einsatz von Chatbots oder anderen technischen Hilfsmitteln als Täuschungsversuch zu werten ist, weil fremde Hilfe in Anspruch genommen wurde.

Durch das Aufkommen von KI-Software und ähnlichen technischen Tools wurde die Anzahl der technischen Hilfsmittel erweitert. Es bietet sich an, das Verbot technischer Hilfsmittel ausdrücklich (in der Aufgabenstellung) zu benennen und eine genauere Differenzierung und Ausformulierung vorzunehmen.

Chatbots als zulässiges Hilfsmittel

Es besteht auch für Prüfer*innen die Möglichkeit, den Einsatz von Chatbots als legitimes Hilfsmittel ausdrücklich für eine Studien- oder Prüfungsleistung zuzulassen, wenn das jeweilig definierte und vorgegebene Ziel der Studien- und Prüfungsleistung mit dem Einsatz von Chatbots erreicht werden kann. 

Es existieren bereits heute Prüfungen, bei denen lediglich durch eine Anpassung der Aufgabenstellung erreicht werden kann, dass Studierende für die Bearbeitung Chatbots nutzen können, ohne dass dadurch der Nachweis des bislang geforderten Kompetenzerwerbs gefährdet wird.

Hierbei gilt es nicht nur aus rechtlichen Gründen zu beachten, dass trotz Verwendung von KI-Werkzeugen die Ergebnisse auf einer Grundlage beruhen müssen, die aus selbst angeeignetem Wissen der Studierenden besteht (Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 33). In diesem Sinne kommen etwa Aufgabenstellungen in Frage, bei denen umfassende und überzeugende Ergebnisse trotz KI-Einsatz nur dann präsentiert werden können, wenn die zugrundeliegende Thematik entsprechend verstanden und durchdrungen wurde. Eine andere Lösung wäre, im Rahmen des vorgegebenen Rahmens den Erwartungshorizonts zu modifizieren und (andere) Schwerpunkte bei Aspekten der Bewertung der Leistung zu setzen oder strenger zu bewerten (Zu diesen und weiteren Möglichkeiten der Realisierung von KI-Prüfungsformaten Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 16 f.). Nur soweit ein Kompetenzerwerb (weiterhin) durch die gewählte Aufgabenstellung überprüfbar ist, besteht also Wahlfreiheit der Prüfenden hinsichtlich der zulässigen Hilfsmittel.

Für Prüfungen sollte die schriftliche Festlegung von expliziten Regelungen zum Umgang mit (einem, mehreren oder allen) KI-Tools über die Aufgabenstellung erfolgen. Dabei empfiehlt sich, die Studierenden (im Rahmen der Eigenständigkeitserklärung) zu einer Dokumentation zu verpflichten, welche Software mit welchen Befehlen („Prompts“) individuell zum fertigen Ergebnis verholfen hat (Beispielformular s.u.). Dadurch kann die Kompetenz gefördert werden, verschiedene Werkzeuge möglichst prüfungsspezifisch gelungen einzusetzen und zu kombinieren.

Generell sollten Sie die Frage der (rechtlichen) Zulässigkeit von KI-Software zum Gegenstand der Lehre und vermittlung im jeweiligen Studiengang gemacht werden. Hierfür ist eine konzeptionelle Verständigung im fach und zwischen den lehrenden erforderlich. Diese Verständigungen und Maßgaben zum KI Einsatz sollte transparent an die Studierenden kommuniziert werden, sei es in Modulbeschreibungen oder dem EKVV.

Darüber hinaus könnte zukünftig über eine Änderung an Modulen ein Zuschnitt der zu erlernenden Kompetenzen geschaffen werden, der den Einsatz von Chatbots/künstlicher Intelligenz für den Nachweis des Lernerfolgs im Rahmen der Prüfung möglich oder erforderlich macht. So ist etwa vorstellbar, dass Studierende in der Zukunft nicht nur etwa in Methoden der Datenauswertung, Textauslegung oder Wissensvermittlung geprüft werden, sondern auch im zielführenden Einsatz von KI-Software bezogen auf die jeweilige Fachdisziplin.

Vor- und Nachteile

Soweit (überhaupt) bereits Möglichkeiten bestehen, Ziel und vorgegebene Kompetenzen einer Studien- oder Prüfungsleistung durch den Einsatz von Chatbots zu erreichen, überwiegen insgesamt die Vorteile eines solchen Vorgehens aus nachfolgenden Erwägungen heraus:

  • Es wichtig, eine Sammlung von Kompetenzen zu vermitteln, die auch dem aktuellen technischen Stand der jeweiligen Disziplin Rechnung trägt.
  • KI-generierte Texte weisen bereits eine hohe Qualität auf. Es wird Prüfer*innen deshalb je nach fachlichem Kontext u.U. nur schwer möglich sein, zu erkennen, ob eine Prüfungsleistung mithilfe von künstlicher Intelligenz verfasst wurde oder nicht. Somit kann es interessengerechter sein, eine Nutzung von vornherein zuzulassen.
  • Software zur Erkennung KI-gestützter Texterstellung entwickelt sich (noch) verzögert weiter und garantiert nicht ohne Weiteres eine verlässliche Indikation. Des Weiteren ist es schwierig, den Einsatz von Chatbots rechtssicher nachzuweisen, da insofern (nicht wie beim Plagiat) keine Vorquelle besteht, deren Verwendung bewiesen werden kann, sondern ein Text genau für die abgefragte Verwendung von der Software generiert wird.
  • Sollten fachliche oder methodische Auffälligkeiten vorliegen, welche dafür sprechen, dass in unzulässiger Weise eine KI zur Erstellung der Leistung zum Einsatz gekommen ist, können Studierende aufgefordert werden, darzulegen, wie bei der Erstellung der Leistung vorgegangen wurde. Studierende werden mit den Auffälligkeiten (z.B. Art und Weise Form, Stylistik und Umfang etc.) konfrontiert und erhalten die Möglichkeit, diese zu erklären. Gelingt dies Studierenden überzeugend nicht und bleibt als einzige Erklärung ein unzulässiger KI-Einsatz, kann dies als Beleg für eine entsprechende Täuschung ausreichen (sog. Beweis des ersten Anscheins). 

Allerdings gilt es folgende Aspekte zu berücksichtigen:

Einer flächendeckenden Zulassung von Chatbots zur Nutzung im Rahmen von Prüfungsverfahren steht aktuell noch entgegen, dass es aufgrund der (vermeintlich) plötzlichen Innovation zu vorrübergehenden Unwägbarkeiten im Rahmen der üblichen Prüfungsabläufe kommen kann. Neue förderungswerte Kompetenzen und geeignete Prüfungsformen müssen sich erst herauskristallisieren, bis wieder ein stärkerer Zustand der Normalität eintritt.

Es bestehen bei ChatGPT auch bereits erste Einschränkungen für Nutzer*innen ohne monatliches Abonnement (Preis momentan etwa 20$). Insbesondere stehen zahlenden Kund*innen eine wachsende Vielzahl von fachwissenschaftlichen „GPTs“ (Sprachmodellen) zur Verfügung, die anstatt der allgemeinen Programmierung von ChatGPT verwendet werden können. Es gilt aus prüfungsrechtlicher Sicht sicherzustellen, dass die Startbedingungen einer Prüfung auch bei sozial schwachen Studierenden gleich sind.

Muster Eigenständigkeitserklärungen / Protokollierung

Zu den beiden beschriebenen Sitiationen

  • Chatbots als unzulässiges Hilfsmittel - Täuschung
  • Chatbots als zulässiges Hilfsmittel

findet sich hier verlinkt eine Datei mit Musterformulierungen für Eigenständigkeitserklärungen, die jeweils auf die konkrete Prüfungssituation angepasst werden sollten.

Muster Eigenständigkeitserklärungen Chatbots

Fazit und Ausblick

Bereits vor der Zeit der KI-Werkzeuge hat das Prüfungswesen große technische Wandel überstanden (beispielsweise den Wechsel von der reinen Bibliotheksnutzung auf ein breites Angebot an Internetquellen oder die flächendeckende Versorgung mit „Personal Computers“ (PCs) anstelle von vereinzelten Gruppenarbeitsplätzen für Rechner). Außerdem deutet sich an, dass durch eine Integration von KI-Werkzeugen in übliche Anwendungen (z.B. zuletzt Word365) der Einsatz solcher Tools immer selbstverständlicher werden wird (Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 12.)

Insofern sprechen die dargestellten Vorteile insgesamt dafür, soweit möglich KI-Werkzeuge beim Nachweis von Kompetenzen mit einzubinden, anstatt ein allgemeines Verbot auszusprechen. In machen Zusammenhängen und Prüfungsverfahren wird aber auch ein Verbot dieser Hilfsmittel der richtige Weg sein.

back to top