Essen. Lösen Studierende und Schüler künftig ihre Aufgaben mit Künstlicher Intelligenz? Richtlinien sollen Verwendung an Schulen und Unis jetzt regeln.
Ist es ein Plagiat, wenn eine Künstliche Intelligenz eine Hausarbeit schreibt? Ist das als Betrug zu werten? Wer ist überhaupt Autor und Urheber, wenn ein Student eine Software für das Verfassen seiner Seminararbeit nutzt? Solche Fragen treiben Hochschulen und Schulen um, seit Chatroboter wie ChatGPT in der Lage sind, Texte zu verfassen, die sich lesen wie von Menschenhand geschaffen.
Die große Sorge ist: Eine Künstliche Intelligenz (KI), die auf Anforderung Aufsätze, Artikel, Referate oder komplette Hausarbeiten zu allen möglichen Themen erstellt, könnte dafür sorgen, dass Studierende künftig auf einen Sprachroboter setzen anstatt auf Eigenleistungen.
Erste Hilfe im Umgang mit KI
Schulen und Hochschulen beobachten die Entwicklung sehr aufmerksam. Vor allem, seit das verbesserte Sprachmodell ChatGPT Ende 2022 veröffentlicht wurde, herrscht teils helle Aufregung. Die Vortäuschung eigenständiger Leistungen etwa in Hausarbeiten zu erkennen, dürfte immer schwieriger werden, mahnen Hochschul- und Lehrerverbände. Welche Veränderungen das Werkzeug (Tool) für die Unterrichts- und Prüfungskultur bedeuten werde, sei noch gar nicht abzusehen.
Eine erste Hilfe im Umgang mit KI-Werkzeugen sollen Hochschulen nun durch ein Rechtsgutachten erhalten, das ein Team von Experten unter Leitung von Peter Salden, Leiter des Zentrums für Wissenschaftsdidaktik an der Ruhr-Uni Bochum, koordiniert. Das Ergebnis soll bereits in diesem Frühjahr vorliegen und den Hochschulen beim Umgang mit den Sprachmodellen Handlungssicherheit geben. Die Zeit drängt, denn die Entwicklung verläuft rasant. Schon kündigte das Unternehmen OpenAI, das ChatGPT entwickelt hat, in den kommenden Monaten eine verbesserte Version an.
Schulministerium will ChatGPT nicht verbieten
Auch das NRW-Schulministerium will Lehrkräften mit einer geplanten Handlungsanweisungen Hilfestellung geben. Derzeit werde eine „Kurz-Info“ erarbeitet, die „in den nächsten Wochen“ an die Schulen versendet werde. Verbannen will das Ministerium die Software indes nicht.
„Ein generelles Verbot zur Nutzung von KI-Anwendungen ist nicht geplant und würde der zunehmenden Relevanz solcher Anwendungen mit Blick auf den Bildungs- und Erziehungsauftrag der Schulen zuwiderlaufen“, teilt das Ministerium auf Anfrage mit. Es gehöre zu den Kernaufgaben der Schulen, Medienkompetenz zu fördern.
„Das Interesse an dem Thema ist an den Hochschulen gigantisch“, beobachtet Peter Salden. Ebenso groß sind offenbar die Unsicherheiten. Studierende kommen zu ihm und fragen: Ich habe eine Sprachsoftware benutzt – darf ich das eigentlich? Dozenten wollen wissen, wie sie die Prüfungen verändern müssen. „Erste Lehrkräfte passen ihre Prüfungsformate bereits an die neue Technik an und ergänzen schriftliche Arbeiten etwa durch mündliche Komponenten“, sagt Salden.
Sind Texte von ChatGPT Plagiate?
Die Bochumer Expertengruppe gehört zu den ersten, die sich mit der Bedeutung von KI-Anwendungen für den Studienbetrieb an deutschen Hochschulen befassen. Denn die Software stellt seit Jahrzehnten bewährte und eingeübte Lehr- und Prüfungsmethoden in Frage. ChatGPT und andere Sprachmodelle setzen nicht einfach einen Text aus vorgefundenen Bausteinen zusammen, sondern sie erzeugen ihn komplett neu. „Das ist der Grund, warum Plagiatssoftware solche Texte nicht identifizieren kann“, sagt Nadine Lordick, Expertin in dem Projektteam mit dem Titel „KI:edu.nrw – Didaktik, Ethik und Technik von KI in der Hochschulbildung“, das von der NRW-Landesregierung unterstützt wird.
Die Frage, wann es sich bei dem Einsatz von KI um einen Täuschungsversuch handelt, sei daher nicht einfach zu beantworten, meint Salden. Wenn ein Student einen Text, den der Sprachroboter erstellt hat, eins zu eins übernimmt und als Hausarbeit einreicht, wäre das keine eigene geistige Leistung. Wenn er aber wie ein Kurator den Chatroboter als Hilfsmittel benutzt, die Fragestellung konkretisiert, die Ergebnisse lenkt, auswählt und ergänzt, sei immer noch der Student der Urheber, findet Salden.
Debatte um Taschenrechner und Übersetzungsprogramme
Es sei nur noch eine Frage der Zeit, wann die Softwaren Texte in so hoher Qualität ausspuckt, dass man nicht mehr erkennen könne, ob sie tatsächlich von Menschenhand verfasst sind. Dennoch warnen die Experten vor hektischem Aktionismus. Der Taschenrechner habe vor Zeiten ähnliche Debatten ausgelöst: Brauchen wir noch Kopfrechnen, wenn der Computer das viel rascher und zuverlässiger kann?
Später lösten immer zuverlässigere Übersetzungsprogramme im Fremdsprachenstudium Diskussionen aus. Statt ohnehin fruchtlose Abwehrgefechte zu führen, müssen die Frage lauten: „Was verlieren wir, wenn wie diese Kompetenzen nicht mehr selbst erlernen?“, sagt Lordick.
Vor diese Probleme stelle ChatGPT nun auch die Wissenschaft insgesamt. „Die Antwort wird sehr unterschiedlich ausfallen, je nachdem, ob man eine Medizinerin, einen Erziehungswissenschaftler, eine Bauingenieurin oder einen Philosophen fragt“, meint Lordick. Davon hänge ab, wie der Einsatz einer textgenerierten KI sinnvoll gestaltet werden kann. „Dann kann man durchaus auch Vorteile in Forschung und Lehre nutzen.“
Wo ChatGPT nützlich ist
Salden stimmt zu: „Klar ist: Wir können das Tool nicht durchgehend verbieten. Hochschulen und Studierende müssen lernen, damit umzugehen.“ Prüfungsformate müssen angepasst werden, Dozenten und Studierende über Möglichkeiten und Grenzen der KI aufgeklärt, rechtliche Klarheit in Fragen der Urheberschaft geschaffen und Regelungen wie Kennzeichnungspflichten erarbeitet werden.
Dann werde KI der Wissenschaft keinen Schaden zufügen, sondern von Sprachrobotern eher profitieren, glaubt Salden. „ChatGTP kann wie ein Dialogpartner dabei helfen, Ideen zu entwickeln, Argumente zu testen oder Formulierungen zu verbessern“, sagt der Hochschuldidaktiker. Ganz schlicht könne es beim Schreiben auch als Starthilfe dienen und „die Angst vor dem leeren Blatt“ nehmen. Und über Taschenrechner rede heute auch niemand mehr.