Essen/Düsseldorf. NRW-Landtag debattiert über Auswirkungen von Künstlicher Intelligenz auf Prüfungen an Hochschulen. Für Täuschungen sieht das Gesetz Strafen vor.
Die Auswirkungen des Textgenerators Chat GPT auf Unterricht, Lehre und Prüfungen an Hochschulen werden zum Thema für die Landesregierung. In einem Bericht für den Wissenschaftsausschuss des Landtags, der am Mittwoch (11. Januar 2023) zusammenkommt, weist NRW-Wissenschaftsministerin Ina Brandes auf die Rechtslage hin: „Das geltende Recht kennt bereits derzeit Instrumente, mit denen unzulässigen Täuschungsversuchen effektiv begegnet werden können.“
Chat GPT ist ein auf Künstlicher Intelligenz (KI) basierendes Sprachmodell, das auf Anfrage schnell, textsicher und kostenlos Referate, Fachtexte und ganze Hausarbeiten verfassen kann. Nach Ansicht von Experten habe dies Auswirkungen auf die derzeitige Lehr- und Prüfungspraxis an Hochschulen. Der Deutsche Hochschulverband äußerte gegenüber dieser Redaktion die Sorge, „dass es zusehends schwieriger werden könnte, die Vortäuschung eigenständiger Leistungen etwa in Hausarbeiten zu erkennen“.
Verantwortung der Hochschulen
Ministerin Brandes (CDU) begrüßt in dem Bericht an den Fachausschuss die an den Hochschulen laufenden Diskussionen zur Nutzung der KI im Lehr- und Prüfungsbetrieb. „Die Hochschulen kommen damit ihrer verfassungsrechtlich zugewiesenen Verantwortung insbesondere für ihr Prüfungsgeschehen nach.“
Auch interessant
Laut Hochschulgesetz können die Hochschulen und die staatlichen Prüfungsämter von den Kandidaten „eine Versicherung an Eides statt“ verlangen, dass sie die Prüfungsleistungen selbstständig und ohne unzulässige fremde Hilfe erbracht haben, betont Brandes. Studierenden, die vorsätzlich gegen entsprechende Regelungen verstießen, könne eine Geldbuße von bis zu 50.000 Euro drohen. Ob angesichts der neuen Möglichkeiten des Textroboters eine Änderung des Hochschulgesetzes nötig sei, wird nach Angaben der Ministerin „derzeit geprüft“.
Experte fordert Kennzeichnungspflicht
Nach Ansicht von Informatikern ist das Sprachmodell Chat GPT ein „Durchbruch in der KI“. Mit Hilfe des Systems erstellte Texte seien vielfach kaum von eigenständig formulierten Arbeiten zu unterscheiden. Daher plädiert Informatik-Professor Kristian Kersting von der TU Darmstadt für eine Kennzeichnungspflicht von Arbeiten, wenn dafür Chat GPT eingesetzt wurde. „Als Prüfer möchte ich wissen, ob KI verwendet wurde“, sagte der Leiter des Fachbereichs Künstliche Intelligenz dieser Redaktion.
Auch interessant
Es gebe bereits Systeme, die in solche Texte automatisch ein digitales Wasserzeichen integrieren würden. So könnten Prüfer erkennen, ob der Sprachgenerator benutzt wurde. Die Fakultäten müssten nun entscheiden, ob sie ihre Prüfungsordnung verändern und künftig zum Beispiel mehr auf mündliche Formate setzen wollen.