Hamburg. Hamburger Informatiker geben Tipps zum Umgang mit künstlicher Intelligenz. Sie mahnen aber: Eine Sache sollten Nutzer nicht vergessen.
Er dürfte zu den gefragtesten IT-Jobs der Zukunft zählen und sehr gut bezahlt werden: Der „Prompt Engineer“ (Eingaben-Ingenieur) soll Anweisungen (Prompts) so gekonnt formulieren, dass Software mit künstlicher Intelligenz wie ChatGPT, Google Bard, DALL-E und Midjourney möglichst hilfreiche Ergebnisse produziert. Bisher ist unklar, welche Prompts „richtig“ oder „gut“ sind – weltweit testen Fachleute ebenso wie Laien, was funktioniert und was nicht. Aber es gibt immerhin schon Anhaltspunkte, auch aus einem Experiment, das vor Kurzem in Hamburg stattfand.
Der Informatikprofessor Tilo Böhmann von der Uni Hamburg und sein Team hatten zum ersten „Hamburg Futures Prompt-a-thon“ eingeladen. Bei dem Versuch testeten 67 Teilnehmende, wie ChatGPT auf verschiedene Eingaben reagiert. Aus der Analyse der entstandenen Daten und einer Befragung der Hamburger Tester lasse sich zumindest ableiten, dass „bestimmte Stellschrauben hilfreich sein könnten“, um bessere Antworten von künstlicher Intelligenz zu bekommen, sagen die beiden beteiligten Forscher Constantin von Brackel-Schmidt und Emir Kučević vom Fachbereich IT-Management und -Consulting.
Künstliche Intelligenz: Sagen Sie dem Chatbot möglichst genau, was er tun soll
Wer ein konkretes Anliegen hat, sollte es auch möglichst konkret formulieren – das gilt nicht nur im Gespräch mit Menschen, sondern auch im Dialog mit KI. Aber was heißt das genau? Es macht einen Unterschied, ob ChatGPT etwa einen Vortrag „erstellen“, zwei Vorschläge „vergleichen“, eine These „bewerten“, schwer verständliche Beschreibungen „ersetzen“ und „reformulieren“ oder zwei Konzepte „kombinieren“ soll. Entsprechend sollte man Prompts beginnen nach dem Schema: „Erstelle mir…“ und „Kombiniere dies mit…“.
Geben Sie der künstlichen Intelligenz eine Rolle vor
ChatGPT kann verschiedene Perspektiven einnehmen, also etwa aus der Sicht von unterschiedlichen Altersgruppen und Berufen Prompts bearbeiten und dann zum Beispiel „Nutzerorientiert“ antworten. Ein Prompt mit dieser Perspektive könnte etwa lauten: „Versetze Dich in die Rolle eines Fahrradfahrers – was erwartest Du von Hamburg in den kommenden Jahren?“ Andere Perspektiven könnte man als „Expertenorientiert“ oder „Organisationsorientiert“ bezeichnen und die KI dazu auffordern, ihre Antwort aus der Sicht eines Ingenieurs, Eishändlers, Sozialarbeiters oder Marketingmanagers zu schreiben.
Liefern Sie einen Kontext über mehrere Fragen hinweg
ChatGPT funktioniert im Stil einer Konversation, das heißt, der Chatbot kann mehrere Anweisungen nacheinander bearbeiten und diese miteinander verknüpfen. Letzteres sollte in Prompts klar formuliert werden – zum Beispiel so: „Entwirf basierend auf meiner Eingabe am Anfang und Deinen letzten Ausgaben einen Vortrag.“
Verlangen Sie bei Bedarf ein Format für die Antworten
Anhand der Wünsche von Nutzern kann ChatGPT seine Ausgaben formatieren. Sollen die Texte anschließend etwa in einem KI-gestützten Bildgenerator wie DALL-E weiterverwendet werden? Dann könnte die Eingabe lauten: „Gebe mir das Ergebnis in Form eines Prompts zur Verwendung in DALLE-E aus.“
- Künstliche Intelligenz: Wie ChatGPT & Co Hamburgs Zukunft sehen – ein Experiment
- Schule Hamburg: Schreibt ChatGPT bald Hausaufgaben für Schüler?
- ChatGPT & Co.: Wie künstliche Intelligenz Hamburgs Verwaltung helfen soll
Tipps für effiziente Prompts hat auch Pierre-Alexandre Murena, Juniorprofessor für menschenzentriertes maschinelles Lernen an der Technischen Universität Hamburg. Am wichtigsten sei es, kurz und präzise zu sein, sagt er. „KI nimmt Sprache nicht so wahr, wie wir es tun, und sie kann Schwierigkeiten haben, zu viele Informationen auf einmal zu verstehen. Sie wird außerdem niemals interpretieren, was man sagt, jegliche Form von Zweideutigkeit oder Unklarheit kann daher zu unerwarteten Ergebnissen führen.“
Es sei wichtig, sich immer daran zu erinnern, dass KI nicht denkt, wie Menschen es tun, sagt Murena. „Daher macht es keinen Sinn, mit KI so zu sprechen, wie wir es mit Menschen tun würden.“ Noch sei der Dialog mit KI „eine Frage von Trial and Error“, so der Professor. „Der erste Anlauf wird selten erfolgreich sein. Seien Sie geduldig, probieren Sie verschiedene Dinge aus, haben Sie Spaß dabei. Und trauen Sie sich, im Zweifel von Ihrer exakten Ursprungsfrage abzuweichen.“
Zu guter Letzt: „Denken Sie daran, dass Sprachmodelle eben nicht mitdenken. Was sie sagen, soll korrekt klingen, muss aber nicht korrekt sein. Selbst wenn Sie also den perfekten Prompt gefunden und die scheinbar ideale Antwort erhalten haben, prüfen Sie diese immer noch einmal nach.“
Hamburger Professor: „Generative künstliche Intelligenz halluziniert“
Auch Informatikprofessor Thilo Böhmann von der Universität Hamburg wies nach dem „Hamburg Futures Prompt-a-thon“ darauf hin, dass ChatGPT & Co mit Vorsicht zu genießen seien und es „reflektierte Strategien“ im Umgang mit künstlicher Intelligenz brauche. „Generative KI halluziniert. Sagt und erstellt Dinge, die es gar nicht gibt. Das ist ein Problem, wenn die Fakten stimmen müssen“, schrieb Böhmann auf dem Portal Linkedin. KI für kreative Prozesse zu nutzen, etwa um über die Zukunft Hamburgs nachzudenken, könne „Überraschendes hervorbringen“, sei aber auch herausfordernd.
ChatGPT wird mit gewaltigen Mengen an Text „trainiert“; es lernt von Beispielen, berechnet Wahrscheinlichkeiten für das passende nächste Wort. Schon im vergangenen Jahr erklärte das Entwicklerunternehmen OpenAI freimütig, der Chatbot liefere „manchmal plausibel klingende, aber falsche oder unsinnige Antworten“.