Berlin. Im Netz lauern viele Gefahren – nicht nur für Kinder. Marianne Janik plädiert für mehr digitale Bildung und erklärt, wo KI helfen kann.
Seit März 2021 ist Marianne Janik die Deutschland-Chefin des Softwarekonzerns Microsoft. Der amerikanische Technologieriese ist großer Investor bei OpenAI, das Unternehmen, das ChatGPT hervorgebracht hat. Im Interview erklärt Janik, wie sie ihre Daten im Internet schützt, warum Künstliche Intelligenz (KI) Arbeitsplätze ersetzen wird - und das trotzdem nicht schlimm ist.
Frau Janik, waren Sie schonmal Opfer eines Hackerangriffs?
Marianne Janik: Noch nie.
Würden Sie drauf wetten, dass das so bleibt?
Nein. Mein Ansatz ist ein Zero-Trust-Ansatz. Man muss also ständig davon ausgehen, dass es passieren kann. Besonders auch im privaten Bereich.
Was vermeiden Sie im Internet im Umgang mit ihren eigenen Daten?
Ich bin in der glücklichen Situation, dass ich nicht so viel Zeit habe, im Internet alles auszuprobieren. Das heißt, ich gehe sowieso sehr sparsam mit Anwendungen um. Und wenn, dann setze ich immer auf Multi-Faktor-Authentifizierung. Wesentlich ist für mich aber das Vertrauen gegenüber dem Anbieter. Ich muss mir sicher sein, dass meine Daten in guten Händen sind.
Waren viele Bürger in den vergangenen Jahren zu sorglos?
Es gibt einfache Maßnahmen, die jeder anwenden kann, um sich besser zu schützen: Ein aktueller Virenschutz, zeitnahe Software-Updates, sichere Passwörter und ein kritischer Blick auf Links gerade bei unbekannten E-Mails lassen weit über 90 Prozent der typischen Angriffe ins Leere laufen. So lässt es sich verhindern, wirklich Opfer eines Hackerangriffs zu werden. Das ist ja eine traumatische Erfahrung. Aber ich bin positiv: Wir können den verantwortungsvollen Umgang mit unseren Daten lernen und wir werden das lernen.
- Verkehr: Wallbox fürs E-Auto kaufen? Experten warnen vor böser Falle
- Geld: Abfindung im Job kassieren? Diese Tipps sind bares Geld wert
- Altersvorsorge: Rente & Elternzeit – Ab welchem Einkommen Sie Verlierer sind
In Deutschland stehen Behörden und Infrastrukturen immer wieder im Visier von Cyber-Attacken. Sind die Systeme der öffentlichen Verwaltung wehrhaft genug?
Einzelpunktmessungen bringen uns nicht weiter. Für Behörden ist entscheidend, die Fähigkeit zu entwickeln, sich ständig mit den Themen Sicherheit und Abwehrbereitschaft auseinanderzusetzen. Die „bösen Jungs“ im Internet schlafen nicht und man muss Schritt halten. Ein wesentlicher Faktor dafür ist der Mensch an sich. Die öffentliche Hand muss daher viel mehr in Weiterbildung investieren, damit sich die Beurteilungsfähigkeit der Mitarbeiter verbessert.
Sollte das Thema Cybersicherheit und der Umgang mit den eigenen Daten auf den Lehrplan der Schulen?
In meiner Schulzeit kam die Polizei vorbei und hat die Fahrradfahrregeln erklärt. Das sollte man auch für den digitalen Bereich tun. Wir brauchen so etwas wie einen Internetführerschein. Da haben wir zwar Fortschritte gemacht in Deutschland, aber wir könnten noch mehr tun. Und das fängt in der Grundschule an. Da haben ja viele Kinder schon ein Smartphone.
Die Künstliche Intelligenz (KI) ChatGPT hat das bayerische Abitur bestanden. Müssen wir Prüfungen und den Schulunterricht verändern?
Unterricht und dann eben auch Prüfungen werden durch die Zuhilfenahme von KI anspruchsvoller. Das ist das, was uns sowohl Schüler und Lehrer als auch Studenten widerspiegeln. Mit Unterstützung von KI haben Lernende plötzlich einen viel größeren Zugriff auf Wissen, sie starten also von einem anderen Niveau. Das ist doch zunächst mal eine gute Sache.
Es gibt Bundesländer, die den Einsatz von Microsoft-Produkten an Schulen auch kritisch sehen. Vor allem geht es um die Frage, was mit den Daten passiert. Halten Sie das für übertrieben?
Wir können ganz klar aufzeigen, wo welche Daten sind und welche Daten in Europa bleiben. Leider wird in der Diskussion oft vermischt, ob es um persönliche Daten des Nutzers oder sogenannte Telemetriedaten geht, die lediglich aussagen, wie es gerade diesem Service geht. Wir verstehen, dass das komplex ist und dass es weiteren Dialog braucht. Aber wir sind sehr zuversichtlich, dass wir zu einer einheitlichen Auslegung kommen.
Sind die hiesigen Datenschutzvorgaben zu scharf?
Nein. In Deutschland wird Datenschutz zwar häufig als Entschuldigung genutzt, aber das müsste gar nicht so sein. Wir sollten stolz auf das sein, was hier entstanden ist. Da hat Deutschland wirklich einen guten Job gemacht. Microsoft nutzt die hohen deutschen Datenschutzstandards inzwischen weltweit.
Stehen die Gesetze Innovationen im Weg?
Woran wir hierzulande arbeiten können, ist die Auslegung der Vorgaben. Da brauchen wir mehr Pragmatismus. Und was wir in dem Zusammenhang auch stärken sollten, ist die Fähigkeit, Risiken abzuwägen. Wir wollen immer hundertprozentige Sicherheit, aber die gibt es nicht. Bei Unternehmen sehe ich vor allem bei der Klassifizierung Nachholbedarf. Wer Daten nicht ausreichend schützt, muss sich nicht wundern, wenn sich ein Hacker großzügig an ihnen bedient.
Es bestehen aber auch Ängste. Zum Beispiel vor Jobverlust, weil KI einfache Tätigkeiten übernimmt. Verstehen Sie das?
Ich glaube, dass solche Reaktionen am Anfang einer neuen Technologie ganz normal sind. Man versteht die neue Technologie noch nicht und dann malen viele ein sehr schwarzes Bild. Wahr ist: Erfindungen wie die Dampfmaschine, die mechanischen Webstühle oder das haben Tätigkeiten ersetzt. Aber durch die Industrialisierung oder den Computer sind wesentlich mehr neue Jobs entstanden. Gerade für Deutschland mit seinem Fachkräftemangel ist KI eine große Chance, die Wirtschaft wettbewerbsfähig zu halten und damit auch Arbeitsplätze zu sichern.
Wie kann man die Menschen besser abholen?
Wir müssen klar sagen, wo die Chancen liegen, aber auch, wo es Risiken gibt. Und vor allem über die Risiken müssen wir sehr offen sprechen. Und auch Maßnahmen ansprechen, die helfen können. Und ganz konkret zum Thema Fachkräfte: Es gibt eine Erhebung, die zeigt, dass 75 Prozent aller Software-Entwickler, die mit KI arbeiten, in ihrem Job zufriedener sind, weil sie effizienter sind – in einem Bereich, in dem Fachkräftemangel herrscht. Sie nutzen KI als Co-Piloten, wie einen zusätzlichen Mitarbeiter. Und zwar für Arbeit, die sie sonst selbst nicht gern machen.
Sam Altman, der Vorstandschef von ChatGPT, hat jüngst gesagt: „Wir werden irgendwann ein Modell erschaffen, das gefährlich ist“.
Wir müssen – und Sam macht das – sehr gut abwägen zwischen Machbarkeit und Verantwortung. Wir müssen uns die Fragen stellen: Wollen wir das und können wird das? Und dafür braucht es Regulierung – und zwar nicht nur staatliche, sondern auch Selbstregulierung. Und natürlich auch den ständigen Dialog zwischen Zivilgesellschaft und Politik. Wir müssen uns andauernd die Frage stellen: Welche Technologie wollen wir haben – und wie wollen wir die in Zukunft einsetzen.
Wie lässt es sich verhindern, dass ChatGPT für Straftaten verwendet wird?
Das müssen und können wir zum Teil programmieren. Wir müssen dem Programm sagen: Du bewegst dich nur in diesem vorgeschriebenen Korridor – und nicht darüber hinaus. KI muss sich an geltende Gesetze halten
Wenn es aber trotzdem zu Straftaten kommt, zum Beispiel wenn man bei ChatGPT die Anleitung zum Bau einer Bombe findet – wer muss dann haften? Programmierer oder Bombenbauer?
Zunächst mal verweigert ChatGPT ebenso wie BingChat die Antwort auf solche Fragen mit Hinweis, dass dies illegal ist. Wenn wir den Programmierer haftbar für Missbrauch durch Dritte machen würden, würden wir jegliche Innovation ausbremsen. Das ist übrigens auch die Position von drei europäischen Ländern – Deutschland, Frankreich und Italien – zu diesem Thema. Um also im Bild zu bleiben: Derjenige der kriminell handelt, muss bestraft werden.
Was ist in den nächsten zwei Jahren mit KI und ChatGPT möglich?
Ich denke, dass sich vor allem drei Stränge weiterentwickeln werden. Zum einen die generative KI im Sinne eines Co-Piloten. Der zweite Strang wird sein, dass Unternehmen ihre Fragen und Lösungen in vorhandene KI einbetten. Und der dritte Strang wird sein, dass Unternehmen vermehrt auch eigene KI programmieren werden, für unternehmensspezifische Fragen und Lösungen. So entsteht dann auch mehr Wettbewerb – was sehr gut ist. Auch, weil jedem diese Technologie zur Verfügung steht.
Wie ist die deutsche KI-Szene aufgestellt? Das Heilbronner Start-up Aleph Alpha hat beispielsweise jüngst 500 Millionen Euro von Investoren zugesagt bekommen.
Die Szene ist gut aufgestellt. Wir haben auch sehr viel Industrie-Know-how in Deutschland, das in die Entwicklung von industriellen KI-Lösungen einfließt, besonders im Automobilsektor, dem Maschinenbau, der chemischen Industrie oder auch im Life-Science-Bereich. Wirtschaft und Wissenschaft arbeiten sehr eng zusammen. Das ist in Deutschland ein Riesenvorteil.
Kann Deutschland also mit der Konkurrenz in China und den USA mithalten?
In Deutschland können wir besser werden im Bereich der Infrastruktur, vor allem bei der Rechenleistung. Man braucht riesige Computer, um Modelle wie ChatGPT zu trainieren und im Industriemaßstab weltweit zu betreiben. In diesem Bereich sind uns – Deutschland und der EU – China und die USA im Moment voraus. Möglicherweise brauchen wir aber gar nicht so große Programme. Vielleicht sind wir in Europa gerade mit spezialisierten Modellen schneller und damit dann auch wieder im Vorteil.