«Ein Entwicklungsstopp gefährdet die Transparenz»

In einem offenen Brief fordern Tech-Gr?ssen aus Wissenschaft und Wirtschaft einen Stopp des Trainings neuer KI-Sprachmodelle, die leistungsf?higer sind als GPT-4. Andreas Krause und Alexander Ilic vom ETH AI Center halten dies für schwer durchsetzbar und mit Risiken verbunden.

Andreas Krause und Alexander Ilic auf dem Gang eines leeren Büros
Andreas Krause (l.) und Alexander Ilic (r.). (Bild: Nicola Pitaro / ETH Zürich)

ETH-News: Herr Krause, Tech-Gr?ssen fordern in einem externe Seiteoffenen Brief ein Moratorium für das Training von Systemen Künstlicher Intelligenz (KI), die leistungsst?rker als GPT-4 sind. Ist eine so drastische Massnahme angebracht?
Andreas Krause: Ich bezweifle, dass diese Forderung durchsetzbar ist, da hinter der Entwicklung grosse kommerzielle und strategische Interessen stehen. Zudem ist es schwierig festzulegen was konkret eingeschr?nkt werden soll ohne Wettbewerbsverzerrung zu betreiben und Innovation in der Anwendung zu gef?hrden. Auch wenn ein solches Moratorium beschlossen werden würde, k?nnte wohl niemand sicherstellen, dass nicht weiter verdeckt am Training solcher Modelle gearbeitet wird.

Das würde zu weniger Transparenz führen.
Krause: Genau. Das birgt die Gefahr, dass die Entwicklung, die vorher weitgehend offen und transparent war, unzug?nglicher und intransparenter wird. Dadurch w?re es beispielsweise kaum mehr m?glich nachzuvollziehen, auf Basis welcher Daten die aktuellen Modelle trainiert wurden und welche Biases, also Verzerrungen, damit verbunden sind. Diese Tendenz gibt es schon jetzt.

Ein Entwicklungsstopp ist also keine gute Idee.
Alexander Ilic: Nein, denn bei den aktuellen Sprachmodellen gibt es grosse Fragezeichen hinsichtlich ihrer Vertrauenswürdigkeit, Zuverl?ssigkeit und Nachvollziehbarkeit. Diese Elemente sind von grosser Bedeutung und müssen unbedingt noch st?rker erforscht werden und über Fachbereichsgrenzen hinweg kritisch diskutiert werden.

Was schlagen sie als Alternative vor?
Krause: Zum einen ist die Grundlagenforschung gefordert, um die n?chste Generation von sichererer, vertrauenswürdigerer KI-Technologie zu entwickeln. Zum anderen sollten wir die interdisziplin?re Forschung vorantreiben und zeigen, wie man diese Technologien gewinnbringend für den Menschen einsetzen kann. Erst wenn KI verl?sslich und vertrauenswürdig ist, kann sie zum Beispiel im Gesundheitswesen sinnvoll eingesetzt werden und den Menschen als nützliches Werkzeug dienen.

Welche Rolle spielt das AI Center der ETH Zürich dabei?
Krause: Am ETH AI Center verbinden wir beides, Grundlagen- und interdisziplin?re Forschung. Das Ziel des Centers ist es, Technologien und Anwendungsgebiete zu f?rdern, die der Allgemeinheit helfen. Zudem ist unsere Forschung offen und transparent.

Ilic: Wir wollen dem Trend entgegenwirken, dass KI-Forschung immer mehr hinter verschlossenen Türen stattfindet und setzen auf offene, interdisziplin?re Zusammenarbeit zwischen Forschung, Industrie und Start-ups. Wir glauben, dass insbesondere an Schnittstellen von Disziplinen wie zum Beispiel KI und Medizin oder KI und Geisteswissenschaften wichtige Beitr?ge entstehen. Wir haben deshalb ein Fellowship Programm geschaffen, bei dem wir die weltweit besten Talente anziehen und am ETH AI Center zusammenbringen. Mit einem Frauenanteil von 50 Prozent und Mitarbeitenden aus über 26 L?ndern konnten wir auch von Anfang an eine Kultur schaffen, die Chancen und Risken von KI kritisch diskutiert und verantwortungsvoll mitgestaltet.

Die Verfasser:innen fordern ausserdem, dass w?hrend des Stopps eine unabh?ngige Prüfungsinstanz Sicherheitsprotokolle für das Design von künstlichen Intelligenzen erarbeiten soll. Was halten sie davon?
Ilic: Die Entwicklung von Prüfungsverfahren und die Zertifizierung KI-basierter Technologie ist sicher ein wichtiges Thema, und muss im Kontext konkreter Anwendungen verfolgt werden. Es ist aber auch wichtig, dass wir neue Sprachmodelle auf eine transparente Art und Weise trainieren und die Forschung aktiv mitgestalten, anstatt sich lediglich der Kontrolle und ?berprüfung bereits bestehender Sprachmodelle zu widmen. Nur so k?nnen wir sicherstellen, dass die Systeme vertrauenswürdiger, sicherer und verl?sslicher werden. Die grossen Firmen verfolgen kommerzielle Interessen und werden sich daher eher auf die gr?ssten M?rkte und kulturellen, sprachlichen Regionen konzentrieren. Wir haben uns daher dem Europ?ischen KI-Forschungsnetzwerk ELLIS angeschlossen, um die KI-Welt nach europ?ischen Werten mitzupr?gen. Es gibt aber hier noch viel Potenzial, um das Thema Diversit?t noch weiter zu f?rdern. Man k?nnte beispielsweise gezielt offene Datens?tze aufbauen zu unterschiedlichen Kultur- und Sprachkreisen oder bei Feedback durch Menschen darauf achten, aus welchen Kulturkreisen die befragten Personen stammen, um sp?ter Biases zu verringern. Man wird kommerzielle Anbieter nicht dazu zwingen k?nnen, dies selbst zu tun. Aber die Forschung k?nnte es Firmen durch den offenen und transparenten Umgang mit den eigenen Daten erleichtern, ihre Systeme vertrauenswürdiger zu machen.

Im offenen Brief wird auch davor gewarnt, dass neue Sprachmodelle Propaganda und Unwahrheiten verbreiten k?nnten. Stimmen sie dem zu?
Krause: Bei den generativen KI-Modellen hat in den letzten Monaten eine rasante Entwicklung stattgefunden: Texte und Bilder k?nnen generiert werden, die immer realistischer wirken. Diese k?nnen tats?chlich für Desinformationskampagnen genutzt werden. Obwohl auch daran geforscht wird, wie man solche generierten Texte und Bilder erkennen kann, stellt diese Entwicklung ein reales Risiko dar.

Die Verfasser:innen sehen auch die Gefahr, dass Menschen durch den Einsatz von KI ihre Jobs verlieren oder gar irgendwann ganz von Maschinen ersetzt werden k?nnten. Ist das nicht überzogen?
Krause: Mich st?rt, dass ernstzunehmende Gefahren, wie beispielsweise die Sorge vor Desinformation, und Science-Fiction, wie der Weltübernahme durch Maschinen, über einen Kamm geschoren werden. Dies erschwert eine fundierte Diskussion und einen Dialog über die tats?chlichen Risiken. KI wird die Berufswelt sicher nachhaltig ver?ndern. Es ist immer schwieriger sich vorzustellen, welche neuen Jobs und Berufsfelder entstehen als welche bestehenden Aufgaben von Automatisierung betroffen sein k?nnten.

Ilic: ?hnliche Bedenken gab es auch in der Vergangenheit im Kontext neuer Technologien, wie der Industrialisierung oder der Digitalisierung. Es wird eher so sein, dass Personen im Job durch andere ersetzt werden, die mit KI umgehen k?nnen, als dass KI den Job komplett ersetzt. Daher wird es entscheidend sein, die Bev?lkerung und die Wirtschaft bei dieser Transformation zu unterstützen.

Andreas Krause ist Vorsteher des ETH AI Center und Professor für Informatik an der ETH Zürich, wo er die Gruppe "Learning & Adaptive Systems" leitet.

Alexander Ilic ist der Gesch?ftsführer des ETH AI Centers der ETH Zürich.

JavaScript wurde auf Ihrem Browser deaktiviert