Dank Täuschung zum Erfolg

Theoretische Physiker der ETH Zürich führten intelligente Maschinen bewusst in die Irre und entwickelten damit das maschinelle Lernen weiter: Sie schufen eine neue Methode, dank der Computer Daten kategorisieren k?nnen – und zwar auch dann, wenn kein Mensch eine Ahnung hat, wie eine solche Kategorieneinteilung sinnvollerweise aussehen k?nnte.

Vergr?sserte Ansicht: Irregeleitetes Netzwerk
Verwirrt im Labyrinth des künstlichen neuronalen Netzwerks. (Grafik: iStock/AcidLabs)

Wenn Computer selbstst?ndig auf Satellitenbildern Gew?sser und ihre Umrisse erkennen oder beim fern?stlichen Brettspiel Go einen der weltbesten professionellen Spieler schlagen, dann arbeiten im Hintergrund lernf?hige Algorithmen. Programmierer haben diese zuvor w?hrend einer Trainingsphase mit bekannten Beispielen gefüttert: Bilder von Gew?ssern und von Land beziehungsweise bekannte Go-Spielverl?ufe, die in Turnieren zum Erfolg oder Misserfolg geführt haben. ?hnlich wie sich die Nervenzellen in unserem Gehirn w?hrend Lernprozessen neu vernetzen, sind auch die speziellen Algorithmen in der Lage, sich w?hrend der Lernphase anhand der ihnen pr?sentierten Beispiele anzupassen. Bis sie schliesslich selbst?ndig auch auf unbekannten Fotos Gew?sser von Land unterscheiden k?nnen sowie erfolgreiche von erfolglosen Spielverl?ufen.

Solche sogenannte künstliche neuronale Netzwerke kamen beim maschinellen Lernen bisher dann zum Einsatz, wenn das Unterscheidungskriterium bekannt ist: Man weiss, was ein Gew?sser ist und welches in vergangenen Go-Turnieren die erfolgreichen Spielverl?ufe waren.

Den Weizen vom Spreu trennen

Nun haben Wissenschaftler aus der Gruppe von Sebastian Huber, Professor für theoretische Festk?rperphysik und Quantenoptik an der ETH Zürich, die Anwendungen solcher neuronaler Netzwerke erweitert: Sie entwickelten eine Methode, mit der sich beliebige Daten nicht nur kategorisieren lassen, sondern die auch erkennt, ob es in komplexen Datens?tzen überhaupt Kategorien gibt.

Solche Fragestellungen gibt es in der Wissenschaft zuhauf: Die Methode k?nnte für die Auswertung von Messungen an Teilchenbeschleunigern oder von astronomischen Beobachtungen interessant werden. Physiker k?nnen damit aus ihren oft unüberschaubaren Messdaten die vielversprechendsten Messungen herausfiltern. Pharmakologen k?nnten aus umfangreichen Moleküldatenbanken jene Moleküle aussieben, die mit einer gewissen Wahrscheinlichkeit eine bestimmte pharmazeutische Wirkung oder Nebenwirkung haben. Und Datenwissenschaftler k?nnten damit riesige ungeordnete Datenwulste ordnen und daraus verwertbare Informationen gewinnen (Data-Mining).

Grenze gesucht

Siruptropfen im Wasser
Siruptropfen und Wasser mischen sich mit der Zeit – sie fallen in einen Gleichgewichtszustand, in dem sich nicht mehr sagen l?sst, wo sich der Siruptropfen anf?nglich befand. In der Quantenphysik gibt es jedoch Systeme, die ewig eine Erinnerung an ihren Anfangszustand behalten. Physiker nennen das Viel-Teilchen-Lokalisierung. (Bild: Colourbox)

Die ETH-Forscher wandten ihre Methode unter anderem an einem intensiv erforschten Ph?nomen der theoretischen Physik an: einem sogenannten Viel-Teilchen-System von wechselwirkenden magnetischen Dipolen, das nie – auch langfristig nicht – in einen Gleichgewichtszustand f?llt. Solche Systeme wurden jüngst beschrieben. Allerdings ist nicht im Detail bekannt, welche quantenphysikalischen Eigenschaften ein Viel-Teilchen-System davor bewahren, in einen Gleichgewichtszustand zu fallen. Insbesondere ist unklar: Wo genau liegt die Grenze zwischen Systemen, die in einen Gleichgewichtszustand fallen, und anderen, die das nicht tun?

Um diese Grenze zu finden, entwickelten die Wissenschaftler das ?So tun als ob?-Prinzip: Sie nahmen Daten von Quantensystemen zur Hand. Anhand eines Parameters zogen sie eine beliebige Grenze, mit der sie die Daten in zwei Gruppen einteilten. Dann trainierten sie ein künstliches neuronales Netzwerk, indem sie dem Netzwerk vort?uschten, die eine Gruppe falle in einen Gleichgewichtszustand, die andere nicht. Die Forscher taten also so, als ob sie diese Grenze kennen würden.

Wissenschaftler verwirrten das System

Insgesamt trainierten sie das Netzwerk unz?hlige Male, jeweils mit einer anders gew?hlten Grenze, und sie testeten nach jedem Training, wie gut das Netzwerk Daten zu sortieren vermag. Das Ergebnis: In vielen F?llen bekundete das Netzwerk Mühe, die Daten so einzuteilen, wie von den Wissenschaftlern vorgegeben, in einigen F?llen war die Einteilung in die zwei Gruppen jedoch sehr pr?zis.  

Die Forscher konnten zeigen, dass diese Sortierleistung vom Ort der gew?hlten Grenze abh?ngt. Evert van Nieuwenburg, Doktorand in der Gruppe von ETH-Professor Huber, erkl?rt das so: ?Indem ich für das Training eine Grenze w?hle, die stark neben der tats?chlichen Grenze liegt (die ich nicht kenne), leite ich das Netzwerk fehl. Ein auf diese Weise letztlich falsch trainiertes Netzwerk kann Daten nur schlecht einteilen.? W?hlt man zuf?llig jedoch eine Grenze, die nahe der tats?chlichen liegt, erh?lt man einen leistungsstarken Algorithmus. Indem die Forschenden die Leistung des Algorithmus‘ bestimmten, konnten sie die Grenze eruieren zwischen Quantensystemen, die in ein Gleichgewicht fallen, und solchen, die das nie tun: Die Grenze liegt dort, wo die Sortierleitung des Netzwerks am gr?ssten ist.

Die Tauglichkeit ihrer neuen Methode bewiesen die Forscher ausserdem mit zwei weiteren Fragestellungen der theoretischen Physik: topologischen Phasenüberg?ngen in eindimensionalen Festk?rpern sowie dem Ising-Modell, das den Magnetismus im Innern von Festk?rpern beschreibt.

Kategorisierung ohne Vorwissen

Die neue Methode l?sst sich vereinfacht auch mit einem Gedankenexperiment veranschaulichen, in dem wir rote, r?tliche, bl?uliche und blaue Kugeln in zwei Gruppen einteilen m?chten. Wir nehmen an, dass wir keine Vorstellung davon haben, wie eine solche Einteilung sinnvollerweise aussehen k?nnte.

Nimmt man nun ein neuronales Netzwerk und trainiert es, indem man ihm sagt, die Trennlinie sei irgendwo im roten Bereich, verwirrt man damit das Netzwerk. ?Man versucht dem Netzwerk beizubringen, blaue und r?tliche Kugeln seien dasselbe, und verlangt von ihm, rote von roten Kugeln zu unterscheiden, was es schlicht nicht zu leisten vermag?, sagt ETH-Professor Huber.

Setzt man die Grenze hingegen im violetten Farbbereich, lernt das Netzwerk einen tats?chlich existierenden Unterschied und sortiert die Kugeln in eine rote und blaue Gruppe. Dass die Trennlinie im violetten Bereich liegen sollte, muss man dabei nicht im vornherein wissen. Indem man die Sortierleistung bei verschiedenen gew?hlten Grenzen vergleicht, findet man diese Grenze auch ohne Vorwissen.

Literaturhinweis

van Nieuwenburg EPL, Liu YH, Huber SD: Learning phase transitions by confusion. Nature Physics, 13. Februar 2017, doi: 10.1038/nphys4037

JavaScript wurde auf Ihrem Browser deaktiviert