Il successo attraverso l'inganno

I fisici teorici dell'ETH di Zurigo hanno deliberatamente ingannato le macchine intelligenti e hanno così sviluppato ulteriormente l'apprendimento automatico: hanno creato un nuovo metodo che consente ai computer di categorizzare i dati - anche se nessun umano ha idea di come tale categorizzazione potrebbe ragionevolmente apparire.

Vista ingrandita: rete mal indirizzata
Confusi nel labirinto della rete neurale artificiale. (Grafico: iStock/AcidLabs)

Quando i computer riconoscono autonomamente i corpi idrici e i loro contorni sulle immagini satellitari o battono uno dei migliori giocatori professionisti al mondo nel gioco da tavolo dell'Estremo Oriente Go, gli algoritmi adattivi lavorano in background. Durante una fase di addestramento, i programmatori hanno precedentemente alimentato questi algoritmi con esempi familiari: immagini di corpi idrici e terrestri o sequenze di gioco del Go che hanno portato al successo o al fallimento nei tornei. Proprio come le cellule nervose del nostro cervello formano nuove reti durante i processi di apprendimento, anche gli speciali algoritmi sono in grado di adattarsi durante la fase di apprendimento in base agli esempi che vengono loro presentati. Alla fine, sono in grado di distinguere autonomamente l'acqua dalla terra e le sequenze di gioco vincenti da quelle fallimentari, anche in foto non familiari.

Le cosiddette reti neurali artificiali di questo tipo sono state utilizzate in precedenza nell'apprendimento automatico quando il criterio di distinzione è noto: si sa cos'è uno specchio d'acqua e quali sono stati i percorsi di gioco di successo nei tornei di Go passati.

Separare il grano dalla pula

Gli scienziati del gruppo di Sebastian Huber, professore di fisica teorica dello stato solido e di ottica quantistica presso l'ETH di Zurigo, hanno ora ampliato le applicazioni di tali reti neurali: hanno sviluppato un metodo che non solo categorizza dati arbitrari, ma riconosce anche l'esistenza di categorie in insiemi di dati complessi.

Di domande come questa ce ne sono a bizzeffe nella scienza: il metodo potrebbe diventare interessante per analizzare le misure degli acceleratori di particelle o le osservazioni astronomiche. La fisica può usarlo per filtrare le misure più promettenti dai dati di misurazione spesso ingestibili. I farmacologi potrebbero selezionare le molecole da vasti database molecolari che hanno una certa probabilità di avere uno specifico effetto farmaceutico o un effetto collaterale. E gli scienziati dei dati potrebbero usarlo per organizzare enormi masse di dati disorganizzati ed estrarre da essi informazioni utilizzabili (data mining).

Frontiera cercata

Gocce di sciroppo nell'acqua
Gocce di sciroppo e acqua si mescolano nel tempo: cadono in uno stato di equilibrio in cui non è più possibile dire dove si trovasse inizialmente la goccia di sciroppo. Nella fisica quantistica, invece, esistono sistemi che conservano una memoria eterna del loro stato iniziale. La fisica chiama questa localizzazione a molte particelle. (Immagine: Colourbox)

I ricercatori dell'ETH hanno applicato il loro metodo, tra l'altro, a un fenomeno molto studiato in fisica teorica: un cosiddetto sistema a molte particelle di dipoli magnetici interagenti che non cade mai - nemmeno a lungo termine - in uno stato di equilibrio. Tali sistemi sono stati recentemente descritti. Tuttavia, non si conoscono nel dettaglio le proprietà fisiche quantistiche che impediscono a un sistema a molte particelle di cadere in uno stato di equilibrio. In particolare, non è chiaro: dov'è esattamente il confine tra i sistemi che cadono in uno stato di equilibrio e altri che non lo fanno?

Per trovare questo confine, gli scienziati hanno sviluppato il principio della "finzione": hanno utilizzato dati provenienti da sistemi quantistici. Utilizzando un parametro, hanno tracciato un confine arbitrario per dividere i dati in due gruppi. Hanno poi addestrato una rete neurale artificiale facendo finta che un gruppo cadesse in uno stato di equilibrio e l'altro no. I ricercatori hanno quindi fatto finta di conoscere questo confine.

Gli scienziati confondono il sistema

In totale, hanno addestrato la rete innumerevoli volte, ogni volta con un limite diverso, e dopo ogni addestramento hanno testato la capacità della rete di ordinare i dati. Il risultato: in molti casi la rete ha faticato a classificare i dati come specificato dagli scienziati, ma in alcuni casi la categorizzazione nei due gruppi è stata molto precisa.

I ricercatori sono riusciti a dimostrare che le prestazioni di selezione dipendono dalla posizione del limite selezionato. Evert van Nieuwenburg, dottorando del gruppo del professor Huber dell'ETH, lo spiega così: "Scegliendo un limite per l'addestramento che è molto vicino al limite reale (che non conosco), ho indirizzato male la rete. Una rete addestrata in modo errato in questo modo non può che categorizzare male i dati", ma se si sceglie casualmente un confine vicino a quello reale, si ottiene un algoritmo potente. Determinando le prestazioni dell'algoritmo, i ricercatori sono riusciti a determinare il confine tra i sistemi quantistici che cadono in equilibrio e quelli che non lo fanno mai: Il confine si trova dove la linea di ordinamento della rete è massima.

I ricercatori hanno dimostrato l'idoneità del loro nuovo metodo anche per altre due questioni di fisica teorica: le transizioni di fase topologiche nei solidi unidimensionali e il modello di Ising, che descrive il magnetismo all'interno dei solidi.

Categorizzazione senza conoscenza preliminare

Il nuovo metodo può essere illustrato in modo semplificato con un esperimento di pensiero in cui vogliamo dividere le sfere rosse, rossastre, bluastre e blu in due gruppi. Supponiamo di non avere idea di come potrebbe essere una tale categorizzazione.

Se ora si prende una rete neurale e la si addestra dicendole che la linea di demarcazione si trova da qualche parte nell'area rossa, si confonde la rete. "Si cerca di insegnare alla rete che le sfere blu e rossastre sono la stessa cosa e le si chiede di distinguere le sfere rosse da quelle rosse, cosa che non riesce a fare", spiega l'ETH Huber.

Tuttavia, se il confine è impostato nella gamma di colori viola, la rete apprende una differenza effettiva e ordina le sfere in un gruppo rosso e uno blu. Non è necessario sapere in anticipo che la linea di demarcazione deve trovarsi nell'intervallo di colore viola. Confrontando le prestazioni di ordinamento a diversi limiti selezionati, è possibile trovare questo limite anche senza conoscenze preliminari.

Letteratura di riferimento

van Nieuwenburg EPL, Liu YH, Huber SD: Apprendere le transizioni di fase per confusione. Nature Physics, 13 febbraio 2017, doi:10.1038/nphys4037

JavaScript è stato disabilitato sul vostro browser