Estendere i diritti umani alle neurotecnologie

Le tecnologie che interagiscono con il cervello umano ci pongono di fronte a sfide etiche completamente nuove. Per affrontarle, i diritti umani dovrebbero essere estesi, sostiene Marcello Ienca.

Marcello Ienca

Non è più un'utopia stabilire una connessione diretta tra il cervello umano e un computer per registrare o influenzare l'attività cerebrale. Gli scienziati lavorano da anni allo sviluppo di tali interfacce cervello-computer. Gli ultimi grandiosi annunci della società Neuralink di Elon Musk hanno probabilmente ricevuto la maggiore attenzione dei media. Ma gli scienziati stanno anche sviluppando mezzi tecnici per trattare disturbi neurologici e mentali come il Parkinson, la schizofrenia e la depressione in innumerevoli altri progetti di ricerca in tutto il mondo. In definitiva, si tratta anche di svelare il mistero del cervello umano, una delle più grandi sfide scientifiche del nostro tempo.

Impianto che stabilisce una connessione tra cervello umano e computer.
L'azienda americana Neuralink sta sviluppando impianti con cui spera di stabilire una connessione tra il cervello umano e i computer. (Grafico: Shutterstock)

Il potenziale diagnostico e terapeutico delle interfacce cervello-computer e delle tecniche di neurostimolazione, e le speranze che le persone che ne sono affette ripongono in esse, sono enormi. Quasi un quarto della popolazione mondiale soffre di un disturbo neurologico o mentale e queste neurotecnologie promettono di alleviare questa sofferenza. Tuttavia, il potenziale di abuso di queste neurotecnologie è altrettanto grande e ciò solleva questioni etiche senza precedenti.1,2 ? una sfida per la scienza e la politica garantire che queste innovazioni, di cui c'è urgente bisogno, non siano usate in modo improprio, ma a beneficio delle persone, in modo responsabile e nel rispetto dei valori etici e sociali.

Accesso all'attività cerebrale di una persona

? legittimo accedere o addirittura modificare l'attività cerebrale di una persona e, se sì, a quali condizioni? Quando noi etici ci occupiamo di nuove tecnologie, ci troviamo di fronte a un delicato gioco di equilibri: l'innovazione tecnologica dovrebbe essere promossa a beneficio dei pazienti, ma allo stesso tempo la sicurezza di queste tecnologie dovrebbe essere garantita e le conseguenze indesiderate evitate. Non è facile. Quando si tratta di nuove tecnologie, ci troviamo sempre in un dilemma: le conseguenze sociali di una nuova tecnologia non possono essere previste quando la tecnologia è ancora agli inizi. E quando si scoprono le conseguenze indesiderate, spesso la tecnologia è già così saldamente ancorata nella società che è estremamente difficile controllarla.

Il dilemma può essere illustrato con l'esempio dei social media. Quando le prime piattaforme di social media sono state lanciate all'inizio degli anni 2000, il loro impatto etico e sociale a medio e lungo termine era ancora sconosciuto. A distanza di oltre quindici anni, oggi disponiamo di informazioni complete sulle possibili conseguenze indesiderate: La diffusione di fake news, l'emergere di bolle di filtraggio, la polarizzazione politica e il rischio di manipolazione online.3. Tuttavia, queste tecnologie sono ormai così saldamente ancorate nella nostra società che sfidano qualsiasi tentativo di riorientarle, cambiarle, regolarle e controllarle.

"Quando si tratta di neurotecnologie, non possiamo permetterci di correre questo rischio"Marcello Ienca

Oggi ci troviamo di fronte esattamente allo stesso dilemma con diverse nuove tecnologie, tra cui le interfacce cervello-computer e altre neurotecnologie. Le applicazioni di queste tecnologie non sono più limitate alla medicina, dove devono rispettare rigide normative e linee guida etiche. Piuttosto, le tecnologie stanno già facendo breccia in altre aree, tra cui il mercato dei consumatori, il settore delle comunicazioni e dei trasporti, e persino le forze dell'ordine e il settore militare. Al di fuori delle cliniche e dei laboratori di ricerca, queste tecnologie si trovano spesso in una terra di nessuno a livello normativo.

Quando si tratta di neurotecnologie, non possiamo permetterci di correre questo rischio. Perché il cervello non è solo un'altra fonte di informazioni che alimenta l'infosfera digitale, ma l'organo che costruisce la nostra mente e la rende possibile. Tutte le nostre capacità cognitive, la nostra percezione, la nostra memoria, la nostra immaginazione, le nostre emozioni, le nostre decisioni e il nostro comportamento sono il risultato dell'attività di neuroni interconnessi in circuiti cerebrali.

Impatto sull'identità

Le neurotecnologie mirano a leggere e scrivere l'attività cerebrale. Almeno in linea di principio, un giorno dovrebbero essere in grado di decodificare e modificare il contenuto delle nostre menti. Inoltre, l'attività cerebrale e lo stato mentale che produce sono il substrato decisivo dell'identità personale e della responsabilità morale e legale. Pertanto, la lettura e la manipolazione dell'attività neuronale attraverso tecniche neurotecnologiche mediate dall'intelligenza artificiale (AI) potrebbe avere effetti senza precedenti sull'identità personale delle persone ed essere utilizzata come mezzo di offuscamento nell'attribuzione di responsabilità morali o addirittura legali.

Per evitare questi rischi è necessaria una regolamentazione proattiva. Non possiamo limitarci a reagire alle neurotecnologie quando un giorno queste vengono utilizzate in modo improprio. Al contrario, abbiamo l'obbligo morale di agire in modo proattivo e di armonizzare lo sviluppo di queste tecnologie con i principi etici e gli obiettivi sociali democraticamente condivisi.

Dalla neuroetica ai diritti neurali

Per rendere giustizia alla diversità e alla complessità delle neurotecnologie e alle relative conseguenze etiche, legali e sociali, è necessario un quadro completo. Insieme ad altri scienziati, come il neuroscienziato Rafael Yuste, sostengo che la base di questo quadro per la regolamentazione delle neurotecnologie dovrebbe essere il livello dei diritti umani fondamentali. Dopo tutto, i processi mentali sono la quintessenza di ciò che ci rende umani.

Per proteggere adeguatamente il cervello e la mente umani, i diritti umani esistenti potrebbero dover essere ampliati nella loro portata e definizione. Lo studioso di diritto Roberto Adorno dell'Università di Zurigo e io abbiamo definito questi nuovi diritti umani "neuroritti".4, 5 Abbiamo proposto quattro di questi diritti neurali:

  • Il diritto di libertà cognitiva protegge il diritto dell'individuo a prendere decisioni libere e competenti sull'uso delle neurotecnologie. Garantisce agli individui la libertà di monitorare e modificare il proprio cervello o di astenersi dal farlo. In altre parole, è un diritto all'autodeterminazione mentale.
  • Il diritto di Privacy intellettuale protegge le persone da intrusioni non autorizzate nei loro dati cerebrali da parte di terzi e dalla raccolta non autorizzata di questi dati. Questo diritto consente alle persone di stabilire autonomamente quando, come e in che misura le loro informazioni neurali possono essere visualizzate da altri. Il diritto alla privacy mentale è di particolare importanza in quanto i dati cerebrali sono sempre più disponibili e soggetti agli stessi rischi per la privacy e la sicurezza dei dati di qualsiasi altro dato.
  • Il diritto di Integrità mentale,Il diritto alla privacy, già riconosciuto dal diritto internazionale, ad esempio dalla Carta dei diritti fondamentali dell'UE, può essere esteso per garantire il diritto delle persone con disabilità fisiche e/o mentali di accedere e utilizzare neurotecnologie sicure ed efficaci e di proteggerle da usi non autorizzati e dannosi.
  • Il diritto di continuità mentale Infine, l'obiettivo della protezione dei dati è quello di proteggere l'identità personale e la continuità della vita intellettuale delle persone da modifiche indesiderate da parte di terzi.

Già una realtà nella politica internazionale

I diritti neurali non sono solo un'idea accademica astratta, ma un principio che è arrivato nella politica nazionale e internazionale: il Parlamento cileno ha definito l'"integrità mentale" come un diritto umano fondamentale in una riforma costituzionale e ha approvato una legge che protegge i dati cerebrali ed estende l'etica medica esistente all'uso delle neurotecnologie. Il Segretario di Stato spagnolo per l'IA ha recentemente pubblicato una Carta dei diritti digitali che menziona i diritti neurali come parte dei diritti dei cittadini per la nuova era digitale, e l'Autorità italiana per la protezione dei dati personali ha dedicato la Giornata della protezione dei dati 2021 al tema dei diritti neurali. Anche la nuova legge francese sulla bioetica afferma il diritto all'integrità mentale. Essa consente di vietare le modifiche dannose all'attività cerebrale. La libertà cognitiva e la privacy intellettuale sono riconosciute anche nella Raccomandazione dell'OCSE sull'innovazione responsabile nelle neurotecnologie.6 citato. Infine, il Consiglio d'Europa ha lanciato un piano d'azione strategico quinquennale per affrontare il tema dei diritti umani e delle nuove tecnologie biomediche, comprese le neurotecnologie. L'obiettivo di questo programma è valutare se le questioni etiche e legali sollevate dalle neurotecnologie siano adeguatamente coperte dal quadro esistente dei diritti umani o se siano necessarie ulteriori norme giuridiche.

Per sfruttare il grande potenziale delle neurotecnologie, ma anche per evitarne un uso improprio, è importante chiarire gli aspetti etici e legali e regolamentare le neurotecnologie a beneficio delle persone.

Referenze ed eventi

1 Yuste R, Goering S, Bi G, Carmena JM, Carter A, Fins JJ, Friesen P, Gallant J, Huggins JE, Illes J: Quattro priorità etiche per le neurotecnologie e l'IA. Nature 2017, 551: 159, doi: pagina esterna10.1038/551159a

2 Clausen J, Fetz E, Donoghue J, Ushiba J, Sp?rhase U, Chandler J, Birbaumer N, Soekadar SR: Help, hope, and hype: Ethical dimensions of neuroprosthetics. Science 2017, 356: 1338, doi: pagina esterna10.1126/science.aam7731

3 Ienca M, Vayena E: Cambridge Analytica e la manipolazione online. Scientific American 2018

4 Ienca M, Andorno R: Verso nuovi diritti umani nell'era delle neuroscienze e delle neurotecnologie. Scienze della vita, società e politica 13: 5, doi: pagina esterna10.1186/s40504-017-0050-1

5 Ienca M, Andorno R: pagina esternaUna nuova categoria di diritti umani: i neuroritti. Research in Progress Blog 2017

6 https://www.oecd.org/science/recommendation-on-responsible-innovation-in-neurotechnology.htm

JavaScript è stato disabilitato sul tuo browser