Arrivano i transistor ‘organici’ che imitano le sinapsi umane


Arrivano i transistor 'organici' che imitano le sinapsi umane

Realizzato un transistor a base di composti organici in grado di ‘imparare’ a creare da sé nuove connessioni, proprio come accade nel cervello umano


LA STRADA per l’obiettivo finale, la realizzazione in laboratorio di un “mini-cervello” artificiale, è senza dubbio ancora lunga e impervia, ma un sentierino è stato appena battuto. L’impresa si deve a un’équipe di scienziati del Laboratory of Organic Electronics, alla Linköping University, in Svezia, coordinata dall’italiano Simone Fabiano: i ricercatori sono infatti riusciti a mettere a punto un transistor basato su polimeri organici in grado di ‘apprendere’ come e quando creare nuove connessioni e memorizzare informazioni a breve e a lungo termine. Un po’ quello che accade, per l’appunto, nelle sinapsi, le strutture che connettono le cellule nervose nel cervello. Come si diceva, il proposito di creare un vero e proprio cervello artificiale è ancora molto lontano – non fosse altro, al di là delle difficoltà tecniche, per il fatto che la nostra attuale comprensione del funzionamento dell’organo è molto limitata – ma il dispositivo messo a punto degli scienziati potrà trovare applicazioni più a breve termine in altri campi, tra cui il miglioramento delle intelligenze artificiali. Lo studio è stato pubblicato sulla rivista Advanced Science.

Il transistor che impara e cambia

“Quello che abbiamo messo a punto”, racconta Fabiano a Repubblica, docente alla Linköping dopo un percorso accademico che da Catania lo ha portato in Olanda prima e negli Stati Uniti poi, “è il primo transistor al mondo basato su materiale organico in grado di crescere in presenza di determinati stimoli esterni”. I transistor “tradizionali” (quelli in silicio, presenti per esempio nei computer e nei telefoni cellulari) hanno invece una struttura immutabile: “Il nostro, al contrario”, continua Fabiano, “può essere polimerizzato, ossia cambiare la propria struttura formando catene sempre più lunghe. E, cosa ancora più importante, può ‘imparare’ a farlo, imitando il comportamento di una sinapsi”.

Neuroni di Pavlov

Descrivere in dettaglio la struttura e il funzionamento del dispositivo è tutt’altro che semplice. Tralasciando i dettagli troppo tecnici, si pensi che il transistor è inserito in un circuito elettrico alle cui estremità sono applicati tre voltaggi diversi, che rappresentano tre ‘neuroni’. Il primo è connesso al terzo (per continuare l’analogia con il tessuto nervoso umano, è come se già fosse presente una sinapsi), mentre il secondo non è ancora collegato. Il sistema è costruito in modo tale che in presenza di un determinato stimolo (il cambiamento del voltaggio) sul primo neurone si attivi anche terzo, mentre uno stimolo al secondo ‘neurone’ non provoca alcun cambiamento nella risposta del terzo. Ed è qui che entra in campo l’apprendimento: “Sostanzialmente”, spiega Fabiano, “il dispositivo, se opportunamente stimolato, riesce a costruire ‘da sé’ una nuova sinapsi tra il secondo e il terzo neurone. Per comprendere meglio il tutto si può pensare ai cani di Pavlov: il primo neurone rappresenta la vista del cibo, il terzo la salivazione del cane e il secondo il suono della campanella. All’inizio, prima dell’apprendimento, il terzo neurone si attiva solo alla vista del cibo. Dopo l’apprendimento, e la creazione della ‘sinapsi’, il terzo neurone si attiva anche solo al suono della campanella, cioè del secondo neurone”. Come se non fosse abbastanza complesso, i ricercatori hanno alzato la posta in gioco, provando a memorizzare informazioni nel transistor. E ha funzionato: il dispositivo è in grado di immagazzinare dati (sotto forma di corrente a intensità variabile) sia a lungo che a breve termine. Imitando, ancora una volta, la fisiologia cerebrale umana.

Machine learning on a chip

A cosa potrebbe servire un dispositivo siffatto? Le applicazioni sono diverse: la più intrigante, a detta degli autori del lavoro, è di utilizzare questo tipo di transistor per eseguire via hardware i calcoli necessari al machine learning (una delle tecniche alla base degli algoritmi dell’intelligenza artificiale), che invece al momento si possono svolgere solo via software. Con vantaggi significativi in termini di efficienza: “Il transistor”, dice ancora Fabiano, “ha un ridottissimo consumo di energia, specie se paragonato a quello richiesto per far girare i software attualmente in uso. Al momento stiamo lavorando per cercare di aumentarne ancora la capacità, mettendo a punto reti tridimensionali con centinaia di transistor collegati tra loro”.







SITO UFFICIALE: http://www.repubblica.it/rss/tecnologia/rss2.0.xml