Scienza

0 525

220px-FicheraNato in Acireale l’ 08 febbraio del 1922, figlio di un docente di matematica che gli aveva saputo infondere l’amore per la sua disciplina, dopo gli studi secondari, e il primo biennio universitario svolto presso l’Università degli Studi di Catania (1937-39), si era trasferito a Roma, dove si era laureato in matematica, con lode, a soli diciannove anni. Libero docente in analisi matematica  nel 1948, aveva vinto nel 1949 il concorso per la cattedra di analisi presso l’Università degli studi di Trieste; da qui, nel 1956, si trasferì all’Università di Roma, succedendo al suo maestro, Mauro Picone, per ricoprirvi dapprima la cattedra di Analisi matematica e successivamente quella di “Analisi superiore”.

Gaetano Fichera iniziò la carriera di ricercatore presso l’Istituto Nazionale per le Applicazioni del Calcolo , istituto creato e diretto da Mauro Picone , del quale egli fu l’allievo prediletto. In quell’istituto si studiavano problemi presentati da terzi, appartenenti ai vari rami della scienza, soprattutto della fisica e dell’ingegnaria. È naturale, pertanto, che la formazione scientifica di Gaetano Fichera si sia sviluppata nei due filoni della matematica pura e di quella applicata. Questo secondo filone va inteso non solo come ricerca di metodi risolutivi, ma anche come indagine matematica volta alla creazione di modelli matematici e, quindi, di tipo fisico matematico.

La produzione di interesse fisico matematico di Gaetano Fichera, a parte alcune ricerche attinenti alla biologia e all’elettrologia e talune considerazioni sul problema di Fourier  sulla propagazione del calore , si sviluppa prevalentemente nella teoria dell’elastostatica lineare, con particolare riguardo alle questioni esistenziali, di unicità e di regolarità delle soluzioni. Particolare interesse presentano le ricerche relative al problema con “ambigue condizioni al contorno”. Si tratta di un’interessante e difficile questione posta da antonio Signorini, che Fichera ha appunto ribattezzato, in onore del suo antico maestro, come “problema di Signorini” e che ha studiato dal punto di vista fisico-matematico e non da quello analitico. II problema è solo formalmente lineare, ma non sostanzialmente, in quanto sulla frontiera sussistono condizioni espresse da disuguaglianze, essendo incognita la parte di frontiera ove eventualmente si ha distacco dal vincolo da parte del solido con vincolo di appoggio unilaterale. Per questo problema Gaetano Fichera studia questioni esistenziali mediante un magistrale uso di disuguaglianze variazionali, campo di studi dei quali è considerato il “padre fondatore” insieme a Guido stampecchia, quest’ultimo, peraltro, mosso da motivazioni di ricerca diverse, legate alla teoria del potenziale.

Sempre nel campo dell’elastostatica lineare, vanno ricordati i risultati attinenti al problema di de Saint Venant. Essi possono considerarsi come conclusivi nell’approccio di tipo energetico già attuato da vari autori, quali Zanaboni, Toupin e altri.

Gaetano Fichera divenne nel 1963 socio corrispondente dell’Accademia Nazionale dei Lincei e nel 1978 socio nazionale. L’Accademia Nazionale dei Lincei gli conferì nel 1976 il prestigioso “premio Feltrinelli” per la Matematica. Fu inoltre socio dell’Accademia Nazionale delle Scienze detta dei XL e di numerose altre istituzioni (sia italiane sia straniere). È stato socio dell’Unione Matematica Italiana dal 1947 al 1991.

Egli è scomparso il primo di giugno del 1996, quando era ancora in piena attività di studio e organizzativa. Soprattutto, negli ultimi tempi, fu il primo Direttore della rivista scientifica dell’Accademia Nazionale dei Lincei “Rendiconti Lincei. Matematica e Applicazioni“, cui aveva dato, a partire dal 1990, un notevole impulso migliorandone la qualità, i contenuti e la diffusione a livello internazionale.

fonte Wikipedia

0 441

 

mercL’INAF-Osservatorio Astrofisico di Catania organizza l’osservazione pubblica
(presso la propria sede di via S. Sofia, 78 – Catania) del transito del pianeta
Mercurio sul disco solare, che avrà luogo nel pomeriggio del 9 maggio 2016.

Dalla Terra è possibile osservare transiti solo per i pianeti Mercurio e Venere,
in quanto gli unici più vicini al Sole della Terra. Durante il transito il
pianeta appare come un piccolo disco scuro in lento movimento sul brillante
disco solare.

I transiti – in particolare quelli di Venere – sono stati utilizzati in passato
per il calcolo dell’Unità Astronomica, ovvero la distanza Terra-Sole, e sono
degli eventi molto rari. Nel caso di Mercurio si hanno 13 o 14 eventi per secolo.
Gli ultimi tre transiti hanno avuto luogo nel 1999, 2003 e 2006; per il prossimo
si dovrà attendere il 2019.

Il transito del 9 maggio avrà inizio alle 13:12 e si concluderà quando a Catania
il Sole sarà già tramontato. Al seguente link potete vedere una simulazione
del transito realizzata da P. Massimino dell’Osservatorio Astrofisico di Catania.
http://www.oact.inaf.it/vis…/Video/transitomercurio2016.html

L’attività per il pubblico presso l’Osservatorio Astrofisico di Catania consisterà
in una proiezione che avrà per tema Mercurio, i transiti e il Sole e
nell’osservazione diretta alla barra equatoriale della fotosfera e della
cromosfera solare.

Sono previsti tre gruppi di visitatori, alle ore 14:00, 15:30 e 16:15
Poiché per motivi logistici sarà possibile ammettere solo un numero
limitato di visitatori, gli interessati dovranno prenotarsi rispondendo
al presente e-mail selezionando e compilando la seguente tabella:

Cognome e Nome del responsabile del gruppo:
Numero totale visitatori (massimo 8):
Data e ora scelta (prima priorità):
Data e ora scelta (seconda priorità):
Data e ora scelta (terza priorità):
Recapito telefonico per comunicazioni urgenti:

La prenotazione verrà confermata via e-mail.

Le richieste pervenute verranno esaminate in base all’ordine cronologico
di arrivo, cercando di soddisfare la prima priorità indicata. Qualora al
momento dell’esame della richiesta il gruppo indicato in prima priorità
risultasse già al completo, si passerà alla seconda priorità ed eventualmente
alla terza.

Poiché l’evento si svolge in giornata lavorativa, non sarà possibile accedere
in auto all’interno della città universitaria. Per chi arriva in auto
occorrerà posteggiare nel parcheggio posto di fronte all’ingresso di
via S.Sofia,78 e spostarsi a piedi fino all’osservatorio (circa 450 m).

0 366

planet birth

Per la prima volta gli astronomi sono stati in grado di catturare l’immagine della formazione di un sistema planetario. Hanno dunque visto alcuni pianeti neonati, attualmente tenuti insieme da una gran quantità di gas estremamente caldo e polvere.

Utilizzando le immagini del sistema planetario in esame (quello della stella LkCa 15) prese tra il 2009 al 2015, i ricercatori è stato in grado di identificare due protopianeti – piccoli oggetti che vanno a formare pianeti – a fianco di un potenziale terzo, che si muovono attorno alla stella LkCa 15 con orbite ellittiche (sono mostrati in figura).

Le giovani stelle hanno attorno grandi dischi di materiale (gas e polveri) da cui si formano i pianeti per continuo accrescimento di questo stesso materiale. All’inizio, cioè, minuscoli pezzi di “pietra” (gas e polveri) si muovono in mezzo a questo disco “protoplanetario”, creando lacune e vortici e attirando su sé altro materiale con la propria forza di gravità e diventando pertanto sempre più grandi, fino a diventare un pianeta.

Questo stadio di formazione del pianeta può essere rilevato dagli astronomi utilizzando la luce infrarossa, essendo questi pianeti neonati (o meglio in formazione) riscaldati dalla caduta di altro materiale su loro stessi, per la gravità.

Nella luce infrarossa che emettono si possono osservare delle particolari linee (dette “H-alpha”) che aiutano molto nell’identificazione del protopianeta, come sottolinea l’autore principale dello studio, Steph Sallum.

Questa scoperta e il successo di questa tecnica offrono nuove opportunità di studiare come i sistemi planetari si formino e come i giovani pianeti interagiscano con il disco di materiale intorno alla stella.

http://www.iflscience.com/space/witnessing-birth-planets-0

0 657

valvola cardiaca

Una valvola cardiaca “viva” è stata fatta crescere in laboratorio. Le cellule sono state poste su un ponteggio 3D e lasciate a moltiplicarsi. Alla fine il ponteggio si disintegra, lasciando solo la valvola cardiaca fatta di tessuto vivente.

Questo significa che una valvola fatta di cellule del paziente può essere impiantata nel suo corpo e crescere naturalmente con lui. Per esempio alcune cellule possono essere prelevati da bambini nati con difetti cardiaci gravi e adibite alla coltivazione di valvole cardiache di ricambio in laboratorio, se questa tecnologia, ora in fase di sviluppo, avrà successo nelle prove reali.

Il progetto finanziato dall’UE è parte di un campo rivoluzionario di ricerca noto come ingegneria dei tessuti in cui i medici sperano di utilizzare le cellule del paziente a crescere le parti del corpo di sostituzione in laboratorio.

Una delle principali tecniche in uso in ingegneria dei tessuti è proprio la stampa 3D, usata per costruire ponteggi in modo che le cellule vive possano essere coltivate assumendo la forma desiderata.

Il Dr Declan Devine è all’avanguardia nello studio di questa tecnologia. Ha viaggiato dall’Irlanda a Harvard University negli Stati Uniti, con una borsa europea Marie Skłodowska-Curie, rendendo il “ponteggio” più economico e più efficace, nell’ambito di un progetto di ricerca denominato NANOFACT.

Ponteggi normali implicano che il paziente si sottoponga ad intervento chirurgico pesante per ottenere un numero di cellule sufficiente. Ma Devine afferma che ‘la nostra impalcatura (usando i fattori di crescita e prodotti naturali in matrici sintetiche) ci permette di uscire da questa situazione.’

Ora la sua borsa di studio Marie Skłodowska-Curie è finita e sta cercando finanziamenti per iniziare a testare la sua tecnologia nelle persone. Se ha successo, crede di poter iniziare la sperimentazione su umani in due anni.

 

 

0 476

malutempu meteo

Angelo Rinollo, dottore di ricerca in fisica, risponde alle nostre domande sul meteo e sulle allerte della Protezione Civile.

Lo stranissimo inverno scorso ha visto cadere molta pioggia e il passaggio di una tromba d’aria sulla costa ionico-etnea, è poi seguita un’estate caldissima. Quest’anno sembra ripetersi lo stesso copione. Si possono attribuire questi fenomeni a una tropicalizzazione del clima o sono solo fenomeni passeggeri (non definitivi)? Quanto incide la cementificazione del territorio? E se sì, perché ce ne accorgiamo solo adesso?

Il clima mediterraneo ha già, come caratteristica propria, una notevole irregolarità delle precipitazioni e delle temperature da un anno all’altro. Annate molto piovose ed annate asciutte si sono sempre susseguite nelle nostre zone, così come estati caldissime ed estati relativamente più fresche.
L’inverno 2014-2015 ha visto valori di precipitazione notevoli sulla costa Jonica, ma non certo eccezionali. Vi sono stati, anche nel passato (penso agli anni Cinquanta del Novecento) annate molto più piovose. E il resto della Sicilia non ha fatto segnare accumuli precipitativi particolarmente elevati.
Lo stesso si può affermare riguardo ai valori termici dell’estate 2015, che è stata effettivamente eccezionalmente calda nella regione alpina e in buona parte dell’Europa, ma assolutamente non in Sicilia, dove è stata appena lievemente più calda della media.

Analogamente, il verificarsi di fenomeni vorticosi quali le trombe d’aria non è certo una novità nelle nostre zone. I tornado più forti nella storia italiana sono stati registrati proprio lungo le coste siciliane, oltre che in Pianura Padana.

Quindi, riguardo all’annata appena trascorsa, possiamo affermare che non sia stata particolarmente “strana”. Annate come queste ci sono sempre state e ci saranno. Tuttavia, i cambiamenti climatici in atto, in particolare quelli legati al riscaldamento globale del clima, stanno portando ad una maggiore frequenza di anni come questi, caratterizzati da estati calde e di episodi piovosi intensi, oltre a, paradossalmente, intense ondate fredde invernali.

La cementificazione del territorio, certamente, se non influisce ovviamente sul clima, rende più difficile il deflusso delle acque meteoriche esponendo il territorio e la popolazione a rischi maggiori di inondazione ed alluvione rispetto al passato. Allo stesso modo, in alcune aree l’abbandono delle campagne e la diminuzione della cura delle pendici delle colline ha portato ad un maggiore rischio di frane e smottamenti.

Come funziona il processo dell’allerta meteo? Su che previsioni si basa la protezione civile per diramare l’allarme?

Fino a pochi anni fa, l’allerta meteo era diramata da un unico ufficio nazionale, il Centro Funzionale Centrale, posto nella sede del Dipartimento di Protezione Civile a Roma, e nella stessa sede venivano anche elaborate, dall’apposito Servizio Meteo, le previsioni meteo su cui l’allerta si basa. Poi è stato istituito il decentramento, e ogni Regione italiana si è dovuta dotare di un proprio Centro Funzionale Decentrato, che ha assunto la funzione di diramare l’allerta per il territorio di propria competenza. Alcune Regioni hanno anche un Servizio Meteo proprio, in grado di elaborare previsioni e spesso anche di fare girare sulle proprie macchine dei modelli previsionali a scala locale. Altre Regioni, invece, tra cui la Sicilia, non possiedono un proprio Servizio Meteo autonomo e quindi, pur emettendo in proprio l’allerta meteo, utilizzano ancora le previsioni elaborate dal Servizio Meteo nazionale. Queste vengono elaborate ogni mattina dai meteorologi della Protezione Civile, in collaborazione con il Servizio Meteorologico dell’Aeronautica Militare e con i Servizi Meteo decentrati delle Regioni che lo possiedono. Per elaborare queste previsioni, i meteorologi utilizzano i principali modelli meteorologici a grande scala europei e mondiali, e i modelli a scala locale dei Servizi Meteo regionali.

Perché i cittadini possano autoregolarsi per questo pericolo: esiste un sito meteo più sicuro? Quanti millimetri di pioggia previsti sono considerabili pericolosi? A distanza di quante ore le previsioni meteo diventano affidabili? Come leggere correttamente le previsioni?

In Italia, le uniche previsioni meteorologiche che hanno valore ufficiale dal punto di vista legale sono quelle emesse dal Servizio Meteorologico nazionale e dai Servizi Meteo decentrati delle Regioni che lo possiedono. Esistono però altri siti, gestiti da privati, che forniscono previsioni meteorologiche via Internet, spesso dotati di apposite applicazioni per telefono mobile. Alcuni di questi hanno raggiunto grande popolarità e vengono usati dalla gente per le previsioni anche a livello locale. Questo pone domande frequenti sull’affidabilità di tali siti piuttosto che delle previsioni ufficiali. In generale, buona parte delle previsioni risultano molto affidabili fino a 3 giorni circa dalla data dell’emissione, mediamente affidabili fino a 5-6 giorni e inaffidabili oltre il sesto giorno. Questo però vale, su scala regionale o comunque a scale di parecchie decine di km, specialmente per quanto riguarda fenomeni innescati da perturbazioni ampie e diffuse come quelle invernali. Più difficile è invece la previsione in caso di fenomeni temporaleschi localizzati, tipici delle stagioni estiva ed autunnale: è possibile in generale prevedere la probabilità che in una certa area si verifichino temporali, ma non è facile stabilire il punto esatto dove questo avverrà né l’accumulo precipitativo. Ovvero, la previsione può dirci che sulla zona di Acireale nel pomeriggio ci saranno temporali, ma non ci dirà se il temporale colpirà la zona nord, o la zona sud della città, o le campagne, se avverrà alle 16 o alle 18, e se apporterà 5 mm di pioggia o 100 mm. So che alcune applicazioni di siti meteo privati pretendono di dare anche questa informazione, ma l’affidabilità di queste è molto dubbia. Il fatto che a volte i valori egli orari letti su queste applicazioni abbiano coinciso, in caso di temporali, coi valori e gli orari realmente misurati, è da considerarsi una casualità.

Quanto al valore di pioggia da considerare pericoloso, non esiste un valore soglia preciso: dipende, ad esempio, da quanto dura la precipitazione. Cioè, 100 mm concentrati in un’ora sono molto più pericolosi di 100 mm distribuiti nell’arco di 12 ore. E dipende anche dalla capacità del territorio di drenare le acque meteoriche. Per questo è importantissimo realizzare e mantenere in efficienza le opere di canalizzazione e gli alvei fluviali, e fermare la cementificazione.

Il cittadino deve inoltre essere in grado di autoproteggersi, evitando o limitando i comportamenti a rischio. Ad esempio, in caso di piogge forti, si dovrebbe evitare di uscire e viaggiare. In particolare, si devono evitare sottopassi, sottovia, scantinati e in generale tutti i luoghi in cui le acque possano ristagnare. Ovviamente bisogna tenersi lontano dai corsi d’acqua e non transitare lungo argini o su ponti. Così come bisogna evitare di sostare sotto alberi o in luoghi aperti se vi sono fulmini.

*********************

Angelo RInollo, con 8 anni di esperienza nel campo della meteorologia da satellite presso diversi enti di ricerca europei (l’Istituto di Scienze dell’Atmosfera e del Clima del CNR di Bologna, l’Università di Ferrara, il Reale Istituto Meteorologico del Belgio e il Dipartimento di Protezione Civile italiano), si è occupato della validazione (cioè del confronto con dati presi da sensori a terra) delle stime da satellite (in tempo reale) della precipitazione, dell’umidità del suolo e della copertura nevosa. Ha anche tenuto lezioni di meteorologia da satellite per l’EUMETSAT (ente satellitare europeo) e laboratori didattici di meteorologia nelle scuole.

 

0 427

human-brain-project

Lo Human Brain Project (HBP, ovvero Progetto cervello umano) è un progetto scientifico nel campo dell’informatica e delle neuroscienze che mira a realizzare, entro il 2023, attraverso un supercomputer, una simulazione del funzionamento completo del cervello umano

HBP nel gennaio 2013 (insieme al progetto Graphene) è stato selezionato dalla Commissione europea tra i progetti faro di ricerca e sviluppo romossi dall’Unione Europea: i due progetti beneficeranno di un sostegno finanziario di 1 miliardo di euro lungo dieci anni.

E’ notizia di qualche giorno fa che l’Istituto Nazionale di Fisica Nucleare (INFN) italiano entra in Human Brain Project (HBP) come capofila del consorzio WAVESCALES (WAVE SCALing Experiments and Simulations), uno dei 4 vincitori, su 57 proposte, della Call for Expressions of Interest (CEoI) di HBP. L’HBP, con 500 milioni di euro di finanziamento previsti tra il 2013 e il 2023, è uno dei due progetti bandiera della Commissione Europea (Future and Emerging Technology, FET, Flagships) attivi per il prossimo decennio, insieme a quello sul grafene.

“Lo scopo dell’INFN in WAVESCALES è realizzare una simulazione del funzionamento cerebrale su grande scala, con particolare riferimento alla propagazione di onde cerebrali durante il sonno profondo e l’anestesia, e durante la transizione allo stato cosciente, per mezzo delle cosiddette reti neurali”, spiega Pier Stanislao Paolucci, ricercatore INFN e coordinatore del progetto. “Faremo, cioè, ricorso a modelli matematici di neuroni e sinapsi artificiali, per imitare il funzionamento cerebrale, confrontando poi le simulazioni con misure effettuate durante il progetto in vivo, ad esempio con tecniche non invasive su esseri umani (come la risposta elettro-encefalografica a stimolazioni magnetiche) ed in vitro, con la risposta elettrofisiologica a stimolazioni optofarmacologiche”, conclude Paolucci.

Il consorzio WAVESCALES è formato da 5 partner: oltre all’INFN, coordinatore del progetto, ne fanno parte l’Università degli studi di Milano, l’Institut D’Investigacions Biomèdiques August Pi i Sunyer (IDIBAPS) e l’Institut de BioEnginyeria de Catalunya (IBEC), entrambi a Barcellona, e l’Istituto Superiore di Sanità (ISS), a Roma. Il progetto dovrebbe ricevere, previa approvazione nei prossimi mesi da parte della Commissione Europea, un finanziamento di 2 milioni di euro per i primi due anni, con possibili estensioni negli anni successivi, e partire così nella primavera 2016.

Per approfondimenti:

https://www.humanbrainproject.eu

https://it.wikipedia.org/wiki/Human_Brain_Project

0 679

quantum-computer

Un computer quantistico (o quantico) che per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici della meccanica quantistica (come la sovrapposizione degli effetti e l’entanglement). 

La miniaturizzazione dei componenti dei computer, così per come procede da decenni, non durerà all’infinito, e in effetti si è fermata alle soglie del mondo microscopico, governato dalle leggi della meccanica quantistica. Con una felice intuizione dei teorici della computer science, la meccanica quantistica, da limite che era, è stata trasformata in un’opportunità grazie a cui realizzare una macchina per il calcolo automatico caratterizzata da una potenza di calcolo enormemente superiore a quella dei computer convenzionali: il computer quantistico.
Al posto dei convenzionali bit, le unità d’informazione binaria, indicate convenzionalmente dalle cifre 0 e 1, e codificate dai due stati “aperto” e “chiuso” di un interruttore, nel computer quantistico si usano i qubit, codificati dallo stato quantistico di una particella o di un atomo. Lo spin di una particella per esempio, ha due orientamenti o stati “su” e “giù” che possono codificare le informazioni binarie. A rendere interessante ai fini del calcolo le particelle atomiche e subatomiche è il fatto che possono esistere anche in una sovrapposizione di stati quantistici, ampliando enormemente le possibilità di codifica delle informazioni e quindi le possibilità di affrontare problemi estremamente complessi.

Esiste già qualche computer quantistico funzionante, ma c’è ancora parecchia strada da fare perché diventi una tecnologia di uso comune. Intanto recentemente un grande passo avanti è stato fatto per lo studio delle sue “porte logiche”.

Le porte logiche eseguono operazioni su dati di input e creano output simulando funzioni logiche. Nei computer classici le porte logiche assumono la forma di diodi o transistor, mentre nei computer quantistici le componenti sono composte da singoli atomi e particelle subatomiche. L’elaborazione delle informazioni avviene quando le particelle interagiscono tra loro secondo le leggi della fisica quantistica.

Le particelle di luce, ovvero i fotoni, presentano numerosi vantaggi nell’informatica quantistica, ma è notoriamente difficile controllare le loro interazioni. L’esperimento descritto nell’articolo dimostra come gestire tali interazioni.

«Abbiamo osservato l’effetto di una singola particella di luce su un fascio ottico», ha spiegato Aephraim Steinberg del Canadian Institute for Advanced Research, uno degli autori dello studio e ricercatore presso il Centre for Quantum Information & Quantum Computing dell’Università di Toronto. «Normalmente i fasci di luce si attraversano l’un l’altro senza subire nessun effetto. Per costruire nuove tecnologie come i computer quantistici, vogliamo che i fasci luminosi di parlino l’un l’altro. Questo non è mai stato fatto utilizzando un singolo fotone».

I ricercatori hanno innanzitutto sparato un singolo fotone su degli atomi di rubidio che avevano fatto raffreddare alla temperatura di un milionesimo di grado sopra lo zero assoluto. I fotoni si sono quindi “legati” agli atomi, alterando il modo in cui il rubidio ha interagito con un altro fascio ottico. Il fotone ha modificato l’indice di rifrazione degli atomi, che ha causato uno sfasamento del fascio, piccolo ma misurabile. Questo processo potrebbe essere utilizzato come una porta logica quantistica, consentendo l’ingresso, l’elaborazione e l’uscita delle informazioni.

Per approfondimenti: 

https://it.wikipedia.org/wiki/Computer_quantistico

http://www.nature.com/nphys/journal/vaop/ncurrent/full/nphys3433.html

 

0 467

coni bastoncelli occhio

Una nuova terapia genetica è stata testata su topi non vedenti per curare la cecità e ha dato risultati molto incoraggianti. Questo è quanto dichiara Rob Lucas, dell’Università di Manchester, a capo del gruppo di studiosi che ha condotto la ricerca.

“Abbiamo eseguito il trattamento su alcuni topi non vedenti. Li abbiamo messi davanti ad un video che riproduceva un normale attacco di un gufo. I topi che avevamo curato sono fuggiti alla vista del rapace notturno, proprio come quelli sani, mentre quelli non trattati sono rimasti immobili. Possiamo dire che gli esemplari ai quali era stato somministrato il trattamento hanno in qualche modo interagito con la proiezione del gufo.”

Ai topi trattati è stato iniettato un gene che contiene un pigmento in grado di rilevare la luce. Questo è un approccio scientifico che si prefissa di curare tutti i tipi di cecità, causati da coni e bastoncelli danneggiati o mancanti. I fotorecettori, in un uomo vedente, catturano la luce e la convertono in segnale elettrico da inviare alle cellule gangliari e bipolari, situate in profondità della retina. Tali cellule elaborano lo stimolo elettrico e lo inviano al cervello: tuttavia, se i fotorecettori sono assenti o non funzionano, il processo è sulla carta inattuabile già in partenza.

Il pigmento iniettato da Lucas e dalla sua equipe è la rodopsina, ossia quello utilizzato dai fotorecettori umani per rilevare la luminosità. In questo modo gli scienziati sono in grado di bypassare le cellule non funzionanti e consentire alle gangliari e bipolari di auto-produrre il segnale mancante.

In base a questi primi test effettuati, la vista dei topi ciechi non è paragonabile a quella dei topi sani, ma ha consentito loro di tornare ad interagire con l’ambiente.
Il virus utilizzato per la somministrazione del trattamento è già stato approvato per l’uso sugli esseri umani e nel giro di cinque anni si spera di poter avviare la sperimentazione sull’uomo.

Robert Lanza, Massachusetts, predica però cautela: “Non sappiamo ancora se questo trattamento ha una scadenza. Cioè, se col tempo, i topi torneranno ad uno stato di cecità.”