Calcolo
scientifico distribuito, ovvero computers uniti per ricerche scientifiche
Nella
comunità scientifica, dov'è necessario elaborare grandissime
quantità di dati, è un approccio che sta sempre più
prendendo piede. In pratica si sfruttano possibilità di calcolo
di tanti computers, ai quali si affida una piccola porzione di dati
da elaborare: una volta completato il processo, i risultati vengono
inviati solitamente attraverso la Rete al server centrale, il quale
invia un nuovo pacchetto di dati, e così di seguito. Così
facendo, si riesce a disporre di enormi potenze di calcolo, a costi
irrisori.
Vista la sempre più capillare diffusione di collegamenti
a banda larga, a mio modo di vedere potrebbe essere una tecnica
che vedremo nelle "consoles" di gioco delle prossime generazioni.
Folding@Home
Progetto di ricerca
sulle proteine dell'Università di Stanford; il funzionamento
è del tutto simile a quello dello SETI@home
(vedi sotto). L'obiettivo
del progetto è quello di conoscere al meglio il processo
di assemblaggio o "Folding" delle proteine e viene realizzato
utilizzando i periodi di morti del PC per simulare il processo con
cui le proteine prendono la forma che troviamo in natura.
Secondo scoperte recenti, alcune malattie di cui siamo abituati
a sentirne parlare, quali la malattia di Alzheimer o il morbo della
mucca pazza, potrebbero risultare da un errato "folding".
Il progetto Folding@Home
è intimamente legato a quello denominato Genome@Home.
Qualora
vi interessasse partecipare al progetto e condividere con me il
totale dei risultati elaborati, ho fondato il WebTaste
Distributed Computing Team (dati elaborati sinora dal gruppo,
dati elaborati personalmente)
in seno al quale avrò il piacere di accogliervi; visitate
la pagina del gruppo per
maggiori informazioni.
Il numero del gruppo da immettere nel client è il 10811 (nelle
preferenze del programma ho specificato che preferisco elaborare
dati di questo primo progetto Folding@Home, piuttosto che del secondo,
Genome@Home).
Genome@Home
Progetto strettamente legato al precedente, sempre dell'Università
di Standford, Genome@Home
si prefigge di meglio capire i genomi appunto. Se Folding@home
mira a meglio comprendere come le proteine attuali raggiungono la
loro specifica e funzionale struttura tridimensionale, Genome@home
si prefigge di trovare nuovi geni che potrebbero formare proteine
funzionanti e "utili" all'interno di celle. Questo è
ottenuto tramite un algoritmo di computerizzato basato su regole
fisiche e biochimiche, che permette di disegnare nuove proteine
(e nuovi geni) che non sono stati trovati in natura. I ricercatori
ritengono che paragonando i "genomi virtuali" con quelli
"naturali" sia possibile estrapolare migliori conoscenze
su come i genomi naturali possano essersi evoluti e come geni e
proteine naturali lavorano.
PopolarPower
PopolarPower
attualmente non offre più i propri servizi, ma originariamente
permetteva di scegliere tra differenti dati da elaborare sul principio
PC, alcuni dei quali a pagamento. Uno dei progetti offerti non a
scopo di lucro (e quindi ognuno era offriva gratuitamente il proprio
tempo di calcolo del processore) era riferito alla ricerca di un
vaccino contro l'influenza.
Téléthon
francese 2001-2002 - progetto Décrypthon
È stata raccolta la sfida nel corso dell'edizione 2001 del
Téléthon francese: lo scopo era quello di confrontare
tra loro 500'000 proteine (tutti contro tutti). Grazie alla partecipazione
di 75'000 computer, il 16 maggio 2002 è stata annunciata
la riuscita
del progetto, portato a termine in meno di due mesi. In questo
lasso di tempo sono state collezionate più di 10 milioni
di ore di calcolo, che avrebbero richiesto a un computer solo "standard"
417'000 giorni, cioè 1'170 anni...
SETI@home
Uno dei progetti più conosciuti è quello dello "SETI@home",
un esperimento scientifico che utilizza dei computers collegati
alla Rete nella ricerca di Intelligenze Extraterrestri, grazie all'analisi
di dati provenienti dal radio telescopio di Arecibo. Partecipare
è semplice: è sufficiente scaricare un programma che
si incaricherà di recuperare i dati dal server principale
e di elaborarli durante i tempi morti di lavoro (agendo quale screen-saver),
oppure si può anche decidere di lasciarlo funzionare continuamente
in back-ground mentre si lavora (sulle macchine odierne non rallenta
significativamente il lavoro). Completata l'analisi, invia i risultati
al server centrale e recupera un nuovo pacchetto di dati.
Partendo da questo collegamento si ha accesso ai dati
totali attuali di tutto il progetto, seguendo questo saranno
visualizzati i miei
dati attuali, mentre seguendo questo quelli del gruppo WebTaste
Distributed Computing Team. Qualora vi interessasse partecipare
al progetto e condividere con il gruppo il totale dei risultati
elaborati, troverete presso la pagina del WebTaste
Distributed Computing Team informazioni in merito.
|
|