RSS

Archivi tag: sequenziamento dna

Medicina genomica: successi, sfide e opportunità (Parte 1 – Le tecnologie)

genomicmedicine

ResearchBlogging.orgRecentemente mi sono imbattuto in una bellissima review pubblicata su Science Translational Medicine dal titolo eloquente: Genomic Medicine: A Decade of Successes, Challenges and Opportunities. Si dà il caso, infatti, che quest’anno si celebrino i 10 anni dal completamento ufficiale del sequenziamento del genoma umano. Gli autori della review hanno fatto un lavoro straordinario, spulciando la letteratura scientifica per mettere insieme in modo organico i risultati conseguiti in questi anni grazie alla genomica, e presentare le sfide che dovremo affrontare negli anni a venire. La rassegna è davvero imponente (basti pensare che nella bibliografia appaiono 169 articoli), perciò ho pensato di commentarla per voi un pezzo alla volta. Se avrete la pazienza di seguirmi, nel giro di poche settimane avrete un quadro completo e dettagliato di quello che la medicina è riuscita a fare grazie alla ricerca genomica.

La prima cosa che dobbiamo tenere bene a mente quando si parla di rivoluzione genomica è che, grazie ad essa, la medicina ha cambiato completamente il suo approccio diagnostico-terapeutico. La ricerca medico-scientifica aveva permesso di conseguire risultati straordinari anche prima del 2000, ma le diagnosi e le terapie erano le stesse per tutti. La definizione stessa di malattia dipendeva dalla localizzazione anatomica del disturbo e dai sintomi clinici che il paziente manifestava: una volta individuato il problema, si procedeva alla somministrazione di una cura “one-size fits all”. Oggi, le cose stanno cambiando: la medicina sta diventando sempre più personalizzata, e le malattie sono caratterizzate a livello molecolare. Questa cosa è particolarmente evidente in oncologia, dove si iniziano a curare con lo stesso farmaco tumori di organi diversi, proprio perché a livello genomico i due presentano le stesse alterazioni.

Questa rivoluzione non sarebbe stata possibile senza le innovazioni tecnologiche che hanno caratterizzato l’ultima decade. In particolare, due fattori sono stati particolarmente importanti per spingere la medicina genomica ai livelli in cui si trova ora: gli studi di associazione su scala genomica (Genome-Wide Association Studies, GWAS) e il sequenziamento di nuova generazione (Next-Generation Sequencing, NGS). Negli studi di associazione genome-wide, si confrontano due gruppi di individui (uno composto da individui sani, l’altro composto da individui malati) e si analizzano una serie di posizioni nel genoma caratterizzate da una certa variabilità nella popolazione, con lo scopo di identificare quelle che, in modo statisticamente significativo, riescono a distinguere i due gruppi. L’applicazione di questo metodo ha comportato un cambio radicale di prospettiva: mentre prima si partiva da un’ipotesi biologica nel tentativo di spiegare le cause di una malattia, con i GWAS ci si limita a scandagliare l’intero genoma senza nessuna ipotesi in mente (sono detti infatti “hypothesis-free”). Prima si cercano gli indizi nel DNA, e soltanto dopo si cerca di spiegare perché quella differenza genetica dovrebbe provocare la malattia. Il vantaggio di questo approccio è che può rivelare l’alterazione di pathway molecolari inaspettati, che magari sono condivisi da malattie in apparenza molto diverse e che possono suggerire nuovi interventi terapeutici. Il primo successo dei GWAS risale al 2005, quando si scoprì una variazione genetica responsabile della degenerazione maculare senile. Oggi, la lista delle associazioni più o meno forti tra patologie e specifiche variazioni genetiche è lunghissima.

cost_per_genomePer quanto riguarda il sequenziamento NGS, è sufficiente dare un’occhiata al grafico qui a fianco per avere un’idea dell’effetto dirompente di queste nuove tecnologie per la lettura del DNA. Dal 2001 al 2012 il costo per sequenziare un genoma umano è passato dai 100 milioni di dollari a meno di 10 mila dollari, e si pensa che presto sfonderemo la soglia simbolica dei 1000 dollari. Questo crollo dei costi è una diretta conseguenza dell’evoluzione tecnologica a cui abbiamo assistito nel corso degli ultimi anni. Oggi, un sequenziatore di ultima generazione è in grado di leggere 250 miliardi di basi di DNA in una settimana, una cifra astronomica se rapportata ai 5 milioni del 2000. Grazie a questi enormi progressi, è diventato possibile cercare le basi genetiche delle malattie non solo nelle variazioni più comuni nella popolazione, come accadeva con i GWAS, ma anche in quelle rare. Naturalmente, la tecnologia in sé non è sufficiente, bisogna anche interpretare i dati ottenuti e tentare di fornire spiegazioni biologiche a quello che si osserva: per questo, affinché la promessa del “sequenziamento per tutti” si realizzi, bisognerà investire molto sulla bioinformatica. Nel frattempo, la ricerca sta puntando sul sequenziamento dell’esoma, cioè l’insieme di tutti i tratti di genoma che codificano per proteine. I primi successi per questa tecnica sono del 2009, quando sono stati diagnosticati tre pazienti affetti da malattie rare. Ma come si dice, il meglio deve ancora venire! Nella prossima puntata parleremo delle applicazioni genomiche nella cura dei tumori.


Jeanette J. McCarthy, Howard L. McLeod, & Geoffrey S. Ginsburg (2013). Genomic Medicine: A Decade of Successes, Challenges, and Opportunities Science Translational Medicine, 5 (189) : 10.1126/scitranslmed.3005785

 
 

Tag: , , , , , , , ,

In caduta libera!

L’ho scritto molte volte su questo blog: i costi per il sequenziamento del DNA stanno diminuendo rapidamente. Anzi, stanno letteralmente precipitando! Tuttavia, trovare in rete un bel grafico che esprima bene questo concetto non è facile. Eccone finalmente uno: lo ha realizzato l’NHGRI (National Human Genome Research Institute), registrando tutte le variazioni di prezzo avvenute negli ultimi anni. Nella cifra calcolata rientrano molti fattori, tra cui i costi delle macchine, dei reagenti e della forza lavoro necessaria (trovate maggiori dettagli sul sito dell’NHGRI).

Qui è rappresentato il costo del sequenziamento di un genoma umano nel periodo che va dal luglio del 2001 al gennaio 2011. Sul grafico è riportato anche l’andamento della legge di Moore, in pratica la velocità secondo la quale aumentano le prestazioni dei processori: fa abbastanza impressione notare come la nostra capacità di produrre sequenze di DNA stia diventando molto ma molto superiore alla capacità di analizzarle. Ok, ora che avete visto il grafico non dovrete più credermi sulla parola quando dico che i costi stanno diminuendo: parlano i numeri!

 
6 commenti

Pubblicato da su 23 febbraio 2011 in Tecnologia

 

Tag: , , , , , ,

The $1000 Genome: Kevin Davies racconta la rivoluzione genomica

Kevin Davies non è uno qualunque. Ha una laurea in biochimica e un dottorato in genetica molecolare, ma soprattutto è stato il primo direttore di Nature Genetics, la più conosciuta e apprezzata rivista scientifica di genetica. Il suo libro precedente, Cracking the Code, narrava la storia del sequenziamento del genoma umano e fu tradotto in 15 lingue tra cui l’italiano. Non so se e quando uscirà la versione italiana della sua ultima fatica, The $1000 Genome, ma per chi mastica un po’ d’inglese ed è interessato alla genetica umana questo libro è una lettura imperdibile.

Sono passati ormai dieci anni dal sequenziamento del genoma umano, e molte cose sono cambiate da allora sia da un punto di vista scientifico che tecnologico. Grazie al suo talento innato per la divulgazione, Davies si destreggia benissimo nelle vicende che hanno segnato l’inarrestabile progresso del settore della genomica. Ci parla delle aziende che hanno introdotto nuove strategie di sequenziamento sempre più potenti ed economiche, ma anche delle coraggiose e ambiziose società di personal genomics come 23andMe, deCODEme e Navigenics, che hanno provato a trasformare la genetica in un fenomeno di massa.

Nel libro si parla soprattutto delle storie umane che stanno dietro a questa entusiasmante avventura, attraverso le tantissime interviste realizzate da Davies ai chimici che hanno inventato nuovi approcci per leggere il DNA; agli imprenditori che hanno scommesso su un settore difficile, come quello della genomica direct-to-consumer; e ai consulenti genetici, che per la prima volta hanno dovuto spiegare a clienti curiosi e un po’ confusi i risultati dei test acquistati su internet.

L’industria del sequenziamento si è posta l’obiettivo di far crollare i costi per leggere un genoma umano completo, con lo scopo di raggiungere presto l’obiettivo del “genoma da mille dollari”. In queste pagine troverete quindi tecnologia e scienza, ma non solo: anche l’evoluzione degli aspetti legali che ruotano attorno al mondo della genomica, e persino l’impatto psicologico che possono avere i test genetici. Insomma, c’è veramente tutto quello che serve per avere una panoramica completa, e appassionante, della rivoluzione genomica che sta avvenendo nei centri di ricerca e nelle aziende di tutto il mondo.

 
 

Tag: , , , , , , , , , ,

La chimica del sequenziamento: passato, presente e futuro

Come molti di voi sapranno, il 2011 è stato proclamato dall’ONU l’Anno Internazionale della Chimica. La chimica è la scienza centrale, quella che più di ogni altra ha la capacità di guidare il progresso scientifico, grazie alle sue innumerevoli connessioni con la biologia, la fisica, la medicina e chi più ne ha più ne metta. Ho voluto renderle omaggio anche io, scrivendo questo post che partecipa al Carnevale della Chimica coordinato per questo mese da Anna Rita Ruberto di Scientificando.

IL DNA

Il DNA (o acido deossiribonucleico) è una molecola che ha l’aspetto di una doppia elica formata da due catene di nucleotidi. I nucleotidi sono piccole molecole costituite da un gruppo fosfato, uno zucchero (deossiribosio) e una base azotata; mentre le prime due componenti sono sempre uguali e costituiscono l’ossatura della doppia elica, le basi azotate esistono in quattro “versioni” differenti. Esse si chiamano Adenina (A), Citosina (C), Guanina (G) e Timina (T), e godono di una proprietà importante: la complementarietà. In una molecola di DNA, una A si troverà sempre davanti a una T, così come una C si troverà sempre davanti a una G: questo significa che per leggere una sequenza di DNA non è necessario sequenziare entrambi i filamenti, basta avere uno dei due e quello complementare si potrà ricavare facilmente. E’ proprio sfruttando la proprietà della complementarietà che la DNA polimerasi riesce a replicare le molecole di DNA nel momento in cui è necessario, e cioè quando la cellula deve dividersi per generare due cellule figlie con identico patrimonio genetico: utilizzando un filamento come stampo e un piccolo tratto di DNA come innesco, questo enzima è in grado di sintetizzare l’altro filamento legando uno dietro l’altro i nucleotidi corretti.

IL METODO SANGER

A Frederick Sanger bastò osservare la DNA polimerasi all’opera per capire come sviluppare il primo metodo per sequenziare il DNA. L’unico ingrediente che dovette aggiungere furono dei nucleotidi particolari, chiamati dideossinucleotidi: queste molecole hanno una modifica chimica tale per cui, una volta inserite nella catena nascente di DNA, ne interrompono la sintesi. La polimerasi non riesce più ad aggiungere altri nucleotidi, e rilascia così un frammento “monco”. A questo punto bisognava fare due cose: misurare la lunghezza di questo frammento e riconoscere il dideossinucleotide che si era legato per ultimo. Con queste due informazioni in mano leggere la sequenza è immediato: se ho ottenuto un frammento lungo 10 nucleotidi dove l’ultimo nucleotide aggiunto è una G, io so che in 10° posizione c’è una G. Un tempo per fare questo si eseguivano sullo stesso DNA quattro reazioni separate, per ognuna delle quali si utilizzava un dideossinucleotide diverso: ddATP, ddCTP, ddGTP e ddTTP. Al termine della reazione, si prendevano i frammenti generati da ogni reazione e li si misurava mediante un’elettroforesi su gel: in questo gel, le molecole più lunghe si muovono più lentamente e tutti i frammenti possono quindi essere separati. Al termine, si ricostruiva la sequenza. Con l’avvento dei sequenziatori automatici, si è iniziato a fare tutto in un’unica miscela di reazione, etichettando ogni base azotata con una molecola fluorescente di colore diverso; inoltre, i frammenti si separano in tubi capillari, con un lettore ottico che registra il colore emesso dal DNA al suo passaggio.

L’invenzione di questo metodo di sequenziamento ha segnato una svolta epocale nel campo della biologia molecolare e lo dimostra il fatto che Fred Sanger ricevette per questo motivo un premio Nobel per la Chimica nel 1980. Tuttavia, occorre molto tempo per sequenziare in questo modo lunghi tratti di DNA: per leggere un intero genoma umano sarebbero necessari più di tre anni di lavoro! Inoltre, è una tecnica molto costosa: si spendono 10 centesimi di dollaro ogni mille basi. Per questi motivi si è passati ora a tecnologie di sequenziamento molto più efficienti ed economiche, le cosiddette tecnologie di seconda generazione.

MONTAGNE DI DATI

Le nuove macchine iniziarono a popolare il mercato dal 2005 in poi, offrendo costi minori e soprattutto enormi quantità di sequenze, vere e proprie montagne di dati che per un sequenziatore Sanger erano inimmaginabili. A farsi concorrenza c’erano diverse aziende, ma a spuntarla fu Illumina/Solexa, che conquistò rapidamente il ruolo di leader nel settore del sequenziamento genomico. I suoi sequenziatori sfruttavano ancora la DNA polimerasi come nella tecnologia precedente, ma introducevano due accorgimenti tecnici che facevano la differenza. Il primo è l’immobilizzazione del DNA su un supporto fisso: le molecole da sequenziare sono infatti incollate a un vetrino tramite degli adattatori. Questo permette di leggere milioni di frammenti di DNA contemporaneamente, perché ciascuno di essi viene a trovarsi in un punto preciso e non si può confondere con gli altri. La seconda, importantissima novità sono i terminatori reversibili. Nel metodo Sanger i nucleotidi modificati bloccavano la sintesi del DNA in modo irreversibile, mentre quelli di Illumina possono essere riattivati, grazie all’azione di un enzima che taglia via la parte di molecola che blocca il lavoro della DNA polimerasi. In questo modo, è possibile monitorare in tempo reale l’aggiunta di tutti i nucleotidi su ogni frammento, fotografando le fluorescenze emesse a ogni passaggio da tutte le molecole di DNA depositate sul vetrino.

I due grandi rivali di Solexa/Illumina erano, e sono tuttora, ABI/Solid e Roche/454. Le loro tecnologie sono molto diverse, e la prima grossa differenza è che entrambe queste aziende hanno scelto di immobilizzare le molecole di DNA non su un supporto solido, ma su delle piccole sfere, a loro volta poste su un vetrino. ABI/SOLiD ha persino abbandonato la DNA polimerasi per passare a un altro enzima, la DNA ligasi, che unisce frammenti di DNA anziché sintetizzarne di nuovi. Inoltre, ha elaborato un sistema di sequenziamento che consente di leggere due volte lo stesso nucleotide, il che abbassa di molto la possibilità di commettere errori.

Roche/454, dal canto suo, non utilizza più i nucleotidi fluorescenti, ma sfrutta un prodotto di scarto della polimerasi (il pirofosfato inorganico PPi) per generare dei flash di luce ogni volta che un nucleotide nuovo viene aggiunto. Il trucco è dare il PPi in pasto a una sulfurilasi, un enzima che lo utilizza per generare una molecola di ATP; a sua volta, l’ATP viene prelevato da una luciferasi che lo usa per ossidare una luciferina e produrre un segnale luminoso. Poiché questo segnale è sempre uguale per tutti i nucleotidi, essi devono essere immessi nel sistema un tipo alla volta: prima le A, poi le C e così via.

Gli incredibili progressi tecnologici e l’utilizzo di nuove chimiche di sequenziamento hanno permesso di fare grandi scoperte scientifiche sul nostro genoma, scoperte che presto ci saranno utili per avere cure personalizzate in base al nostro profilo genetico. Il bello, però, deve ancora arrivare. E arriverà con i sequenziatori di terza generazione, che pur essendo poco più che prototipi, promettono già grandissime cose.

IL SEQUENZIAMENTO DEL FUTURO

I prossimi anni vedranno sicuramente una nuova rivoluzione nel campo del sequenziamento, ma ancora non è chiaro se a portarla saranno macchine sempre più costose e potenti o piccoli strumenti low-cost grandi come una stampante, capaci di entrare con più facilità nella pratica medica di routine.

La prima strada è quella scelta da Pacific Biosciences, che sta mettendo a punto un sequenziatore mostruoso da 700mila dollari. Il suo punto di forza è essenzialmente uno solo: la capacità di sequenziare singole molecole di DNA. Nelle tecnologie precedenti, infatti, bisognava moltiplicare i frammenti per avere gruppi di molecole tutte uguali da sequenziare: solo così il segnale fluorescente era sufficientemente potente per poter essere visualizzabile dal lettore ottico. Riuscire a leggere una singola molecola di DNA, monitorando in tempo reale l’aggiunta dei nucleotidi, significa poter usare piccole quantità di DNA e risparmiare moltissimi soldi sui reagenti.

Altre due compagnie, invece, hanno deciso di abbandonare del tutto molecole fluorescenti e costosissimi lettori ottici. Ion Torrent ha messo in vendita un sequenziatore piccolissimo, che costa un decimo di quello di Pacific Biosciences: la sua peculiarità è che registra gli inserimenti dei nucleotidi misurando le variazioni di pH durante il sequenziamento.

Oxford Nanopore, al contrario, dice di essere in grado di leggere una sequenza di DNA basandosi sui cambiamenti nel flusso di corrente che attraversa dei fori di pochi nanometri, cambiamenti che sono caratteristici dello specifico nucleotide che viene aggiunto alla catena.

Il costo per sequenziare un genoma umano è diminuito di un milione di volte in dieci anni, e forse presto taglieremo il traguardo dei mille dollari. Arriverà il giorno in cui ci presenteremo dal nostro medico di fiducia con una chiavetta USB contenente i nostri dati genetici: grazie a queste informazioni conosceremo i farmaci più efficaci per noi e lo stile di vita che ci aiuterà a restare sani più a lungo. Non sappiamo quando entreremo veramente nell’era della medicina genomica, ma quando quel momento arriverà, il merito sarà anche degli incredibili progressi fatti negli ultimi anni dalla chimica del sequenziamento, un’altra delle infinite declinazioni della scienza di tutte le scienze, la Scienza Centrale.

 
6 commenti

Pubblicato da su 15 febbraio 2011 in Scienza, Tecnologia

 

Tag: , , , , , , , , , , ,

Benvenuti all’Inferno! Ecco a voi i mostri del Beijing Genomics Institute

Sapevo che il Beijing Genomics Institute (BGI) aveva acquistato 128 sequenziatori HiSeq 2000 all’inizio di quest’anno, e solo leggere la notizia mi aveva fatto una certa impressione. Figurarsi vedere per la prima volta le foto dell’enorme stanza che accoglie questi mostri tecnologici: è un’esperienza scioccante, sempre che siate un minimo appassionati della questione, ovvio.


Gli HiSeq 2000 sono sequenziatori di seconda generazione prodotti dall’azienda californiana Illumina, strumenti che già presi singolarmente potrebbero terrorizzare qualsiasi sistemista. Ciascuno di essi produce, in una sola corsa di sequenziamento, qualcosa come 200 miliardi di paia di basi di DNA: in poco più di una settimana di lavoro, quindi, questa macchina infernale può sequenziare un genoma umano con una copertura di quasi 70 volte. Ma se questi numeri vi lasciano indifferenti, allora vi dico a quanti Gigabytes corrispondono tutte queste sequenze: i file immagine generati occupano la bellezza di 32 Terabyte (un Terabyte sono circa 1000 Gb), a cui vanno aggiunti i 3-4 Terabyte di dati prodotti a partire dalle immagini iniziali. Moltiplicate questi numeri per 128, e scoprirete quale mole di lavoro dovranno sopportare i server qui sotto, quando i sequenziatori saranno a pieno regime. Io non ho il coraggio di farla, quella moltiplicazione.

Image credit: mndoci (licenza Creative Commons)

 
8 commenti

Pubblicato da su 14 ottobre 2010 in Tecnologia

 

Tag: , , , , , , , , ,

 
%d blogger cliccano Mi Piace per questo: