Dialogo sulla complessità

qpkoap2quxts6eftkrs5“Hai visto la pubblicità a favore dell’olio di palma? Accidenti, ci vuole un bel coraggio, eh?”

“In che senso?”

“Ci stanno vendendo un veleno e hanno addirittura la faccia tosta di spiattellarcelo in faccia, nemmeno la dignità di nasconderlo!”

“Non esagerare, veleno addirittura?”

“Ma certo, l’olio di palma provoca il cancro, il diabete, e non so cos’altro. Ma dove sei stato negli ultimi mesi? Le merendine e i dolci che compri al supermercato sono tutti pieni di questa schifezza.”

“Ne sei sicuro? No, perché l’Istituto Superiore di Sanità ha appena pubblicato un rapporto in cui si dice che non è vero niente.”

“Certo, allora è stato alzato tutto questo polverone per nulla? Stai a vedere che ora l’olio di palma è diventato un prodotto nutriente e salutare! Magari inizieranno a venderlo anche in farmacia.”

“Un attimo, non passare da un estremo all’altro. L’olio di palma non è certo la cosa più salutare al mondo, ma non è nemmeno un veleno. Il problema dell’olio di palma è che è ricco di grassi saturi, se ne assumi troppi aumenta il rischio di malattie cardiovascolari.”

“Vedi allora che fa male? Bisognerebbe boicottare le aziende che ne fanno uso, così magari inizierebbero a usare ingredienti più sani.”

“Beh, fa male come tutti i cibi che contengono grassi saturi. Se la mettiamo su questo piano, il burro fa malissimo! Eppure non vedo in giro campagne allarmistiche contro il burro.”

“Va beh, che c’entra, basta non esagerare.”

“Appunto! Basta non esagerare. Le calorie derivanti da grassi saturi devono essere meno del 10% rispetto alle calorie giornaliere totali, che arrivino dall’olio di palma, dal burro, dal latte o da qualsiasi altro cibo. Questo dicono i medici.”

“Mmm. E va bene. Ma la sostenibilità dell’olio di palma dove la metti? Ho sentito che nel sudest asiatico stanno bruciando le foreste per coltivarci le palme. Non ti interessa la salvaguardia dell’ambiente?”

“Veramente l’olio di palma è quello con la resa più alta: significa che serve meno terreno per produrre la stessa quantità di olio. La colza e il girasole hanno una resa di 5-6 volte più bassa! Cosa succederebbe se le aziende fossero costrette a smettere di coltivare palme da olio? Chissà, magari inizierebbero a coltivare colza o girasole, e per le tue amate foreste sarebbe molto peggio!”

“In effetti hai ragione. Ma cosa ne so io di cosa combinano nel sudest asiatico? Mica voglio incentivare i disboscamenti.”

“Per questo esiste una certificazione apposita, la RSPO. Se vai sul loro sito trovi tutti i nomi delle aziende che coltivano palma da olio in modo sostenibile, e i produttori che lo usano. Persino il WWF ne ha parlato bene!”

“Sarà.. Certo che di quello che gira intorno all’agricoltura ne sappiamo proprio poco, eh? Ad esempio, quella storia degli ulivi pugliesi! Li stanno bruciando perché c’è un batterio che li fa ammalare e vogliono fermare l’epidemia. In realtà, questo è quello che vogliono farci credere. La Procura ha messo sotto sequestro gli ulivi, pare che non sia il batterio la causa della malattia. E ci sono pure dei ricercatori indagati!”

“Ah sì, la Xylella. Perché dici che non è il batterio la causa dell’epidemia?”

“Dicono che in Puglia ci siano nove ceppi diversi di questo batterio! Vuol dire che è lì da chissà quanti anni, ormai si è adattato. Non può essere quella la causa!”

“Forse non sei aggiornato sulle ultime novità. Il CNR di Bari ha appena pubblicato uno studio che dimostra che il ceppo di Xylella è in realtà uno solo: hanno prelevato campioni un po’ ovunque, e tutti rimandano a un unico ceppo insediatosi nel Salento e proveniente dal Costarica.”

“Ok ma questo non dimostra che il colpevole sia per forza Xylella.”

“No, è vero. In effetti nessuno ha ancora dimostrato in modo inequivocabile che sia il batterio a provocare la malattia degli ulivi, anche se molti indizi lasciano pensare che sia proprio così. (*)”

“Vedi? Stiamo devastando l’economia della Puglia senza neanche conoscere la causa della malattia!”

“Beh, vedila in un altro modo. Se non eliminiamo le piante infette, e il responsabile fosse davvero il batterio, l’epidemia si diffonderà sempre più velocemente. Rischiamo di devastare l’economia italiana ed europea, non solo quella pugliese! Nel dubbio, meglio non rischiare. Non credi?”

“Effettivamente.. Ma nulla mi toglie dalla testa che dietro ci sia lo zampino di Monsanto. A proposito, che ne pensi degli OGM?”

“Quali OGM?”

“Come quali OGM? Quelli che fa Monsanto, no? Quelli che hanno i semi sterili, che bisogna pagare i brevetti e i contadini indiani si ammazzano.”

“Aspetta, aspetta. Una cosa alla volta. Gli OGM non sono sterili, questa è una vecchia leggenda senza fondamento. Ci sono gli ibridi come il mais i cui semi devono essere ricomprati ogni volta per avere le stesse caratteristiche, ma questo non c’entra con gli OGM: è un problema di tutti gli ibridi, OGM e non OGM. E anche quella storia dei contadini indiani, è una bufala. Sui brevetti invece hai ragione, ma non è un problema che riguarda solo gli OGM. Tutte le nuove varietà possono essere tutelate e protette come proprietà intellettuale, cerca su Google “mela Pink Lady”. Se sei contro i brevetti, va bene, ne parliamo. Ma è un altro discorso, con gli OGM non c’entra.”

“Sì ma lo studio che dice che gli OGM provocano il cancro non l’hai letto?”

“Quello di Séralini? Maddai, è stato ritirato da un pezzo. Aveva fatto un sacco di errori sperimentali, giusto per dimostrare che gli OGM erano pericolosi e per promuovere il documentario che sarebbe uscito dopo la pubblicazione dell’articolo.”

“Sì, ma finché non dimostrano che gli OGM sono sicuri io non mi fido.”

“Gli americani li mangiano da vent’anni e non hanno mai avuto problemi. Comunque qui il punto è un altro: non sono “gli” OGM a essere sicuri o non sicuri, bisogna valutare ogni singolo OGM! In Europa lo fa l’EFSA, e quelli autorizzati a livello europeo sono molto pochi. Per questo ti ho chiesto quali OGM poco fa: esistono un sacco di OGM diversi, ognuno con caratteristiche diverse.”

“Sì, ma – guarda caso! – sono venduti tutti dalle grandi multinazionali. Dai, è solo un grande business!”

“Forse ti stupirà sapere che anche la ricerca pubblica italiana ha lavorato sugli OGM, e non per fare enormi distese di monocolture che danneggiano la biodiversità. No, lo scopo era salvare i nostri prodotti tipici, come il pomodoro San Marzano o il riso Carnaroli. Leggi il libro Contro Natura, di Bressanini/Mautino, scoprirai tante cose interessanti! Se non hai tempo va bene anche questa puntata di Presa Diretta.”

“E perché non sono in commercio tutti questi prodotti?”

“Per due motivi. Primo, l’EFSA chiede un sacco di controlli per dare il via libera a un nuovo OGM. Questi controlli costano, e solo le multinazionali possono permettersi di farli. Il secondo motivo, che riguarda in particolare l’Italia, è molto semplice: qui non si può fare ricerca in campo aperto, è vietato per legge. Ma se non puoi fare ricerca, come puoi capire se un OGM è sicuro oppure no? Che peccato, vero? Pensare che potremmo anche ridurre l’uso di pesticidi, grazie alle colture OGM!”

“A proposito di pesticidi, ho sentito che in Italia usano un erbicida che provoca il cancro, il glifosato. Dovrebbe essere vietato! Che infami, ci stanno avvelenando.”

“Ehm. Un momento. Che il glifosato sia probabilmente cancerogeno lo ha detto l’OMS, ma l’EFSA non è d’accordo. Ma anche se lo fosse, sai che anche la carne rossa è probabilmente cancerogena? E quindi dovremmo forse vietarla?”

“Sì, va beh, che c’entra? Dipende da quanta ne mangi. Se segui una dieta equilibrata non c’è pericolo!”

“Appunto, il rischio – se esiste – dipende dalla dose! Se vale per la carne, perché non deve valere per il glifosato?”

“Sì ok, ma che ti costa eliminare il glifosato? Almeno siamo più tranquilli, no?”

“Ti darei ragione se avessimo un altro diserbante più sicuro e altrettanto efficace. Ma al momento non esiste, a sentire gli agricoltori! Vuoi strappare le erbacce a mano?”

“Ok, ok. Ma non voglio veleni in quello che mangio! Ho letto che hanno trovato glifosato in diverse marche di birra. Dovrebbero aumentare i controlli!”

“Su questo siamo d’accordo! Infatti bisogna stabilire delle soglie di sicurezza e soprattutto farle rispettare, non vietare l’uso del glifosato! Vedo che finalmente stai iniziando a ragionare. Sono questioni complesse, non si può cavarsela con un sì o con un no. Ogni nostra scelta ha delle conseguenze di cui dobbiamo tenere conto. Che succede se vieto la ricerca pubblica sugli OGM? Che le multinazionali si arricchiscono. Se tolgo il glifosato dal commercio verrà sostituito da un altro erbicida, magari più pericoloso. Se boicotto l’olio di palma sostituiranno le palme con qualcos’altro di meno redditizio, e le foreste spariranno più velocemente. Se non elimino gli ulivi malati, rischio di peggiorare l’epidemia di Xylella. Non dare retta a chi ti vende verità semplici, non ti fidare degli slogan.”

“E va bene. Mi hai quasi convinto. Quasi. Ma tu comunque non mi piaci, non mi piaci per niente. Per me nascondi qualcosa. Chi ti paga?”

*Il rapporto di causalità tra Xylella e malattia degli ulivi è stato confermato da uno studio dell’EFSA pubblicato il 22 marzo 2016.

L’editoria scientifica è malata

Quando ero studente di dottorato mi capitava, con una certa frequenza, di partecipare in qualità di revisore al processo di peer review. Si tratta del meccanismo di controllo che dovrebbe garantire, per quanto possibile, la qualità degli articoli pubblicati sulle riviste specializzate. Potrebbe sorprendere qualcuno scoprire che un giovane dottorando privo di esperienza accademica sia ritenuto degno di valutare il lavoro proposto da ricercatori più affermati di lui, e anche a me sembrava bizzarro in un primo momento. Se l’argomento è molto di nicchia, però, gli autori che hanno pubblicato su di esso e che quindi sono riconosciuti come esperti in materia possono essere molto pochi. Penso fosse questo il mio caso: leggendo la letteratura scientifica per il mio progetto di tesi, mi rendevo conto che gli autori degli articoli sui microRNA delle piante erano una comunità molto ristretta, della quale anche io ero evidentemente entrato a far parte. Mi è bastato pubblicare un paio di lavori per farmi conoscere ed entrare nel club dei potenziali reviewers. Non credo affatto di essere stato un privilegiato, penso piuttosto che questo fenomeno sia più frequente di quanto si pensi: una parte dei lavori pubblicati nella letteratura scientifica sono stati sicuramente controllati da giovani ricercatori alle prime armi, carichi di entusiasmo e amore per la scienza ma certamente privi di esperienza. Alla luce delle recenti notizie sul caso Infascelli, il professore dell’Università di Napoli accusato di aver manipolato i risultati dei propri esperimenti per sostenere la pericolosità degli OGM, il controllo preventivo della qualità delle pubblicazioni diventa ancora più essenziale. Ma se ogni anno decine di articoli vengono ritirati (per frode e non solo), la colpa non può essere solo di qualche giovanotto disattento. La peer review ha, secondo me, un problema evidente che pochissimi si azzardano a sottolineare: è gratuita.

Pensate alle case editrici che tutti conosciamo, quelle che pubblicano romanzi. In questo caso, l’autore di un romanzo sottopone un proprio testo all’editore, il quale, se lo ritiene opportuno, lo mette in vendita e trasferisce una parte dei ricavi (piccola a piacere) allo scrittore. In regime di piena concorrenza, se il prezzo è troppo alto il libro non venderà; allo stesso modo, se le commissioni per l’autore sono troppo piccole, lo scrittore sottoporrà la sua proposta a un’altra casa editrice. Bene, nell’editoria scientifica non funziona così. I ricercatori la mettono raramente in discussione: si fa così perché si è sempre fatto così. Ma per un osservatore esterno questo sistema appare completamente folle. Vediamo di che si tratta.

academic_publishing

I soggetti coinvolti nel processo sono tre: gli editori delle riviste, le università e ovviamente la comunità scientifica. All’interno di quest’ultima convivono tre figure diverse che spesso però vengono a coincidere: i lettori degli articoli scientifici, gli autori degli stessi e i revisori. A differenza dell’autore di romanzi, il nostro bravo scienziato sottoporrà un articolo a un editore senza alcuna pretesa di guadagnarci qualcosa. La rivista a questo punto inizia il processo di peer review, e per accertarsi di non pubblicare castronerie si rivolge ancora una volta alla comunità scientifica. Una volta individuati due o tre esperti sull’argomento, questi saranno contattati e invitati a revisionare il manoscritto. Qualora accettassero, questi generosi ricercatori controlleranno che le conclusioni del lavoro siano supportate dai dati, che non ci siano evidenti errori di metodo e che tutta la letteratura pregressa sia stata adeguatamente presa in considerazione dagli autori. Tutto questo lavoro è offerto gratuitamente: le proprie competenze, il proprio tempo e le proprie energie sono donati alla casa editrice per puro amore della scienza. Tenetevi forte perché ora arriviamo alla beffa finale: la casa editrice, dopo aver pubblicato il lavoro revisionato non permette a chiunque di leggerlo, ma solo agli abbonati. Ed è qui che interviene l’università, costretta a pagare prezzi salatissimi per permettere ai suoi ricercatori di leggere i lavori che spesso hanno scritto loro stessi. A fronte di un contributo minimo e di limitate spese di gestione (in particolare per le riviste elettroniche), le case editrici sono in grado di fare degli utili elevatissimi; anzi, sono libere di prosciugare le già scarse risorse delle università alzando i prezzi a proprio piacimento, consapevoli che queste continueranno comunque a pagare. Come è possibile che un meccanismo tanto perverso possa reggersi in piedi? La risposta è semplice: il sistema del publish or perish (“pubblica o sei fuori”) azzera il potere di trattativa dei ricercatori, costretti a pubblicare su riviste prestigiose e carissime, pena la fine della propria carriera. Un problema serissimo, esacerbato dal fatto che l’editoria scientifica è in realtà un oligopolio di pochi grandi editori, che controllano le riviste che contano: in altre parole, non c’è reale concorrenza. Ma perché un ricercatore dovrebbe accettare di revisionare un articolo gratuitamente? Perché il lavoro di reviewer finisce anch’esso nel curriculum, e perché forse ci si illude che, entrando nelle grazie dell’editore, sia più facile pubblicare qualcosa su una delle sue riviste. Intendiamoci, alcuni ricercatori rifiutano: spesso sono i più impegnati e i più bravi a farlo, ma questo comporta uno slittamento dell’onere sui ricercatori più giovani e meno qualificati, a tutto detrimento della qualità della revisione.

Negli ultimi anni le riviste Open Access hanno cercato di cambiare le cose, sfruttando un modello diverso in cui a pagare non sono più i lettori (tramite le università) ma gli autori (sempre tramite le università). Il problema è che i prezzi per pubblicare un articolo non sono comunque trascurabili (siamo nell’ordine delle migliaia di euro), e inoltre per quale motivo un ricercatore dovrebbe pagare per pubblicare un lavoro, quando può farlo gratuitamente su riviste più prestigiose? D’altro canto, una rivista che vive di pubblicazioni potrebbe essere più portata ad accettare manoscritti di scarsa qualità, o a saltare a piè pari la fase di revisione. Non è un sospetto poi così infondato, visto il proliferare di riviste di dubbia fama che stanno infangando il nome dell’open access. E a proposito di fama, il punto cruciale è sempre lo stesso: le riviste più ambite, quelle che ti fanno fare carriera sono quelle storiche. Meglio puntare su quelle. Sono tutti fattori questi che hanno contribuito a frenare la trasformazione dell’editoria scientifica, e hanno consentito alle case editrici tradizionali di continuare ad arricchirsi: tanto per fare un esempio, il margine di profitto della Reed Elsevier sulle riviste medico-scientifiche è salito in dieci anni dal 30 fino a quasi il 40%. Che fare quindi? Sicuramente si deve insistere con l’open access, che ha l’indubbio vantaggio di rendere accessibili i risultati della ricerca scientifica, anche a quei cittadini contribuenti che con i loro soldi l’hanno finanziata. Ma se si vuole mettere davvero in difficoltà i giganti dell’editoria, occorre correggere le storture dell’open access e permettere a queste riviste di diventare realmente appetibili.

La mia proposta parte da un modello già esistente, quello della rivista PeerJ. Lanciata nel dicembre 2012, questa rivista funziona in modo simile alle altre riviste open access: pagano gli autori. La differenza, però, è che i ricercatori, con un abbonamento annuale di 399 dollari, sono liberi di pubblicare un numero illimitato di articoli. Essendo la rivista pagata con un abbonamento annuale, l’incentivo ad accettare lavori di scarsa qualità è inferiore rispetto al classico schema in cui si paga la pubblicazione di un singolo articolo. La peer review, che è ovviamente presente, potrà quindi essere molto più rigorosa, dal momento che la rivista non ha più alcun interesse economico a pubblicare a prescindere. Ma questo non è sufficiente a far vacillare l’impero dei grandi editori, che detengono comunque i marchi (le riviste) più prestigiosi. La proposta che faccio potrà sembrare assurda, ma sono convinto che potrebbe funzionare: paghiamo i reviewer. Non entro nei dettagli economici perché non è mia intenzione fare un business plan, ma immaginiamo per un attimo di aggiungere ai 399 dollari annuali una quota da destinare alla peer review. I revisori ora percepiranno un compenso (più o meno simbolico) per il loro lavoro e saranno maggiormente motivati a operare in modo più accurato; la pubblicazione sarà più difficile e di conseguenza la rivista diventerà più esclusiva. A questo punto, un potenziale autore si troverà davanti una rivista che i suoi colleghi considerano esclusiva e difficile da conquistare, su cui può pubblicare senza spese aggiuntive perché ha già pagato l’abbonamento, e che oltre a essere open access riconosce ai revisori il valore del loro lavoro (dal punto di vista dell’immagine un vantaggio non indifferente). In una situazione del genere, proporre l’articolo alle riviste storiche potrebbe non essere più una scelta così ovvia. E con revisori più agguerriti, forse le frodi scientifiche sarebbero smascherate ben prima della pubblicazione.

Ci vediamo al Festival!

Informazione di servizio per genovesi e non: domani pomeriggio, ore 16, sarò al Galata Museo del Mare di Genova per parlare di metafore del DNA insieme a Ivo Silvestro. Lui filosofo, io bioinformatico, sarà interessante scoprire cosa ne uscirà! Il Festival della Scienza di quest’anno ha per tema l’equilibrio, e come sempre sarà ricchissimo di ospiti straordinari. Non mi riferivo a me, maligni! Tanto per fare un nome, io non vedo l’ora di assistere alla conferenza di Jared Diamond, domani sera. In ogni caso, ci vediamo al Festival!

Ritratto di un embrione da giovane – #storiediscienza

ResearchBlogging.orgDISCLAIMER: questo post riporta più o meno fedelmente i risultati descritti nel paper pubblicato alcuni giorni fa su Nature Communications. Shintaro Katayama e Juha Kere esistono veramente, ma il dialogo tra i due è frutto della mia immaginazione. Non so in che rapporti siano, né se il professor Kere sia mai entrato in uno Starbucks. Si può scrivere un racconto di fantasia per parlare di una scoperta scientifica? Consideratelo il mio esperimento letterario.


Le cellule erano state spedite alcune settimane prima dal centro per la fertilità ProCrea di Lugano. Il materiale da sequenziare includeva alcuni ovociti e diversi embrioni ai primi stadi dello sviluppo, ed erano questi ultimi il pezzo forte dell’esperimento: grazie alla generosità di anonimi donatori, i ricercatori del Karolinska Institutet di Stoccolma potevano studiare i cambiamenti nell’espressione genica che avvenivano durante i primissimi istanti dello sviluppo embrionale, all’alba della formazione di una nuova vita. Per farlo occorreva una tecnica di sequenziamento a risoluzione elevatissima, che permettesse di monitorare in modo preciso l’attività di ogni singola cellula. La tecnica in questione esiste, si chiama single-cell sequencing e ha consentito agli scienziati svedesi di scoprire quali geni si accendevano in due momenti particolari: nel passaggio da ovocita a embrione di quattro cellule, e nel passaggio da quest’ultimo a embrione di otto cellule.

Nel suo ufficio di Huddinge, alla periferia di Stoccolma, Shintaro Katayama stava ricontrollando per l’ennesima volta i risultati del sequenziamento. I frammenti di DNA prodotti dal sequenziatore erano stati allineati contro la sequenza standard del genoma umano, e l’attività di ogni singolo gene era stata quantificata sulla base del numero di sequenze ad esso associate. Confrontando l’espressione genica nei diversi momenti dello sviluppo erano emersi dei risultati straordinari, che Shintaro voleva condividere al più presto con il professor Kere. Proprio in quell’istante squillò il telefono.

Juha Kere, classe 1958, aveva la cattedra di genetica molecolare del Karolinska Institutet dal 2001. Laureatosi in medicina nell’84, dopo una breve esperienza negli Stati Uniti era tornato in Scandinavia per fondare e dirigere il Finnish Genome Centre di Helsinki. Autore di oltre 400 pubblicazioni scientifiche, non era esattamente l’ultimo arrivato. Tuttavia, la notizia che stava per comunicargli Katayama avrebbe sorpreso anche lui. Seduto a un tavolo dello Starbucks di Stureplan, il quartiere vip di Stoccolma, il professor Kere aveva appena composto il numero del collega. Era stato via alcuni giorni e sperava che nel frattempo il progetto avesse prodotto qualche risultato.

«Professore buongiorno! – rispose Shintaro con voce squillante – Come è andato il congresso?»
«Poteva andare meglio. Certo qualche talk era interessante, ma niente di particolarmente innovativo. E il cibo era pessimo. Sono felice di essere tornato in Svezia, mi mancavano i nostri smörgårbord!» All’altro capo del telefono, Shintaro rise di gusto. «In ogni caso non ti chiamavo per invitarti a cena – continuò Kere – ma per avere qualche aggiornamento sui nostri embrioni. Ci sono novità?»
«Altroché, prof! Ho terminato le analisi e stavo appunto riguardando i risultati. Abbiamo 32 geni che si accendono nel passaggio da ovocita a embrione di quattro cellule, e 129 geni che si attivano allo stadio di otto cellule.»
Sorseggiando il caffé, Kere aggrottò le sopracciglia. «Mmm.. Mi sembrano pochi. Ricordo un articolo di qualche tempo fa in cui si parlava di quasi 3000 geni! Era di un team cinese, se non sbaglio. Sei sicuro che i calcoli siano giusti?»
«Si fidi di me, prof. – rispose Shintaro – Il nostro metodo di normalizzazione è più corretto. Si adatta meglio agli esperimenti come questo, dove c’è uno sbilanciamento enorme tra i geni che aumentano di espressione e quelli che si disattivano. Non dimentichi i trascritti materni, che nelle prime ore dalla fecondazione devono essere distrutti. Mi conceda una metafora informatica: prima di iniziare a svilupparsi, l’embrione deve formattare il sistema. Se avessimo utilizzato lo stesso metodo di normalizzazione dei cinesi, saremmo stati ingannati dall’enorme numero di geni che si spengono durante questo “reset”.»
Il professore annuì con convinzione, sorseggiando il suo caffè. «Capisco. – rispose – E quindi? Che hanno di interessante questi geni?»
«Beh, diciamo che molti non erano mai stati annotati. – rivelò con soddisfazione Shintaro, certo di aver catturato l’attenzione del suo interlocutore – Di questi sappiamo poco o nulla, ed è proprio questo a renderli interessanti. Non crede? Abbiamo una dozzina di posizioni genomiche che si accendono durante le prime due divisioni cellulari, e non sappiamo a cosa diavolo servano! Ma non è finita qui.»
«Dimmi Shintaro, dimmi!» Il professore addentò un pezzo di muffin al cioccolato.
«Abbiamo scoperto che la maggior parte di questi geni hanno per così dire un interruttore comune. Nelle loro vicinanze troviamo con una certa frequenza la stessa sequenza di DNA: è un pattern ricorrente, e la statistica ci dice che non può essere lì per caso. Professore, è un sito di attacco per gli homeobox! Certo, non stupisce più di tanto, visto che questi fattori di trascrizione sono noti per svolgere funzioni importanti durante lo sviluppo, ma i nostri fattori in particolare sono dei nuovi attori in scena. E soprattutto – qui viene il bello – abbiamo anche scoperto chi ha piazzato quegli interruttori proprio in quelle posizioni.»
«Non tenermi sulle spine, forza!», rispose Kere spazientito.
«Ok, ok. Ecco, ha presente quella cosa che un tempo chiamavamo con una certa supponenza “DNA spazzatura”? Pensavamo che gran parte del genoma umano fosse composto da sequenze inutili, soltanto perché ancora non ne conoscevamo la funzione. D’altra parte, a cosa potevano servire tutte quelle sequenze che si ripetono identiche un po’ ovunque nel nostro DNA? Beh, le confermo che ci sbagliavamo di grosso, come hanno già affermato scienziati più famosi di me. Il pattern ricorrente di cui le parlavo si trova sempre circondato da ripetizioni Alu, le sequenze mobili più abbondanti nel genoma umano.»
«Aspetta! – lo fermò Kere – Mi stai dicendo che quei dannati trasposoni hanno portato i siti di attacco per gli homeobox proprio lì dove servivano?!»
Shintaro sorrise. «Beh, ovviamente non lo hanno fatto di proposito. Ma sì, la teoria è proprio questa: i trasposoni, o “jumping genes” come li chiama qualcuno, hanno creato dei nuovi circuiti di regolazione fondamentali per lo sviluppo embrionale. Di fatto, il DNA spazzatura ha plasmato la nostra evoluzione»
«Accidenti, ma è fantastico! – esclamò Kere – Amico mio, questo risultato finisce dritto dritto su Nature


Töhönen, V., Katayama, S., Vesterlund, L., Jouhilahti, E., Sheikhi, M., Madissoon, E., Filippini-Cattaneo, G., Jaconi, M., Johnsson, A., Bürglin, T., Linnarsson, S., Hovatta, O., & Kere, J. (2015). Novel PRD-like homeodomain transcription factors and retrotransposon elements in early human development Nature Communications, 6 DOI: 10.1038/ncomms9207

Tutto il DNA del mondo

earthDNA

Che il DNA umano sia lungo poco più di 3 miliardi di paia di basi è un fatto noto, almeno per biologi e genetisti. Ma a quali dimensioni arriveremmo se sommassimo il DNA di tutti gli organismi che vivono sul pianeta Terra, batteri e virus compresi? A questa domanda strana (ma non troppo) risponde un articolo pubblicato sulla rivista PLoS Biology e firmato da un gruppo di astrobiologi scozzesi: secondo i calcoli degli autori, il DNA totale della biosfera terrestre avrebbe circa 5 * 10^31 milioni di paia di basi, per un peso complessivo di 50 miliardi di tonnellate a loro volta contenuti in 2mila miliardi di tonnellate di biomassa.

piechartSi tratta di stime, ovviamente, ma di stime piuttosto accurate. Il team guidato da Charles Cockell, professore di astrobiologia presso l’università di Edinburgo, ha preso in considerazione animali, piante, funghi, procarioti (come i batteri) e protisti (che includono amebe e alghe). Per ciascuno di questi gruppi, ha quindi esaminato la letteratura scientifica alla ricerca di stime circa le dimensioni medie del genoma, la biomassa totale, il numero di individui e il numero di cellule che compongono ciascun individuo. Il dato forse più impressionante è la quota di DNA assegnato alle piante: il 68% del DNA totale della biosfera terrestre sarebbe di origine vegetale. Notevole anche il contributo dei procarioti, che arrivano a superare il 30%. La stima totale a cui sono arrivati gli scozzesi è molto vicina a quelle che si ottengono con altri metodi molto diversi, ad esempio partendo dalla concentrazione di DNA stimata nelle acque o nei suoli, o considerando il carbonio organico totale presente sulla Terra. L’ordine di grandezza è lo stesso, a dimostrazione della bontà di questi calcoli. Certo non mancano le approssimazioni: ad esempio, gli autori considerano le dimensioni medie del genoma all’interno di ciascun gruppo, ma sappiamo che questo valore può variare di molto (una piantina di Arabidopsis ha un genoma di 130 milioni di paia di basi, mentre il frumento tenero supera i 17 miliardi). Tuttavia, data la complessità del problema e la scarsità di dati a disposizione, dubito si potesse fare di meglio. Se non altro è un punto di partenza.

Gli autori dello studio ritengono che questo numero rappresenti il contenuto di informazione della nostra biosfera, e suggeriscono di utilizzarlo per monitorare la biodiversità in diversi ecosistemi. Contare le specie non è sufficiente, dicono. Sarebbe un po’ come stimare l’informazione totale contenuta in Internet semplicemente contando i computer che ad essa sono collegati. Una quantificazione precisa della biodiversità dovrebbe includere anche il DNA totale della biosfera: una grande estinzione di massa come quella del Cretaceo, in cui perì il 75% delle specie, si tradurrebbe ad esempio in una brusca riduzione del DNA totale. Certo si tratta di un approccio interessante, purché siano chiari i suoi limiti: il contenuto di informazione del DNA non dipende solo dalle sue dimensioni, ma anche dai geni in esso contenuti e dalle interazioni che questi hanno fra loro. Il “peso” di una singola base di DNA può essere molto diverso a seconda del contesto in cui si trova: all’interno di un gene, ad esempio, conterà di più, perché una sua variazione potrebbe alterare la funzione di una proteina in modo anche drammatico. Ma al di là di questo, ciò che personalmente mi colpisce è un altro fatto: gli esseri umani sono una parte minuscola della biosfera, contribuendo per una piccola percentuale al DNA del gruppo degli animali, che a sua volta è a malapena visibile nel grafico a torta riportato più sopra. E tuttavia, a dispetto di ciò, la civiltà umana è riuscita in poco tempo a trasformare il Pianeta: abbiamo inventato l’agricoltura e costruito strade e città, abbiamo disboscato le foreste e inquinato gli oceani, abbiamo stampato libri e creato internet, abbiamo sconfitto malattie letali e ucciso milioni di nostri simili. Non siamo affatto l’apice dell’evoluzione, ma la nostra storia ci insegna che abbiamo comunque un enorme potere sulla natura che ci circonda. Saremo in grado di farne buon uso?

CapiAmo il Pianeta con Italia Unita per la Scienza

marchio_e_logotipo_coloredAmici appassionati di scienza, ottime notizie! Anche quest’anno i ragazzi di Italia Unita per la Scienza hanno organizzato una serie di eventi scientifici su tutto il territorio italiano. “CapiAmo il Pianeta”, questo il nome dell’iniziativa, vedrà il coinvolgimento di studenti, ricercatori e professori universitari, uniti in nome della scienza per parlare di eco-sostenibilità, energie alternative e alimentazione. Il programma è ancora in via di definizione, vi consiglio quindi di dare un’occhiata al sito ufficiale per restare aggiornati sugli eventi che si terranno nella vostra città nei prossimi giorni.

Per quei pochi che ancora non conoscessero “Italia Unita per la Scienza”, si tratta di un movimento nato nel 2013, con la partecipazione di moltissimi volontari attivi in tutta Italia. Lo scopo è promuovere tra i cittadini una maggiore consapevolezza riguardo ai moltissimi temi scientifici che toccano la nostra quotidianità. Il primo evento è stato la giornata dell’8 giugno 2013, “Italia unita per la corretta informazione scientifica”. L’anno scorso un’intera settimana è stata dedicata alle bufale della scienza. Quest’anno, in occasione dell’Expo, l’attenzione è tutta rivolta all’ambiente e all’alimentazione. La settimana clou è quella dal 18 al 24 maggio, con conferenze, caffè scientifici e flashmob in molte città italiane. C’è davvero l’imbarazzo della scelta! E, se volete, potete dare una mano agli organizzatori facendo un’offerta per la loro campagna di crowdfunding. Viva la scienza!

Tutti a Boston per il Festival della Genomica!

festival

Dal 22 al 24 giugno si terrà a Boston il primo Festival della Genomica. Il programma è davvero invitante, basta leggere i nomi degli speaker principali. I più conosciuti dal grande pubblico sono sicuramente Craig Venter, che ha contribuito al sequenziamento del primo genoma umano ed è l’artefice del primo batterio “sintetico”, e il genetista George Church, professore all’Università di Harvard. Il primo giorno è dedicato ai workshop, mentre nel secondo e terzo giorno si parlerà di genomica sotto tutti i suoi aspetti. Gli organizzatori della Front Line Genomics hanno previsto otto diverse tematiche: medicina genomica, sequenziamento long-read, epigenetica traslazionale, malattie rare, genomica del cancro, analisi di dati genomici, implementazione nella clinica, farmacogenomica. Trovate il programma completo a questo indirizzo. Boston non è proprio dietro l’angolo, me ne rendo conto. Ma nel caso abbiate la possibilità di partecipare, non potete mancare a quello che io considero l’EXPO della genomica. Con la differenza che qui non ci saranno né polemiche né vetrine rotte, ma solo tanta scienza.