Grande capacità di alternanza dei batteri intestinali

Standard

Un fattore di prevedibilità nell’intestino – non appena un batterio lo lascia, un altro è pronto a dividere e a prendere il suo posto. Come riesce il nostro intestino a rimanere sano sottoposto a questo piano di successione costante? Le ricerche indicano che diverse specie di microbi svolgono le stesse funzioni nell’intestino, garantendo la stabilità a fronte di una costante variabilità del microbioma.

Gli esseri umani e i loro microbi sono parte di un antico rapporto simbiotico. Forniamo ai nostri batteri intestinali un posto dove vivere e sostanze nutritive per crescere, mentre di converso ci aiutano a rompere il cibo e a combattere gli invasori più patogeni. Le variazioni giornaliere come i pasti o l’esercizio fisico possono causare per alcuni dei nostri inquilini intestinali la morte, ma queste popolazioni si sono evolute per ricrescere, o essere sostituite da batteri che agiscono in modo simile. Anche con mutevoli specie batteriche, i nostri corpi continuano a funzionare normalmente.

Ma non è sempre questo il caso. Almeno 50 disturbi sono associati ai microbi intestinali che sono stati eliminati in equilibrio, e di molti potenziali trattamenti – dai probiotici ai trapianti fecali – dipendono dall’idea che il microbiota di una persona può essere cambiato in meglio. Il problema è che anche con i miglioramenti associati a queste terapie, non sono purtroppo di lunga durata. C’è qualcosa che porta il microbioma di un organismo nuovo alla base di partenza.

“Ciascuno di noi ha microbi diversi nel corpo, quindi ci sono fattori genetici nell’ospite umano,- dice Review coautore con Andrés Moya, genetista interessato alla biologia evolutiva presso FISABIO-Universitat de Valencia, in Spagna-che rendono gli individui più suscettibili ad ospitare particolari batteri . Non capiamo ancora queste differenze, ed è perciò un problema che bisogna studiare al meglio.”

Moya e Manuel Ferrer del Consejo Superior de Investigaciones Científicas, in Spagna, dicono che la maggior parte del focus di ricerca sui microbi dell’intestino è rivolta a guardare le loro funzioni individuali e la diversità dei microbi intestinali nelle diverse popolazioni. Ad esempio, sappiamo che le persone magre (in trattamento antibiotico) e gli obesi hanno tipi intercambiabili di batteri legati alla demolizione dello zucchero o alla trasformazione dei carboidrati. Quello che non sappiamo è quale ruolo questi batteri svolgono nella comunità più grande del microbioma.

I ricercatori studiano il microbiota umano come un ecosistema intestinale, concentrandosi di più su come le varie specie lavorano tra loro e le nostre cellule. Studi recenti hanno dimostrato un trasferimento genetico importante tra i batteri dell’intestino, indicando che si sono evolute funzioni principali specializzate. Quest’approccio top-down potrebbe aiutarci a capire il ruolo che questi batteri svolgono nel corpo umano e ciò che porta a sintomi clinici quando sono in disbiosi.

“Quando siamo nati, non siamo mai stati soli, -dice Moya, ricercatore dell’Area Genomica e Salute della f ondazione FISABIO- abbiamo già diverse specie batteriche che interagiscono con le nostre cellule umane – e non sono indipendenti, cercano di sopravvivere nel nostro intestino, formando qualcosa come una superspecie .  Il microbioma potrebbe essere l’ultimo organo umano da studiare.”

 

 

 

Lo schema di intercambiabilità dei batteri intestinali

Il microbiota intestinale risulta condizionante nell’ipertensione

Immagine

I ricercatori hanno scoperto che i microrganismi residenti nell’intestino (microbiota) svolgono un ruolo importante nello sviluppo di alta pressione sanguigna nei ratti. Gli scienziati hanno studiato due gruppi di ratti, uno con alta pressione sanguigna (“ipertensivo”) e uno con pressione sanguigna normale (“normale”). Il gruppo di ricerca ha rimosso una porzione del materiale biologico dal crasso di ciascun gruppo. A tutti gli animali, poi, sono stati dati antibiotici per 10 giorni allo scopo di ridurre la loro microflora naturale intestinale

Distribuzione dei batteri tra i villi intestinali

Distribuzione dei batteri tra i villi intestinali

. Dopo il ciclo di antibiotici, i ricercatori hanno trapiantato un microbiota ipertensivo in topi con pressione arteriosa normale e un microbiota normale al gruppo dei topi ipertensivi . Hanno scoperto che il gruppo trattato con microbiota ipertensivo sviluppa un’ elevata pressione sanguigna. Il risultato più sorprendente è che i ratti trattati con un microbiota normale non hanno avuto un calo significativo della pressione arteriosa, anche se seguendo l’andamento delle letture della pressione sanguigna, queste ultime sono leggermente diminuite. Questa scoperta è “l’ulteriore prova” – indicano i ricercatori- sulla necessità di continuare lo studio del microbiota nello sviluppo dell’ipertensione nell’uomo e supportare la possibile veridicità di un ruolo potenziale dei probiotici come trattamento per l’ipertensione. Questi studi hanno mostrato anche come l’integrazione della dieta con probiotici (microrganismi benefici presenti nell’intestino) possa avere effetti relativamente modesti sulla pressione sanguigna, soprattutto negli ipertesi. Una scoperta che fa luce sulle cause dell’ipertensione viene anche da un gruppo di ricerca del Dipartimento di Cardiologia, del Beijing ChaoYang Hospital, in Cina; gli scienziati hanno condotto un’analisi del microbiota (sui geni e sui metaboliti, sostanze della flora batterica intestinale) in 41 pazienti sani, 56 pre-ipertesi e 99 ipertesi. I pazienti pre-ipertesi e ipertesi presentavano un profilo simile del microbiota intestinale e una minore diversità di batteri rispetto ai soggetti sani. Risultavano dominanti, in particolare, i batteri gram-negativi come Prevotella e Klebsiella

I batteri che dovrebbero essere presenti  normalmente nell'apparato digerente

I batteri che dovrebbero essere presenti normalmente nell’apparato digerente

, produttori di endotossine batteriche ad azione infiammatoria per i tessuti; inoltre, quando è stato trapiantato il microbiota degli individui ipertesi nei topi germ free (privi di germi e ipo-tesi), questi ultimi sono diventati ipertesi. L’alterazione del microbiota intestinale (disbiosi) contribuisce, quindi, alla patogenesi dell’ipertensione. Il ripristino dell’omeostasi del microbiota (eubiosi), mediante dieta e stile di vita corretti (riduzione del peso, esercizio fisico e buona idratazione) è una strategia vincente ancor prima dell’intervento farmacologico, già nei soggetti pre-ipertesi. E’ stato dimostrato inoltre che nutrienti come vitamine del gruppo B (semi oleosi, tuorlo d’uovo, ortaggi verdi, fegato), colina (tuorlo d’uovo, fegato), vitamina A (fegato, uova, ortaggi e frutta), resveratrolo (uva, prugne, frutti di bosco, frutta secca), curcumina (curcuma), sulforafano (broccoli, cavolfiori) e polifenoli del tè verde, sono modulatori epigenetici (modificano, cioè, la capacità di replicare il DNA cellulare); hanno tutte proprietà antiinfiammatorie che contrastano l’azione del cancro e delle malattie metaboliche che possono essere provocate dall’alterazione della normale flora batterica intestinale.

 

Le radiazioni cosmiche pericolose per la missione su Marte

Immagine
Le radiazioni cosmiche pericolose per la missione su Marte

La missione Marte si tradurrà in un’esposizione inevitabile alle radiazioni cosmiche che hanno dimostrato di causare disturbi cognitivi in modelli di roditori, e possibilmente lo stesso provocheranno in astronauti impegnati in viaggi nello spazio profondo.  Di particolare interesse è il rischio di esposizione alle radiazioni cosmiche, che sono tali da compromettere il processo decisionale critico durante le normali operazioni o in condizioni di emergenza nello spazio profondo.                                                I roditori esposti a radiazioni cosmiche mostrano disturbi persistenti dell’ippocampo e diminuzioni di prestazioni corticali, basali, utilizzando sei compiti, comportamentali indipendenti, somministrati tra coorti separate, sino a 12 e 24 settimane dopo l’irradiazione.Le menomazioni indotte da radiazioni spaziali influiscono sulla memoria episodica e il riconoscimento temporalmente coincidente con deficit nella funzione esecutiva e aliquote ridotte di paura di estinzione e ansia elevata.                           L’irradiazione ha causato una rilevante riduzione della complessità dendritica, densità delle spine e alterata la morfologia della colonna vertebrale lungo la zona prefrontale mediale, quindi dei neuroni corticali noti per mediare la neurotrasmissione, una volta interrogati dai nostri compiti comportamentali.

Le aree cognitive del cervello

Le aree cognitive del cervello

La radiazione cosmica ha anche perturbato l’integrità sinaptica e determinato una maggiore neuro infiammazione che persisteva più di 6 mesi, dopo l’esposizione. I deficit comportamentali per i singoli animali sono correlati, in modo significativo, alla ridotta densità delle spine e una maggiore punta sinaptica, fornendo misure quantitative di rischio per lo sviluppo del decadimento cognitivo. Questi dati forniscono altre prove che i viaggi nello spazio profondo rappresentano una vera e unica minaccia per l’integrità dei circuiti neurali nel cervello.

L’esplorazione dello spazio presenta innumerevoli sfide per l’ingegnosità del genere umano. Sono distanze vaste quelle che separano il nostro pianeta da quelli all’interno e al di là del nostro sistema solare e vi è la necessità di altri progressi in ingegneria, per ridurre al minimo il tempo di viaggi nello spazio profondo, che possono influire nella biologia degli astronauti, tutta tesa a migliorare il maggior numero di effetti negativi possibili, a seguito di un prolungato viaggio spaziale. Mentre molte minacce per il successo di tali missioni extraterrestri sono state popolari nelle industrie dei media e dell’intrattenimento, un settore che non ha ricevuto tanta attenzione è quello chiamato a valutare i rischi per la salute umana, connessi con l’esposizione alle radiazioni cosmiche.                                                                                                                                   La NASA prevede che per una missione su Marte, gli astronauti saranno inevitabilmente esposti a bassi flussi di nuclei altamente energetici e completamente ionizzati che definiscono lo spettro dei raggi cosmici galattici (GCR) 1,2,3. Le particelle cariche che rappresentano il GCR sono una componente della radiazione cosmica, deviata dalla superficie della Terra, solo grazie alla sua magnetosfera

La magnetosfera terrestre

La magnetosfera terrestre

protettiva. A causa della loro alta energia, più specie di particelle cariche possono penetrare lo scafo di una nave spaziale e nei tessuti del corpo, depositando una scia di ionizzazioni dense lungo le traiettorie di queste particelle. Nel corpo, gli eventi di ionizzazione risultanti da queste interazioni danneggiano vari bersagli molecolari critici, producendo lesioni complesse che compromettono i processi di riparazione cellulare e protraggono il recupero dei tessuti irradiati. Il recupero da un infortunio da radiazione cosmica è ulteriormente condizionato da ionizzazioni secondarie, causate dai raggi delta che sono emanate dalle tracce delle particelle elementari, aumentando considerevolmente la gamma e la quantità di danno cellulare, sino a livello 4,5.

La NASA e le agenzie spaziali internazionali hanno riconosciuto i potenziali problemi di salute associati con esposizione a livello 6 di radiazione cosmica, e sulla base di recenti evidenze derivate da modelli su roditori, si ha oggi una maggiore consapevolezza delle potenziali complicazioni neuro cognitive che possono compromettere le attività critiche della missione o a lungo termine, la salute cognitiva. Nonostante la nostra lunga conoscenza che i pazienti sottoposti a radioterapia cranica per il controllo dei tumori cerebrali sviluppano una grave e progressiva deficienza cognitiva, le dosi totali e tipi di radiazioni utilizzati in clinica differiscono notevolmente da quelli incontrate nello spazio.                                                                             Prove convincenti ora hanno dimostrato gli effetti negativi delle influenze spaziali rilevanti di particelle cariche in cognizioni segnalate come 7,10,11,12,13,14,15, e questi studi, hanno collegato diminuzioni comportamentali funzionali, dovuti all’erosione della struttura neuronale e dell’integrità sinaptica in regioni specifiche del cervello.      È importante sottolineare che questi cambiamenti sono stati trovati a persistere 6 settimane dopo l’esposizione acuta dei roditori a particelle cariche, e ha mostrato poco o nessun segnale di ripresa, la rigenerazione o la riparazione.                                        Estendendo questi studi a più lungo termine si dimostra in modo convincente che dosi molto basse di particelle cariche possono compromettere le prestazioni cognitive non solo per 12, ma sino a 24 settimane dopo l’esposizione acuta, effetti che sono associati alla riduzione delle complessità dendritiche, cambiamenti nei livelli di proteine sinaptiche e l’innalzamento della neuro infiammazione.

I buchi neri supermassicci

Standard

I punti blu in un campo di galassie, conosciuto come il campo COSMOS, mostrano galassie che contengono buchi neri supermassicci

Si trova nella nostra Via Lattea

Si trova nella nostra Via Lattea

che emettono raggi X ad alta energia. I buchi neri sono stati rilevati dall’analisi spettroscopica nucleare Array della NASA, o NUSTAR, che ha individuato 32 buchi neri di questo genere, in questo campo e ne ha finora osservati centinaia su tutto il cielo.

I buchi neri sono tra gli oggetti più affascinanti dell’universo. Probabilmente la maggior parte ne sanno qualcosa, forse tramite solo la lettura di alcune speculazioni pseudo-scientifiche.

Tuttavia, nonostante la loro popolarità, la nostra conoscenza di questi mostri dell’universo è limitata. Sappiamo che “normali” buchi neri (anche se nulla è normale sui buchi neri), hanno masse di un paio di decine di volte la massa del Sole e, si formano quando grandi stelle muoiono ed esplodono come supernove. Tuttavia, non vi è più di un tipo di buco nero. Nei centri di maggior galassiecampo-di-galassie, vi è un “mostro tra i mostri.” Questo è quello che gli astronomi chiamano un buco nero supermassiccio (SMBH), e possono pesare da milioni a miliardi di masse solari. Nonostante che quasi tutte le galassie di dimensioni normali nell’Universo ospitano un SMBH nei loro centri (anche la nostra Via Lattea!), gli astronomi non sanno quando e come si sono formati.

 

Quando gli SMBHs crescono per l’accrescimento causato dalla presenza di gas nelle loro vicinanze, enormi quantità di radiazioni sono emesse, e gli astronomi chiamano questi oggetti “nuclei galattici attivi (AGN)”. I raggi X, in particolare, sono molto sensibili a questo processo e possono essere utilizzati per identificare questi mostri crescenti.

La Chandra raggi X è stato utilizzata da oltre 15 anni o giù di lì per osservare una piccola area del cielo con le dimensioni di circa due terzi della Luna piena. Questo progetto si chiama Chandra Deep Field-Sud (CDF-S). Il tempo totale di esposizione in questo campo è di circa 7 milioni di secondi (più di due mesi!),rendendo la patch di cielo coperto dai dati a raggi X più sensibili esistenti. Eppure, questo non è sufficiente per individuare e studiare l’AGN più pallida.

 

Gli altri punti colorati sono galassie che ospitano buchi neri che emettono raggi X a bassa energia, e sono stati avvistati dal Chandra X- ray Observatory della NASA. I dati di Chandra mostrano i raggi X con energie tra 0,5 e 7 kiloelettronvolt, mentre i raggi X secondo i dati di NUSTARil-telescopio-nustar mostrano tra 8-24 kiloelettronvolt.

NUSTAR è una piccola missione Explorer guidato da Caltech e gestito da JPL per Science Mission Directorate della NASA a Washington.                                     NUSTAR è stato sviluppata in collaborazione con l’Università tecnica danese e l’Agenzia Spaziale Italiana (ASI). Il veicolo spaziale è stato costruito da Orbital Sciences Corp., Dulles, Virginia.                                                                                                               Il centro operativo della missione di NUSTAR è all’Università di Berkeley, e l’archivio dati ufficiali è l’Astrophysics Science Archive Research Center ad alta energia della NASA.     ASI fornisce stazione di terra della missione e un archivio specchio. JPL è gestito da Caltech per la NASA.

 

Come controllare i batteri ingegnerizzati

Standard

Scienziati hanno sviluppato “switch di uccisione” per controllare al meglio i  cosiddetti batteri “ingegnerizzati”

 

Interruttori nei batteri ingegnerizzatiPer evitare che i batteri geneticamente modificati , fuoriescano nell’ambiente circostante,  i ricercatori del MIT hanno sviluppato garanzie, sotto forma di due cosiddetti “kill switch”, che loro chiamano rispettivamente “Deadman” e “codice di accesso”. Questi “kill switch” possono causare la morte dei batteri sintetici per la mancata presenza di alcune sostanze chimiche.

Molti gruppi di ricerca stanno sviluppando batteri geneticamente modificati che potrebbero un giorno viaggiare in giro per le parti del corpo umano, operando la diagnosi e anche il trattamento delle infezioni. Gli insetti potrebbero essere utilizzati anche per monitorare le tossine nei fiumi o per migliorare la concimazione.

Tuttavia, prima che tali batteri possono essere lasciati tranquillamente a diffondersi, gli scienziati stanno lavorando per trovare un modo che impedisca loro di fuggire in un ambiente più ampio, dove potrebbero accrescersi  e causare danni.

A tal fine, i ricercatori del MIT, il Broad Institute del MIT e di Harvard, e l’Istituto Wyss della Harvard University hanno sviluppato “garanzie” sotto forma di due cosiddetti “kill switch“, che causano la morte  dei batteri sintetici, senza la presenza di alcune sostanze chimiche. I ricercatori hanno descritto due “interruttori di uccisione”, che chiamano “Deadman” e “codice di accesso.”

Circuiti indipendenti

Ci sono stati un certo numero di tentativi per sviluppare switch atti ad uccidere i batteri ingegnerizzati, lo scorso anno, secondo James Collins,  professore di Ingegneria Medica e Scienza del Dipartimento del MIT di ingegneria biologica e l’Istituto di Ingegneria Medica e della Scienza (IMES), che ha guidato la ricerca .Includono gli sforzi per riprogrammare l’intero genoma dell’organismo e garantire che richieda la presenza di certi amminoacidi o di altri prodotti chimici per sopravvivere, dividersi, e accrescersi.

“Questo approccio, -dice Collins – può essere sia un lavoro di laboratorio o ad alta intensità di risorse, in quanto introdurrebbe cambiamenti che potrebbero rendere l’organismo meno utile come controllo o come strumento diagnostico.Nel nostro caso, stiamo introducendo circuiti indipendenti –ha proseguito -che possono essere saltati in qualsiasi numero di organismi diversi, senza dover ricollegare o cambiare molto del genoma, in modo che esso possa ospitare l’interruttore di uccisione.L’interruttore Deadman , per esempio, è parte di un ceppo batterico , – ha spiegato Collins – che abbisogna di un fattore chimico esterno per evitare che la  tossina espressa, continui ad uccidere la cellula. L’interruttore è stato chiamato in questo modo, facendo riferimento ai cosiddetti freni Deadman sui vecchi treni, che richiedevano un conduttore in costante contatto con la maniglia  o il  pedale in modo che il veicolo si muovesse in avanti.

Il sistema, che si basa sul precedente lavoro, nel laboratorio di Collins, è costituito da un interruttore genetico ” Toggle ” , formato da due geni dei fattori di trascrizione.Lo switch può variare tra due stati, in cui uno dei due geni dei fattori di trascrizione è attivato. Sono stati alterati l’espressione di questi due fattori di trascrizione, portando a forte espressione un gene e  a debole espressione l’altro.

“La presenza di una piccola molecola , -ha spiegato Collins – mantiene l’interruttore nel suo stato debole, ma appena questo viene rimosso, l’interruttore ritorna al suo stato forte. L’interruttore è programmato per esprimere diverse tossine appena arriva a questo stato forte ‘attivato ‘.Se il sistema viene capovolto, rimuovendo la piccola molecola, si esprimono tossine ad un livello molto alto che potrebbero poi molto rapidamente e facilmente uccidere il germe”.

 La porta logica cellulare

L’interruttore Passcode , invece, agisce come una porta logica in quanto richiede una specifica combinazione di diversi fattori chimici, per consentire ai batteri geneticamente modificati di sopravvivere e proliferare.L’interruttore è costituito da un insieme di fattori di trascrizione modulari che contengono domini separati per rivelare piccole molecole – i cosiddetti ingressi – e per regolare l’espressione genica. Mescolando e rendendo congruenti, questi domini funzionali, sono stati costruiti fattori di trascrizione ibridi in cui i diversi ingressi di molecole di piccole dimensioni sono legati al controllo di un promotore specifico per l’espressione genica.Se i fattori di trascrizione  rilevano la giusta combinazione di piccole molecole presenti nell’ambiente, i batteri sopravviveranno. Ma se la corretta combinazione di segnali di ingresso non è presente, l’interruttore uccide il microbo, secondo Clemente Chan, un ricercatore post-dottorato nel laboratorio di Collins.”Se uno degli ingressi richiesti non sono corretti, -dice Chan – allora il  microbo morirà”.Utilizzando diversi fattori di trascrizione, i ricercatori possono cambiare la combinazione-codice di accesso di piccole molecole necessarie per la sopravvivenza della cellula .” In questo modo ,- aggiunge Chan – gli switch possono essere facilmente modificati per soddisfare le esigenze delle diverse applicazioni. Si rende il nostro sistema di biocontenimento molto più flessibile, in modo da poter applicare il sistema di codice ad una gamma molto più ampia di applicazioni.Gli interruttori potrebbero essere utilizzati ,-aggiunge Chan – per proteggere la proprietà intellettuale di un’azienda. Immaginate di essere il proprietario di un certo microbo, e di non volere  che i potenziali concorrenti lo possano usare. Si potrebbe inserire , – spiega Chan – questo dispositivo in modo che solo le persone che conoscono il codice di accesso possano utilizzare il microbo “.

Anche se un concorrente in qualche modo è riuscito a entrare in possesso del codice di accesso, il ricercatore potrebbe semplicemente cambiarlo, utilizzando fattori diversi di trascrizione.

 Le possibili successive evoluzioni

Le nuove misure di salvaguardia offrono interessanti possibilità per ridimensionare switch che uccidono in due direzioni importanti, secondo Farren Isaacs , (Istituto Systems Biology dell’Università di Yale),  non coinvolto nella ricerca. “In primo luogo, -dice Isaacs – essi stabiliscono la possibilità di utilizzare switch  che uccidono tra le specie diverse. Hanno anche espanso , aggiunge Isaacs – gli interruttori codice di accesso per una grande combinazione di molecole di sintesi e fattori di trascrizione per molti set unici di ceppi che la cellula conteneva  e cocktail personalizzati di piccole molecole di sintesi”.

“Avendo testato con successo- spiega Collins –  due interruttori di uccisione di Escherichia coli, ora si spera di inserirli negli strumenti diagnostici o terapeutici viventi, progettati per colpire una varietà di infezioni batteriche”.

 

I ritardi nella costruzione della ISS russa

Immagine
I ritardi nella costruzione della ISS russa

Il primo di due veicoli spaziali fratelli – modulo di controllo Zarya FGB

Il modulo FGB

Il modulo FGB

– costruito nel ‘90 a Mosca nella base GKNPTs Khrunichev per un contratto con la società Boeing, finanziava un solo veicolo.

Khrunichev però utilizzando parti di ricambio e fondi propri costruì un modulo di backup, nel caso in cui il veicolo spaziale originale venisse distrutto o reso inutilizzabile da un incidente di lancio. L’originale Zarya FGB-1 ha attraccato con successo al modulo di servizio Zvezda

Il modulo di servizio Zvedza

Il modulo di servizio Zvedza

nel luglio 2000, mentre il suo modulo di backup era pronto circa al 65 %, secondo GKNPTs Khrunichev. A quel punto, si pensa a diversi potenziali nuovi ruoli per il veicolo spaziale che rimane nel programma ISS, tra cui l’uso come nave di approvvigionamento pesante per il segmento russo della stazione. A metà del 2000, la Boeing annunciava una partnership con Khrunichev per “commercializzare” l’FGB-2.

La squadra Khrunichev / Boeing va in rotta di collisione con RKK Energia e Spacehab, perchè a fine del 1999 sostenevano di volere utilizzare, la stessa porta-docking, cioè di attracco sulla ISS, per il loro modulo commerciale Enterprise. Alla fine, nessuno dei due progetti si materializzava.

Nuovo impiego per FGB-2                                                                                                                                                                        Nel 2001, tentando di risparmiare denaro sullo sviluppo, in fase di stallo, del segmento russo della Stazione Spaziale Internazionale, GKNPTs Khrunichev proponeva di utilizzare il veicolo spaziale FGB-2 come base per il modulo di aggancio universale, USM.

L’USM servirebbe come hub per un massimo di tre moduli di ricerca russi; tuttavia, il lavoro su tutti i moduli USM, s’interrompe per mancanza di fondi. Si voleva usare la FGB-2 come modulo di aggancio universale, ma il lavoro necessario per modificare il modulo per quest’attività non avrebbe giustificato lo sforzo. Il vano trasferimento FGB-2 doveva essere riposizionato e dotato di tre porte di aggancio supplementari, idonee a ricevere moduli scientifici futuri. Nel 2001, al Khrunichev si sosteneva che per la situazione finanziaria, la Russia non aveva alcuna possibilità di costruire uno qualsiasi dei suoi moduli scientifici, durante la vita della stazione spaziale. Per Khrunichev, era sufficiente aggiungere una singola porta di aggancio alla FGB-2 perchè servisse come modulo di aggancio universale. Nell’agosto 2001, Khrunichev e RKK Energia – approvano l’uso della FGB-2 come modulo di aggancio universale. Il modulo FGB-2 attraccherebbe al porto di aggancio rivolto verso la Terra (Nadir) sul modulo di servizio Zvezda, la stessa porta prevista per l’attracco del modulo UDM . Tale configurazione potrebbe lasciare il porto “Nadir” sul modulo Zarya per l’utilizzo del modulo Enterprise  della RKK Energia .In aggiunta alla nuova porta-docking, pannelli solari della FGB-2 e, una serie di altri sistemi da modificare, potevano consentire l’uso della sonda come sostituzione dell’UDM. Per il gruppo Khrunichev la FGB-2 poteva essere lanciata entro due anni e il lancio del modulo verso l’ISS era programmato per il 2007.

Il modulo laboratorio multifunzionale, MLM

Nel 2006, RKK Energia e l’agenzia spaziale russa, Roskosmos, firmano un contratto per lo sviluppo del modulo di Laboratorio Multipurpose, MLM. Nella nuova configurazione, il modulo MLM doveva ospitare sistemi di servizio per il segmento russo della ISS e utili carichi scientifici. Il manipolatore ERA di costruzione europea e il computer multifunzione DMS-R da installare a bordo. Una camera di compensazione automatizzata speciale, sposterebbe carichi dall’interno della stazione al vuoto dello spazio, installata sulla parte inferiore di MLM. Da lanciare nello spazio col razzo Proton  e, nel modulo, otto metri cubi sarebbero disponibili per la memorizzazione carica e lo stesso volume consentirebbe, sul lato sinistro, l’installazione dei payload scientifici. Il modulo disporrebbe di 12 postazioni di lavoro per vari strumenti ed esperimenti, con incubatori speciali e pedane vibranti protette per la ricerca sensibile di materiale-scientifico, disponibili. Nell’ MLM, il compartimento-1 del porto, la porta-docking

Una porta docking

Una porta docking

del modulo di servizio Zvezda , doveva essere scartato e diretto, in seguito, verso l’atmosfera terrestre a bruciare. L’ MLM avrebbe utilizzato propri motori per incontrarsi con la stazione e agganciarsi alla porta Nadir, liberata su Zvezda. Dopo l’arrivo di MLM alla stazione, il cosiddetto modulo Nodo sarebbe stato agganciato alla estremità esterna del MLM. Nel programma NASA sino ad ottobre 2009, la missione era per il lancio nel dicembre 2011. Vladimir Nesterov, direttore generale della GKNPTs Khrunichev, ,nell’agosto 2011 dice che un prototipo del modulo MLM progettato per test elettrici sarebbe stato presto consegnato a RKK Energia , nonostante problemi tecnici connessi ai cambiamenti nella documentazione di progettazione del modulo. Nel 2012, il lancio slitta ulteriormente al 2014. Alla fine agosto 2012, GKNPTs Khrunichev completa l’installazione del braccio robotico SER e le linee di bordo, sul modulo MLM. La società annuncia l’installazione il 3 settembre del controllo termico, l’idraulica e dei sistemi pneumatici testati con i pannelli solari. Il 21 settembre, GKNPTs Khrunichev completa il montaggio della sezione payload per la missione MLM, compreso il modulo stesso, la sua carenatura protettiva e un anello adattatore progettato per servire da interfaccia tra la sonda ed il veicolo di lancio Proton.

il razzo Proton

il razzo Proton

GKNPTs Khrunichev, poi, comunica che una versione completamente assemblata per il volo del modulo sarebbe stata spedita alla RKK Energia per ulteriori test elettrici. Solo dal 7 dicembre al 14 dicembre, un team congiunto di specialisti di GKNPTs Khrunichev e RKK Energia scaricano il modulo dal vagone ferroviario e l’installano presso il sito di trasformazione, nella sala principale di RKK Energia e, avviano i test di costruzione, KIS. Secondo RKK Energia, Il lavoro include prove autonome e integrate del modulo, comprese prove congiunte con gli equivalenti di terra di altri moduli della ISS russi come Progress e le navi da trasporto Soyuz . Il modulo MLM è battezzato Nauka termine russo per indicare “la scienza, ma non poteva decollare prima del 2014 .

Ritardi del modulo MLM                                                                                                                                                                               Nel 2013, il lancio del modulo MLM viene riprogrammato più volte. Nel frattempo, i test su MLM a RKK Energia, rivelavano problemi nella valvola di alimentazione nel sistema di propulsione del veicolo spaziale. Ulteriori controlli su MLM a RKK Energia trovano contaminazioni all’interno del sistema di propulsione. Si restituisce poi MLM al GKNPTs Khrunichev per le riparazioni.  Secondo gli ultimi piani il lancio del modulo MLM sarebbe dovuto avvenire nel settembre 2015. L’Agenzia Spaziale Europea, ESA, responsabile per il braccio meccanico SER a bordo del modulo MLM intima di mettere fine a tutti i ritardi e di superare le difficolta dei costi.  A gennaio 2014, Vitaly Lopota capo della RKK Energia dice che il modulo MLM era stato restituito al GKNPTs Khrunichev il 31 dicembre del 2013. MLM da GKNPTs Khrunichev viene spedito direttamente al sito di lancio, lasciando RKK Energia a condurre tutti i test finali del veicolo spaziale da Baikonur, invece che nel suo impianto di prova a Korolev. Occupando una posizione centrale nell’architettura del segmento russo , i problemi dell’ MLM saranno da stallo per il lancio di tutti i successivi componenti russi della stazione, compreso il modulo Nodo , UM, (già in costruzione) e il modulo NEM laboratorio e di alimentazione ,

Il modulo NM

Il modulo NM

iniziato a sviluppare nel 2012. Questo ritardo, combinato al peggioramento delle relazioni politiche tra la Russia e i suoi partner del progetto ISS, significa per il modulo MLM e le componenti successive del segmento russo potrebbero essere messi a terra ,fino a quando, si avvierà il montaggio della nuova stazione tutta russa, nell’era post-ISS. Il veicolo spaziale potrebbe essere un hub in anticipo per il futuro avamposto orbitale.

2015: qualche certezza.

A novembre 2014, viene indicato il lancio del modulo MLM alla ISS nel primo trimestre del 2017. Nell’ aprile 2015 il lancio slitta a metà del 2017. Da quel momento, il programma spaziale russo riacquistava nuova attenzione, dopo diversi mesi di incertezza.

2016: nuovo ritardo per il modulo MLM.

Nel 2016, il lancio del modulo MLM scivola di nuovo a dicembre 2017.  RKK Energia, a giugno, informa di aver completato la produzione e collaudo di apparecchiature non identificate per l’interno del modulo. Al contempo, dichiara anche lo sviluppo della documentazione e l’installazione di grandi pezzi di hardware sulla parte esterna del veicolo spaziale . Il modulo identificato come MLM-U, dove “U” stava per “usovershenstvovanny” o “aggiornato” ma con “aggiornamenti” mai dettagliati: la nuova denominazione è un espediente per spiegare infiniti ritardi e il bilancio con una spesa montante del progetto. Denota aggiornamenti ancora da identificare per adattare il modulo per il funzionamento come parte della futura stazione spaziale russa . Nel 2015, Roskosmos  continua a valutare vari regimi di separazione dell’

MLM insieme all’ UM e NEM-1, moduli della ISS che al termine del suo funzionamento, formeranno il nuovo avamposto in bassa orbita terrestre.

 

C’è un forte dissidio sul fronte dei cambiamenti climatici

Standard

 

Il modello climatico attuale suggerisce un  possibile collasso di circolazione dell’Atlantico . Il modello di circolazione primaria in Atlantico si presume debba essere stabile, per le valutazioni espresse dalla maggior parte degli scienziati, ma una nuova simulazione suggerisce un collasso che potrebbe accadere se i gas serra atmosferici continueranno ad aumentare.

Lo scenario di raffreddamento dell’oceano Atlantico del Nord dopo il collasso di Atlantico Meridionale viene contraddistinto da una circolazione rovesciata

Robert Monroe

L’idea del cambiamento climatico sta causando un importante modello di circolazione oceanica nell’Atlantico che sarà al collasso con effetti catastrofici è stata oggetto di thriller apocalittici nei film, ma in previsioni climatiche, è per lo più considerato come una situazione estrema. Ora un nuovo documento basato sull’analisi fatto da un gruppo di centri di ricerca, tra cui Scripps Institution of Oceanography (Università della California di San Diego) dimostra che i modelli climatici possono essere drastici nel sottovalutare questa possibilità. Nella maggior parte dei modelli climatici si esagera sulla stabilità del modello, chiamato circolazione atlantica rovesciata sui meridiani (AMOC), rispetto alle moderne osservazioni climatiche. I ricercatori sono stati spinti a prevedere un collasso della circolazione ad un certo punto, in futuro, a partire dal raffreddamento su larga scala nel nord Atlantico. Il crollo avrebbe fermato l’AMOC, che fornisce acqua di superficie calda verso la Groenlandia e poi affonda quando si raffredda e rifluisce verso l’equatore più vicino al fondo marino. Wei Liu, un ex ricercatore post-dottorato Scripps ora alla Yale University, e il modellatore clima dello Scripps Shang-Ping Xie, e colleghi hanno dettagliato i loro risultati nella carta come “possibilità trascurata di una circolazione atlantica Meridional Overturning, crollata a seguito del riscaldamento climatico”. “Il significato di questo studio, -ha detto Wei- è quello di indicare un errore sistematico nei modelli climatici attuali che ostacolano una proiezione climatica corretta”. ”                                                                                Un modello di polarizzazione corretta mette l’ AMOC in regime di realistica stabilità e predice un futuro crollo AMOC con raffreddamento sopra il nord Atlantico settentrionale e zone limitrofe. Pertanto, questo studio ha enormi implicazioni per il cambiamento climatico regionale e globale.            “Nell’affrontare il futuro cambiamento AMOC, la carta esplora una questione su cui non vi è dibattito in corso all’interno della comunità scientifica che studia il clima. Il gruppo intergovernativo di esperti sui cambiamenti climatici (IPCC) emette, un-rift-nella-isola-glaciale-pine_antarticodei rapporti periodici che sintetizzano l’ultima ricerca sui cambiamenti climatici. Il pannello ha assunto nei suoi due rapporti più recenti che l’AMOC è fondamentalmente stabile e non crollerà, anche se potrebbe indebolirsi moderatamente come i cambiamenti climatici. L’esistenza di tale pregiudizio, però, è ampiamente riconosciuta dai ricercatori del clima e sottolineata da recenti osservazioni. Alcuni modelli climatici hanno proposto che è possibile che il modello di circolazione sia incline al collasso, in grado di commutare tra stati di equilibri multipli. Il documento utilizza il raddoppio della concentrazione di anidride carbonica atmosferica come un semplice scenario di cambiamento climatico, e quindi potrebbe condizionare l’assunzione di stabilità per l’AMOC. La simulazione dei ricercatori ha mostrato che la circolazione crolla 300 anni dopo che la concentrazione CO2 raddoppia il suo livello del 1990 di circa 355 parti per milione (ppm) in aria. L’effetto del crollo del modello include un raffreddamento dell’Oceano Atlantico settentrionale e uno spread di ghiaccio marino artico. Le temperature superficiali dell’Oceano Atlantico del Nord scendono a 2,4 ° C e temperatura dell’aria di superficie su nord-ovest Europa, fa registrare un calo di ben 7 ° C . Le cinture di pioggia tropicale nell’oceano Atlantico si spostano più verso sud. La National Science Foundation, il Dipartimento di Energia, e il Ministero della Scienza e della Tecnologia della Repubblica Popolare Cinese hanno finanziato questa ricerca. Oltre a Liu e Xie, co-autori sono Zhengyu Liu e Jiang Zhu (University of Wisconsin_Madison).”E ‘un’idea molto provocatoria,- ha detto Liu Zhengyu- e per me, si tratta di una svolta di 180 gradi, perché avevo pensato come tutti gli altri.”

 

 

Missione Osiris Rex sull’asteroide Bennu

Standard
Missione Osiris Rex sull’asteroide Bennu

L’approccio di OSIRIS Rex inizierà quando Bennu sarà solo un punto di luce a più di 2 milioni di km di distanza dal veicolo spaziale, nell’agosto del 2018.

OSIRIS-Rex si avvicinerà all’asteroide, usando una serie di piccoli razzi per abbinarsi alla velocità di Bennu nella sua orbita attorno al Sole.

L’appuntamento richiederà che OSIRIS-Rex debba raggiungere l’asteroide nello stesso luogo insieme e, allo stesso tempo aspettando che arrivi in quella posizione. Si deve anche muovere alla stessa velocità e nella stessa direzione dell’asteroide.

La finestra per la partenza su Bennu sarà avviata nel marzo del 2021. In quel momento OSIRIS-Rex accenderà i motori principali e si lancerà verso Bennu con una velocità di 0,32 km / s . Queste combustioni metteranno OSIRIS-Rex su una traiettoria che interseca l’orbita della Terra, nel settembre 2023.

L’asteroide Bennu sta viaggiando intorno al Sole e per raggiungerlo, OSIRIS-Rex eseguirà una serie di manovre di frenata, rallentando per 0,53 km / s , con una conseguente velocità di avvicinamento relativa di 20 cm / s .

Il concetto di risolvere traiettorie a bassa spinta analiticamente sarà esplorato attraverso la missione semplificata dalla Terra alla Near-Earth Asteroid Bennu. Bennu è l’obiettivo della prossima missione OSIRIS-Rex ed è stato identificato come l’oggetto del terzo più rischioso per la Terra-impatto nei prossimi duecento anni. Ha un semiasse maggiore pari a ~ 1,12 AU, che lo rende ideale per un trasferimento dalla Terra con un piccolo rapporto di orbita

Durante l’incontro con l’asteroide, OSIRIS-Rex osiris-rexsarà la navicella in grado di volare con Bennu. Il primo tentativo di sondaggio dell’asteroide inizierà a ottobre del 2018 e durerà un anno. Comprenderà quattro fasi principali:

* l’indagine preliminare cercherà pennacchi di asteroidi e satelliti naturali, e misurerà anche l’accelerazione Yarkovsky o di rotazione di Bennu.

* un orbita attorno a Bennu consentirà di testare la fuga Dynamics per la squadra di controllo, di modo che si possa transitare dalla navigazione basata-sulla stella, alla navigazione con punti di riferimento basati sull’utilizzo delle immagini di superficie di Bennu.

* in dettagliata indagine, più strumenti lavoreranno insieme per mappare Bennu e determinare le sue proprietà spettrali globali, termiche e geologiche.

* l’orbita su Bennu continua a mapparlo a risoluzioni più elevate, con un focus su siti candidati a essere campionati. Alla fine dell’orbita, sarà selezionato un sito di esempio.

A luglio del 2020, una volta selezionato il sito di esempio, OSIRIS-Rex si sposterà per raccogliere un campione di materiale di superficie, su Bennu. La variazione totale di velocità sarà poco più di 20 cm/s : è una variazione minuscola rispetto alle grandi manovre necessarie per arrivare e partire dalle vicinanze dell’asteroide. L’incontro culminerà nella manovra “touch-and-go” alla velocità di 10 cm/s per raccogliere il campione.le-traiettorie-di-osiris-rex-per-bennu

Avvicinando la superficie di Bennu per un totale di cinque secondi, lo strumento meglio noto come TAGSAM tagsam-su-osiris-rexrilascerà una raffica di azoto, causando la formazione di rocce sciolte e di materiale superficiale da innalzare e dirigere verso un collettore nella testa della sonda. OSIRIS-Rex otterrà almeno 60 grammi e fino a 2 chilogrammi di campione. Se necessario, il veicolo spaziale sarà in grado di eseguire fino a tre tentativi di campionamento.

La SRC,nella manovra di rientra sulla Terra, colpirà la parte superiore dell’atmosfera con una velocità di 12,4 km / s e lo scudo termico rimuoverà oltre il 99% dell’energia cinetica iniziale.

Dopo l’entrata con la SRC libererà in caduta fino a raggiungere un’altezza di 33,5 km, allorquando il paracadute frenante distribuirà l’energia di caduta. A 3 km, il paracadute principale sarà rilasciato, portando la capsula a un atterraggio morbido nel deserto dell’Utah il 24 settembre 2023, per la naturale conclusione di un viaggio di sette anni per campionare Bennu e ritornare sulla Terra.

Il materiale campionato sarà analizzato fino al livello atomico per determinare la composizione chimica dell’asteroide. Gli scienziati addetti al campionamento cercheranno composti organici come gli amminoacidi e zuccheri, i cosiddetti “mattoni” determinanti per l’origine della vita.

Piccole particelle per una megascienza

Standard
Piccole particelle per una megascienza

Un progetto internazionale di mega-scienza

L’esperimento in profondità sul neutrino (Dune) è un esperimento internazionale per gli studi scientifici e sul decadimento del protone a neutrino. Scoperte nel corso dell’ultimo mezzo secolo hanno messo i neutrini, le particelle di materia più abbondante nell’universo, sotto i riflettori per ulteriori ricerche in diverse domande fondamentali sulla natura della materia e l’evoluzione dell’universo – domande sulle quali DUNE cercherà di rispondere.  DUNE si avvarrà di due rivelatori di neutrini collocati in un fascio di neutrini più intenso del mondo. Un rilevatore registrerà le interazioni delle particelle nei pressi della sorgente del fascio, al Fermi National Accelerator Laboratory di Batavia, Illinois. Un secondo rilevatore, molto più grande, sarà installato a più di un chilometro, sotterraneo, presso il Laboratorio di Ricerca della metropolitana Sanford il2brivelatore2bad2bargon2bliquido2bitaliano2bicarusa Lead, Dakota del Sud – cioè 1.300 chilometri più a valle della sorgente. Questi rivelatori permetteranno agli scienziati impegnati nella ricerca di nuovi fenomeni subatomici e potenzialmente a trasformare la nostra comprensione dei neutrini e il loro ruolo nell’Universo. Il lungo strumento Baseline Neutrino fornirà la linea di luce al neutrino e all’infrastruttura che supporterà i rivelatori DUNE.

Puntando alle scoperte innovative

Origine della materia.                                                                                                                      Potrebbero essere i neutrini, la ragione che l’universo è fatto di materia piuttosto che d’antimateria? Esplorando il fenomeno delle oscillazioni dei neutrini, DUNE cercherà di rivoluzionare la nostra comprensione dei neutrini e il loro ruolo nell’universo.                          Unificazione delle forze.                                                                                                                           Con il più grande rivelatore criogenico di particelle del mondo situato in profondità nel sottosuolo, DUNE può cercare anche i segni di decadimento del protone. Ciò potrebbe rivelare una relazione tra la stabilità della materia e la grande unificazione delle forze. Insomma ci si muove più vicino a realizzare il sogno di Einstein.                                                      Formazione di black hole (buco nero).                                                                                                        L’osservazione di DUNE di migliaia di neutrini originati dal crollo del nucleo di una supernova nella Via Lattea ci permetterebbe di scrutare all’interno di una stella di neutroni di nuova costituzione e, potenzialmente, assisteremo alla nascita di un buco nero.

Come funziona l’esperimento?                                                                                                                           Il progetto DUNE, acronimo per Deep Underground Neutrino Experiment, coprirà circa 1300 km sottoterra, dal Fermilab fuori Chicago fino alla Sanford Underground Research Facility, che si trova in una miniera sotterranea abbandonata del South Dakota. Lo scopo di DUNE è l’osservazione dell’elusivo neutrino, un elemento del modello standard della fisica che cambia costantemente forma, con massa minuscola e, grazie alla sua neutralità elettrica, interagisce a malapena con l’universo conosciuto (attraverso la forza debole).Potremmo trovarci sotto una cascata di neutrini senza saperlo.

E in un certo senso è così. È stato stimato che 65 miliardi di neutrini solari (neutrini originati all’interno del Sole) passano attraverso ogni centimetro quadrato della Terra rivolta verso il Sole. Diversamente dalla luce solare, che trasporta fotoni che interagiscono con i materiali nel nostro corpo per creare calore e luce, i neutrini non hanno niente a che fare con la luce e il calore, che riguardano la forza elettromagnetica. I neutrini passano attraverso le cose con assoluta noncuranza.

Questo fa sì che i neutrini siano molto difficili da osservare e molto complessi da capire. In effetti è impossibile osservare direttamente un neutrino (l’osservazione si basa sulle interazioni elettromagnetiche), quindi i fisici sono costretti ad affidarsi a lunghe distanze nella speranza di osservare indirettamente una delle particelle.

La teoria è che si verifichino rare interazioni tra neutrini, ma solo attraverso la forza debole, che è mediata attraverso particelle elementari conosciute come bosoni W e Z. Se uno di questi bosoni viene scambiato tra un neutrino e un elettrone il risultato dovrebbe essere il rilascio di una caratteristica radiazione chiamata radiazione Chrenkov. Utilizzando fotorilevatori super-sensibili, dovrebbe essere possibile osservare questo effetto, anche se con molta difficoltà.

Immagine: Fermilabaccelerator-complex-aerial-labled-512x288    La debolezza e la rarità di queste interazioni rendono necessaria la creazione di rilevatori di neutrini molto grandi e ben isolati dalla radiazione atmosferica e da raggi cosmici potenzialmente invadenti. Ecco perché gli esperimenti con i neutrini vengono svolti sotto terra; la struttura di Sanford si trova a circa 3 km di profondità. Quando sarà ultimato, DUNE avrà un rilevatore da molti chilotoni al centro di un lago di argon liquido. L’argon registrerà i neutrini in entrata creati a circa 1.300 km di distanza al Fermilab, e manderà le particelle in un denso raggio che contiene neutrini. A un certo punto questo raggio viaggerà a circa 28 km sotto la superficie del terreno.

Nel progetto ci sono due rilevatori: uno si trova al Fermilab, dove vengono prodotti i neutrini e il secondo si trova nella miniera in South Dakota. I motivi di un allestimento del genere sono vari, considerando che si ha a che fare con la strana capacità di oscillazione dei neutrini, o il cambiamento spontaneo in diversi tipi di neutrino, un processo che produce anche piccole variazioni nella massa, anche se la massa esatta dei neutrini è ancora una questione aperta, ed è proprio uno degli scopi di queste ricerche.

Con il progetto DUNE si spera di poter esplorare queste particelle, osservando come questi a 1.300 km di Terra attraversati dal raggio, abbiano impatto sulle oscillazioni delle diverse varietà di neutrino.

DUNE dovrebbe essere operativo entro il 2022 e adesso coinvolge 128 diverse istituzioni di 23 paesi diversi. L’esperimento è anche riuscito ad avere la benedizione (e i finanziamenti) del governo degli Stati Uniti.

“Questo sarà il più importante esperimento per la fisica delle particelle svolto in America,- ha detto a SymmetryKim Siegrist, direttore associato presso l’Office of Science del Department of Energy statunitense- è un momento importante per la scienza dei neutrini e per l’intera fisica delle particelle.”

 

 

Nuove molecole aiuto indispensabili per malattie autoimmuni e produzione di nuovi farmaci

Standard

Scoperte migliaia di nuovi segnali del sistema immunitario: hanno potenziali implicazioni per l’immunoterapia, malattie autoimmuni e lo sviluppo di vaccini.

La scoperta è l’equivalente biologico di scoprire un nuovo continente.

Le nostre cellule si rompono regolarmente per quelle proteine provenienti dai nostri corpi e da virus e batteri. Piccoli frammenti di queste proteine, chiamate epitopi, sono visualizzati sulla superficie delle cellule come bandierine, di modo che il sistema immunitario può eseguire la scansione. Se essi sono riconosciuti come stranieri, il sistema immunitario distrugge le cellule per prevenire la diffusione dell’infezione.

In un nuovo studio, si è scoperto che circa un terzo di tutti gli epitopi visualizzati per la scansione dal sistema immunitario, sono un tipo conosciuto come epitopi ‘giuntati’.                                                                                              Questi epitopi splicing sono stati pensati per essere rari, ma gli scienziati hanno ora identificato migliaia di loro attraverso lo sviluppo di un nuovo metodo che permette di mappare la superficie delle cellule e identificare una miriade di epitopi prima sconosciuti.

I risultati dovrebbero aiutare a comprendere meglio il sistema immunitario, le malattie autoimmuni, oltre a fornire nuovi potenziali bersagli per l’immunoterapia e la progettazione di vaccini.

La ricerca è stata guidata dal dott Juliane Liepe (Imperial College- Londra) e il dottor Michele Mishto (Charité – Universitätsmedizin Berlino), in collaborazione con l’Istituto per LaJolla Allergologia e Immunologia e Università di Utrech.

Il professor Michael Stumpf (Dipartimento di Scienze della Vita presso l’Imperial), ha detto: “E ‘come se un geografo vi dicesse della scoperta di un nuovo continente, o un astronomo dicesse di aver trovato un nuovo pianeta nel sistema solare. E con quelle scoperte, abbiamo parecchie esplorazioni da fare. Questo potrebbe portare non solo a una più profonda comprensione di come funziona il sistema immunitario, ma suggerisce anche nuove strade per terapie e farmaci e lo sviluppo di vaccini”.

Prima del nuovo studio, si era pensato che in una cellula si creasse una segnalazione di peptidi tagliando frammenti di proteine in sequenza, e la visualizzazione di questi in ordine sulla superficie della cellula. Tuttavia, questo meccanismo cellulare può anche creare peptidi “splicing” tagliando due frammenti da posizioni differenti nella proteina e poi attaccandoli insieme, fuori dall’uso normale, creando perciò una nuova sequenza.

Si conosceva già l’esistenza degli epitopi giuntati, ma si pensava che fossero rari. Il nuovo studio suggerisce che gli epitopi giuntati in realtà costituiscono una grande percentuale di epitopi di segnalazione: costituiscono circa un quarto del numero complessivo di epitopi, e rappresentano il 30-40 per cento della diversità – il numero di diversi tipi di epitopi.

Questi epitopi in più danno al sistema immunitario più indicazioni per eseguire la scansione e, più possibilità di individuare la malattia. Tuttavia, come gli epitopi splicing sono sequenze miste, hanno anche la possibilità di sovrapposizione con le sequenze di segnalatori sani ed essere erroneamente identificati come dannosi.

Questo potrebbe aiutare gli scienziati a capire le

giunzione di epitopi

Ciclo di formazione degli epitopi

, in cui il sistema immunitario si ritorce contro i normali tessuti del corpo, come ad esempio nel diabete di tipo 1 e la sclerosi multipla.

L’autore principale della ricerca, il dottor Juliane Liepe (Dipartimento di Scienze della vita presso l’Imperial), ha detto: “La scoperta dell’importanza di peptidi splicing potrebbe presentare vantaggi e svantaggi quando si ricerca sul sistema immunitario. Per esempio, la scoperta potrebbe influenzare nuove immunoterapie e vaccini, fornendo nuovi epitopi di destinazione per stimolare il sistema immunitario, ma significa anche che dobbiamo schermare molti più epitopi, durante la progettazione di una medicina personalizzata“.