Con Dune LBNF e Pip II alla ricerca della natura dei neutrini

Galleria

I rovers di Hayabusa atterrano sull’asteroide Ryugu

Standard

I rover di Hayabusa 2  salteranno sulla superficie – fino a 15 metri di altezza e resteranno in aria per 15 minuti

Un paio di rover robot

I luoghi prescelti per l’atterraggio su Ryugu

sono atterrati su un asteroide (Ryugu) e hanno iniziato un sondaggio, ha comunicato l’agenzia spaziale giapponese, e quindi sta conducendo una missione che mira a far luce sulle origini del sistema solare.

La missione dei due rovers segna la prima osservazione robotizzata al mondo di una superficie di un asteroide, secondo la Japan Aerospace Exploration Agency (JAXA).

I robot sono rotondi a forma di stagno ed hanno raggiunto con successo l’asteroide di Ryugu il giorno dopo essere stati rilasciati dalla sonda Hayabusa 2, ha sempre comunicato  l’agenzia JAXA.

“Ognuno dei rover  – viene precisato in una nota- funziona normalmente ed ha iniziato a sorvegliare la superficie di Ryugu”.

Sfruttando la bassa gravità degli asteroidi, i rover

                    I due rovers di Hayabusa2

salteranno sulla superficie – fino a 15 metri e resteranno nell’aria per 15 minuti – per esaminare le caratteristiche fisiche dell’asteroide.

“Sono così orgoglioso ,- ha detto il responsabile del progetto JAXA Yuichi Tsuda- che abbiamo stabilito un nuovo metodo di esplorazione dello spazio per piccoli corpi celesti”.

L’agenzia ha cercato, ma fallito nel 2005, di fare atterrare un rover su un altro asteroide dopo aver avviato una missione simile a quella su Ryugu.

Hayabusa 2 distribuirà il prossimo mese un “impattore” che esploderà sopra l’asteroide, sparando un oggetto di rame da due chili per far saltare un piccolo cratere sulla superficie.

Da questo cratere, la sonda raccoglierà materiali “freschi” non esposti a millenni di vento e radiazioni, sperando in risposte ad alcune domande fondamentali sulla vita e sull’universo, incluso al quesito fondamentale : se elementi dallo spazio hanno contribuito a dare origine alla vita sulla Terra.

La sonda rilascerà anche un veicolo di sbarco franco-tedesco denominato Mobile Asteroid Surface Scout (MASCOT) per l’osservazione della superficie.

Hayabusa 2, delle dimensioni di un grande frigorifero e dotato di pannelli solari, è il successore del primo esploratore di asteroidi di JAXA, Hayabusa –  che nella lingua giapponese, sta per falco.

Questa sonda è tornata da un asteroide più piccolo, a forma di patata, nel 2010 con campioni di polvere, nonostante varie battute d’arresto durante la sua epica missione della durata di sette anni ed è stata salutata come un trionfo scientifico.

La missione Hayabusa 2 è stata lanciata nel dicembre 2014 e tornerà sulla Terra con i suoi campioni solo nel 2020.

Transistor quantistico a singolo fotone per i computer quantici | Giuseppe Benanti

Immagine

 

Il transistor quantistico a semiconduttori, per il calcolo, oggi basato su fotoni 

I ricercatori dimostrano sul primo transistor a singolo fotone usando un chip semiconduttore: un singolo fotone, memorizzato in una memoria quantica, commuta lo stato di altri fotoni. I transistor minuscoli interruttori sono il fondamento del moderno computing: miliardi di loro trasmettono segnali elettrici all’interno di uno smartphone, ad esempio. I computer quantistici

Chip nei computer quantistici

abbisognano di hardware analogo per manipolare le informazioni quantistiche. I limiti di progettazione per questa nuova tecnologia sono rigorosi e i processori più avanzati di oggi non possono essere riutilizzati come dispositivi quantici. I vettori di informazioni quantistiche, soprannominati qubit, seguono regole diverse stabilite dalla fisica quantistica. Si possono usare molti tipi di particelle quantistiche come qubit, anche i fotoni che costituiscono la luce. I fotoniaggiungono appeal perché possono trasferire rapidamente le informazioni su lunghe distanze e sono compatibili con i chip fabbricati. Tuttavia, fare un transistor quantistico innescato dalla luce è difficile perché richiede che i fotoni interagiscano tra loro, qualcosa che normalmente non avviene spontaneamente. Al Joint Quantum Institute (JQI), Edo Waks dell’JQI, ha risolto questo ostacolo utilizzando il primo transistor a fotone singolo in un chip semiconduttore. E’ un dispositivo compatto: un milione di questi nuovi transistor può essere contenuto in un singolo granello di sale. È veloce, in grado di elaborare 10 miliardi di qubit fotonici ogni secondo. “Usando il nostro transistor, -afferma Waks– saremmo presto in grado di eseguire porte quantiche tra i fotoni”. Il software in esecuzione su un computer quantico userebbe una serie di tali operazioni per raggiungere una velocità esponenziale per alcuni problemi computazionali.Il chip fotonico

Un transistor fotonico

è costituito da un semiconduttore con numerosi fori, molto simile a un nido d’ape. La luce che entra nel chip rimbalza e rimane intrappolata dal “motivo” piazzato nel buco; un piccolo cristallo chiamato punto quantico si trova all’interno dell’area in cui l’intensità della luce è più forte. Analogamente alla memoria convenzionale del computer, il puntomemorizza le informazioni sui fotoni mentre entrano nel dispositivo. Il punto può attingere efficacemente a quella memoria per mediare le interazioni del fotone, quindi le azioni di un fotone influenzano gli altri che in seguito arrivano al chip. “In un transistor a singolo fotone -afferma Shuo Sun, ricercatore post-dottorato alla Stanford University- la memoria dei punti quantici deve persistere abbastanza a lungo da interagire con ogni qubit fotonico. Questo permette ad un singolo fotone di cambiare un flusso più grande di fotoni, essenziale per il nostro dispositivo che deve essere considerato un transistor.” Per verificare che il chip funzionasse come un transistor, è stato esaminato il modo in cui il dispositivo rispondeva a deboli impulsi di luce che di solito contenevano solo un fotone. In un ambiente normale, una luce così fioca potrebbe registrare a malapena. Tuttavia, in questo dispositivo, un singolo fotone rimane intrappolato per un lungo periodo, registrando la sua presenza nel punto vicinoUn singolo fotone poteva, interagendo con il punto, controllare la trasmissione di un secondo impulso luminoso attraverso il dispositivoIl primo impulso luminoso  dunque,agisce come una chiave, aprendo la porta per il secondo fotone per entrare nel chipSe il primo impulso non conteneva alcun fotone, il punto bloccava i successivi fotoni. Un comportamento simile a un transistor convenzionale in cui una piccola tensione controlla il passaggio della corrente attraverso i suoi terminali. I ricercatori hanno sostituito con successo la tensione con un singolo fotone e hanno dimostrato che il loro transistor quantico poteva commutare un impulso luminoso contenente circa 30 fotoni prima che la memoria del punto quantico si esaurisseWaks, professore presso il Dipartimento di Ingegneria Elettrica e Informatica dell’Università del Maryland, dice che il suo team ha dovuto testare diversi aspetti delle prestazioni del dispositivo prima di far funzionare il transistor. “Finora, avevamo i singoli componenti, -afferma Waks-, necessari per creare un transistor a singolo fotone, ma qui abbiamo combinato tutti i passaggi in un unico chip”. Sun afferma che con miglioramenti ingegneristici realistici , consentirebbero di collegare molti transistor di luce quantistica. Dispositivi così veloci e altamente connessi alla fine porteranno a compatti computer quantici che elaborano un gran numero di qubit fotonici.

Gli scienziati “teletrasportano” una porta quantistica

Standard

I ricercatori della Yale University hanno dimostrato uno dei passaggi chiave nella costruzione dell’architettura per computer quantistici modulari: il “teletrasporto” di una porta quantistica tra due qubit, su richiesta.Questa è una panoramica della rete dell’architettura quantistica modulare dimostrata nel nuovo studio.

 

Il principio chiave alla base di questo nuovo lavoro è il teletrasporto quantistico, una caratteristica unica della meccanica quantistica che è stata prima utilizzata per trasmettere stati quantici sconosciuti tra due parti senza inviare fisicamente lo stato stesso. Utilizzando un protocollo teorico sviluppato negli anni ’90, a Yale hanno dimostrato sperimentalmente un’operazione quantistica, o “porta”, senza fare affidamento su alcuna interazione diretta. Tali porte sono necessarie per il calcolo quantico che si basa su reti di sistemi quantici separati – un’architettura che molti ricercatori affermano possa compensare gli errori intrinseci ai processori di calcolo quantistico.

Lo Yale Quantum Institute, team di ricerca di Yale guidato da Robert Schoelkopf e dall’ex studente universitarioKevin Chou sta studiando un approccio modulare all’informatica quantistica. La modularità, che si trova in tutto, dall’organizzazione di una cellula biologica alla rete di motori nell’ultimo razzo SpaceX, è una strategia potente per la costruzione di sistemi complessi e di grandi dimensioni, affermano i ricercatori. Un‘architettura quanto-modulare è costituita da una serie di moduli che funzionano come piccoli processori quantici collegati in una rete più grande.

I moduli in quest’architettura hanno un naturale isolamento l’uno dall’altro,  riducendo le interazioni indesiderate attraverso il sistema più grande. Quest’ isolamento rende anche le operazioni di esecuzione tra i moduli una sfida distinta, secondo i ricercatori. Le porte teleportate sono un modo per implementare le operazioni tra moduli.

“E’ la prima volta che questo protocollo ,- ha affermato Chou– è stato dimostrato dove la comunicazione classica avviene in tempo reale, permettendoci di implementare un’operazione ‘deterministica’ che esegue ogni volta l’operazione desiderata”.

computer quantistici completamente utili hanno il potenziale per raggiungere velocità di calcolo di ordini di grandezza più veloci rispetto ai super-computer attuali. A Yale sono in prima linea negli sforzi per sviluppare i primi computer quantistici pienamente utili e hanno svolto un lavoro pionieristico nel calcolo quantistico con circuiti superconduttori.

I calcoli quantici sono fatti tramite delicati bit di dati chiamati qubit, inclini a errori. Nei sistemi quantici sperimentali, i qubit “logici” sono monitorati da qubit “ancillari” per rilevare e correggere immediatamente gli errori. “Il nostro esperimento,- ha detto Schoelkopf-  è anche la prima dimostrazione di un’operazione a due qubit tra qubit logici. È una pietra miliare verso l’elaborazione d’informazioni quantistiche usando qubit corretti dagli errori.”

Quanti neutroni può contenere un nucleo ?

Immagine

Quanti neutroni riesci a stipare in un atomo? Più di quanto pensassero i fisici.

Un ciclotrone superconduttore genera fasci di nuclei esotici presso il Riken

Radioactive Isotope Beam Facility

Il RIKEN a Wako

, i nuclei conosciuti e previsti formano un’andana a forma di sottaceto il cui limite inferiore segna la “linea di gocciolamento neutronico“: il numero massimo di neutroni che un nucleo può contenere.Radioactive Isotope Beam Facility di RIKEN a Wako, in Giappone, ed ha permesso di individuare i nuovi nuclei di calcio.
I fisici in Giappone hanno fatto esplodere i nuclei di calcio più pesanti mai visti, ciascuno contenente i 20 protoni necessari per creare l’elemento, ma con un numero enorme anche sino a 40 neutroni. È il doppio dei neutroni rispetto alla forma più comune di calcio e un paio in più rispetto al precedente. La scoperta suggerisce che potrebbe essere possibile stipare ancora più neutroni in nuclei di quanto si pensasse in precedenza, e potrebbe avere implicazioni per la teoria delle stelle di neutroni.

“E’ davvero un risultato importante e interessante, – afferma Daniel Phillips, fisico teorico nucleare all’Ohio University-Atene- poiché i modelli fisici della struttura nucleare sono sintonizzati su nuclei più comuni con un numero approssimativamente uguale di protoni e neutroni. Abbiamo bisogno di sapere quanto queste teorie errano, estrapolandole ai nuclei con rapporti più sbilanciati di protoni e neutroni”.

Il nucleo atomico è costituito da protoni e neutroni tenuti insieme dalla forza nucleare forte. Il numero di protoni determina l’identità di un atomo come elemento chimico; il numero di neutroni determina l’isotopo di quell’elemento. Spesso è raffigurato un nucleo con tanti protoni e neutroni attaccati insieme come gumdrops, ma i nuclei reali sono molto più complicati. Sebbene sia costituito da particelle discrete, il nucleo medio agisce più come una gocciolina di fluido con una tensione superficiale. Allo stesso tempo, tuttavia, i nuclei hanno gusci di energia quantica astratti e possono essere più strettamente legati quando hanno un numero magico di protoni o neutroni che riempiono quei gusci – proprio come, su una scala più grande, gli atomi sono più inerti quando hanno riempito i gusci di elettroni. Inoltre, i teorici usano modelli diversi per spiegare questi comportamenti in competizione. Per nuclei relativamente leggeri, i modelli ab initio affrontano le interazioni di singoli protoni e neutroni. Tali modelli s’impantanano per nuclei più pesanti, quindi i teorici impiegano modelli più approssimati basati su “funzionali di densità” che trattano la distribuzione di protoni e neutroni come variabili continue. Le dozzine di tali modelli possono non essere d’accordo su cose semplici, come quanti neutroni si attaccheranno a un nucleo, un limite che i fisici spesso visualizzano su un grafico a griglia. Sul grafico, che mostra il numero di protoni sull’asse verticale e il numero di neutroni sull’asse orizzontale

Il team di 30 membri del laboratorio giapponese RIKEN di Wako e della Michigan State University (MSU) di East Lansing ha prodotto una serie di nuovi nuclei ricchi di neutroni che suggeriscono che la linea di gocciolamento, più lontana di quanto previsto da molte teorie. Il team ha “cacciato” nelle vicinanze di calcio, – dice Alexandra Gade, esperta di MSU- perché il suo numero magico di protoni già lo infonde con un legame più forte.

Usando la radioattività isotopica di RIKEN, hanno strappato i nuclei di zinco pesante sparando un raggio attraverso un bersaglio di berillio. Hanno quindi utilizzato un separatore magnetico molto preciso per selezionare la vasta gamma di nuclei presenti nel relitto. Il team ha prodotto otto nuovi nuclei ricchi di neutroni, tra cui, rispettivamente calcio-59 e calcio-60, con 39 e 40 neutroni. Per produrre due nuclei di calcio-60, i ricercatori hanno dovuto sparare 200 quadrilioni di nuclei di zinco nel bersaglio.

I nuovi risultati sembrano triplicare i modelli, ab initio, che generalmente predicono che il calcio-60 non dovrebbe esistere. In effetti, i dati suggeriscono, – dice Gade– che potrebbe essere possibile creare nuclei di calcio con ancora più neutroni. Dei 35 modelli confrontati dai ricercatori, i due che meglio si adattano a tutti i nuovi dati, predicono che l’isotopo di calcio esiste fino al calcio-70, che avrebbe un numero enorme di neutroni.

Gade mette in guardia contro qualsiasi generale generalizzazione sulla linea di gocciolamento. Tuttavia, – dice Phillips -, si spera che i risultati vincolino meglio la linea di gocciolamento in modo che gli sperimentatori non debbano semplicemente sentirlo. “Certamente spero, dice inoltre, che non si tratti di andare avanti per elemento”. Oltre alla sua fondamentale importanza, la posizione della linea di gocciolamento potrebbe avere implicazioni per l’astrofisica delle stelle di neutroni. Per esempio, si pensa che i processi nelle croste di questi resti stellari producano nuclei ricchi di neutroni direttamente nella linea di gocciolamento, dice Gade, quindi le proprietà precise e la struttura delle stelle incredibilmente dense, potrebbero dipendere dai dettagli della linea di gocciolamento.

Gli sperimentatori sperano di trovare anche isotopi più pesanti di calcio e di fare in modo che anche i nuclei studino le proprietà. Tali studi potrebbero diventare più facili nel 2022 quando MSU completerà il suo nuovo acceleratore da 730 milioni di dollari, l’impianto per i raggi isotopici rari (FRIB), che sarà ancora più potente della macchina di RIKEN. “Abbiamo esaminato i calcoli e [la FRIB], – dice Gade-, dovremmo essere in grado di vedere calcio-68 e calcio-70, se esistono”.

 Esperimenti internazionali sui neutrini

Immagine
 Esperimenti internazionali sui neutrini

LBNF / DUNE: uno degli esperimenti internazionali su neutrini di punta

L’esperimento di neutrini a lunga base internazionale / Neutrino sotterraneo profondo, ospitato dal Fermilab del Dipartimento dell’Energia degli Stati Uniti, è un progetto scientifico di punta per svelare i misteri dei neutrini.                                                                                                                                                                                I neutrini sono le particelle di materia più abbondanti nell’universo e sono tutt’intorno a noi, ma ne sappiamo molto poco. Studiando i neutrini, gli scienziati di LBNF / DUNE dipingeranno un’immagine più chiara dell’universo e come funziona. La loro ricerca potrebbe persino darci la chiave per capire perché viviamo in un universo dominato dalla materia – in altre parole, perché siamo qui per niente. L’esperimento utilizzerà i potenti acceleratori di particelle del Fermilab per inviare il raggio più intenso del mondo di neutrini ad alta energia ai rivelatori di neutrini massivi di DUNE, che esploreranno le loro interazioni con la materia. Il pioniere di questo progetto di megascience internazionale si è svolto nel 2017, con la partecipazione di partner negli Stati Uniti e in tutto il mondo.

Per costruire e gestire LBNF / DUNE, il Fermilab riunisce oltre 1.000 scienziati di oltre 175 istituzioni in oltre 30 paesi. Il progetto si basa su competenze scientifiche e tecniche di università, laboratori e aziende in tutto il mondo. Quest’ambizioso progetto richiede rivelatori di particelle giganti, un intenso fascio di neutrini e un’infrastruttura internazionale per riunire tutto. Il progetto LBNF / DUNE guiderà i progressi della scienza e dell’industria in tutto il mondo. Il modello di costruzione distribuito del progetto, in cui i componenti sono costruiti negli Stati Uniti e in tutto il mondo, assicura che a ciascuno degli istituti e dei paesi partner vengano forniti vantaggi economici immediati in quanto i componenti vengono ricercati, costruiti e testati presso università, laboratori e aziende in tutto il mondo. Le scoperte da questo sforzo rivoluzionario potrebbero cambiare la nostra comprensione dell’universo.

The Deep Underground Neutrino Experiment (DUNE)

DUNE è costituito da due enormi rivelatori di particelle all’avanguardia: uno più piccolo al Fermilab in Illinois e uno molto più grande da costruire un miglio sotto la superficie del Sanford Underground Research Facility nel South Dakota. Il rilevatore del Dakota del Sud sarà il più grande del suo genere mai costruito e userà 70.000 tonnellate di argon liquido e tecnologia avanzata per registrare interazioni di neutrini con una precisione senza precedenti. I prototipi più piccoli del rilevatore di distanza DUNE sono in costruzione presso il laboratorio europeo CERN, e i rilevatori completi ei loro sistemi di calcolo sono progettati e costruiti da una collaborazione di scienziati provenienti da oltre 30 paesi.

La struttura del neutrino a base lunga (LBNF)

LBNF ospiterà il rivelatore lontano DUNE a un miglio di distanza a Sanford Lab, così come il rilevatore vicino più piccolo al Fermilab. I rivelatori DUNE necessitano di strutture sotterranee dotate di una complessa tecnologia criogenica per mantenerle alla temperatura operativa di meno 300 gradi Fahrenheit. Nei prossimi anni, 875.000 tonnellate di roccia saranno scavate nelle caverne sotterranee di Sanford Lab e verrà costruita una nuova struttura scientifica. Al Fermilab, verrà costruita una nuova linea di luce per inviare al Sud Dakota del Sud un intenso fascio di neutrini da laboratorio ad alta energia di 1.300 chilometri (attraverso la pietra e la terra, senza tunnel).

Il progetto Proton Improvement Plan II (PIP-II)

L’esperimento DUNE richiede il fascio di neutrini ad alta energia più ricco di particelle al mondo – e questo è esattamente ciò che PIP-II fornirà. Il complesso acceleratore di particelle del Fermilab produce già il fascio di neutrini ad alta energia più intenso al mondo, ma un nuovo acceleratore lineare superconduttore, costruito con partner in tutto il mondo, renderà questo raggio ancora più potente. Il nuovo acceleratore lineare PIP-II sarà costruito con l’ultima tecnologia superconduttiva a radiofrequenza sviluppata presso il Fermilab e, insieme ad altri miglioramenti del complesso dell’acceleratore, fornirà il miglior fascio di neutrini possibile per DUNE. PIP-II è il primo acceleratore da costruire negli Stati Uniti che avrà importanti contributi da partner internazionali.

 

CERN ricerca neutrini in modalità DUNE

Neutrini trasformisti

Come attaccare i geni di resistenza dei batteri

Standard
Come attaccare i geni di resistenza dei batteri

Scienziati dell’Università ITMO e del Centro di Medicina Fisica e Chimica hanno sviluppato un algoritmo in grado di tracciare la diffusione dei geni di resistenza agli antibiotici, nel DNA del microbiota intestinale e, hanno rivelato ulteriori prove del trasferimento di geni di resistenza tra diverse specie batteriche. Il metodo può contribuire allo sviluppo di schemi terapeutici efficaci e frenare la diffusione dei superbatteri.
Hai mal di gola? Il medico può scrivere una rapida prescrizione per la penicillina o l’amoxicillina e, con il colpo di penna, aiuta a ridurre la salute pubblica e la salute futura aiutando i batteri a sviluppare resistenza agli antibiotici. È giunto il momento di sviluppare alternative agli antibiotici per le piccole infezioni, secondo un nuovo documento di riflessione degli scienziati del Georgia Institute of Technology, e di farlo rapidamente. È stato ampiamente riportato che i batteri si evolveranno per rendere gli antibiotici per lo più inefficaci entro la metà del secolo, e le attuali strategie per compensare le carenze previste non hanno funzionato.
Un possibile problema è che le strategie di sviluppo dei farmaci si sono concentrate sulla sostituzione degli antibiotici in infezioni estreme, come la sepsi, in cui ogni minuto senza un farmaco efficace aumenta il rischio di morte. Ma il processo evolutivo che porta avanti la resistenza agli antibiotici non accade quasi altrettanto spesso in quelle grandi infezioni come nella moltitudine di piccoli come sinusite, tonsillite, bronchite e infezioni della vescica, hanno detto i ricercatori della Georgia Tech.
“Le prescrizioni di antibiotici contro quei piccoli disturbi, – ha detto Sam Brown, professore associato alla Scuola di Scienze Biologiche della Georgia Tech – rappresentano circa il 90 per cento dell’uso di antibiotici, e quindi sono probabilmente il principale motore dell’evoluzione della resistenza”. I batteri che sopravvivono a queste tante piccole battaglie contro gli antibiotici crescono in forza e numeri per diventare eserciti formidabili in grandi infezioni, come quelle che colpiscono dopo l’intervento chirurgico.
“Potrebbe essere più sensato somministrare antibiotici meno spesso -ha detto ancora Brown, specializzato nell’evoluzione dei microbi e nella virulenza batterica- e preservare la loro efficacia per quando sono davvero necessari. E sviluppare trattamenti alternativi per le piccole infezioni “.
Negli ultimi anni, la diffusione della resistenza agli antibiotici è diventata un problema sanitario globale. Come conseguenza dell’uso eccessivo di antibiotici in medicina e in agricoltura, il microbiota intestinale accumula geni di resistenza agli antibiotici nel suo DNA o metagenoma. Da un lato, questi geni aiutano la normale flora a sopravvivere. Tuttavia, d’altra parte, studi recenti mostrano che il microbiota intestinale è in grado di condividere i geni di resistenza con i patogeni, rendendoli così resistenti alle terapie disponibili. In questa luce, lo studio su come i geni della resistenza si diffondano diventa particolarmente importante.
I programmatori dell’Università ITMO con il Centro di ricerca di fisica e chimica hanno sviluppato un algoritmo chiamato MetaCherchant che consente di esplorare l’ambiente del gene della resistenza ai farmaci e di vedere come cambia in base alle specie di batteri. “Abbiamo creato uno strumento che consente agli scienziati di dare un’occhiata più da vicino alla differenza tra l’ambiente del gene in due o più campioni di microbiota. ” Possiamo analizzare, -afferma Vladimir Ulyantsev, professore associato del Dipartimento di tecnologie informatiche presso l’Università ITMO- i campioni di microbiota raccolti da persone diverse o dalla stessa persona in momenti diversi, ad esempio prima e dopo il trattamento antibiotico. Sulla base dei dati ottenuti, possiamo suggerire come un particolare gene di resistenza potrebbe diffondersi da una specie microbica a un’altra”.
Gli studi sull’ambiente dei geni di resistenza agli antibiotici sono principalmente importanti per la progettazione di efficaci schemi di trattamento antimicrobico. “Usando MetaCherchant, possiamo analizzare come il microbiota contribuisce alla diffusione della resistenza a una particolare classe di antibiotici. Guardando al futuro, è possibile prevedere antibiotici, la cui resistenza è più probabile che si diffonda tra i patogeni. D’altra parte, possiamo trovare farmaci, – afferma Evgenii Olekhnovich, autore principale del Centro di Medicina Fisica e Chimica- con basso rischio di resistenza e questo criterio, a sua volta, ci aiuterà a regolare e preparare terapie specifiche. È la domanda delle domande nei prossimi due anni.”
Le potenziali applicazioni dell’algoritmo non sono limitate all’analisi dei geni del microbiota intestinale poiché il programma può essere utilizzato anche per studiare campioni di genoma da suolo, acqua o fognatura. “Possiamo valutare la diffusione della resistenza, -afferma ancora Evgenii Olekhnovich -, all’interno di una singola comunità batterica, come il microbiota intestinale, così come tra diverse comunità. Ciò ci consente, ad esempio, di identificare percorsi globali di resistenza agli antibiotici diffusi attraverso l’ambiente. Il problema della resistenza è complesso e richiede un approccio diversificato, in cui il nostro strumento può essere davvero utile.”

Nuovi progressi sulle metastasi del tumore al seno più aggressivo

Immagine

I ricercatori USC hanno individuato un rimedio per contrastare una proteina che aiuta la diffusione metastatica del cancro al seno, tra le principali cause di morte per le donne.

I ricercatori di cellule staminali USC presso la Keck School of Medicine di USC offrono una nuova soluzione per sopprimere il cancro della metastasi nei polmoni. 

È positivo per i pazienti con carcinoma mammario triplo negativo (TNBC) – il tipo più letale – e comprende il 20% dei casi di cancro al seno, particolarmente difficile da trattare.

Si è sviluppato perciò un intenso interesse a trovare nuovi trattamenti per TNBC.

“Per questo sottotipo di tumore al seno, disponibili poche scelte di trattamento per le metastasi target e, tipicamente, questi trattamenti sono di alta tossicità, – ha detto Min Yu, assistente professore di biologia delle cellule staminali e medicina rigenerativa, investigatore all’Eli e Edythe Broad Center (medicina rigenerativa) e (ricerca sulle staminali) all’USC e l’USC Norris Comprehensive Cancer Center– per cui una migliore comprensione delle cellule tumorali e delle loro interazioni con organi e tessuti aiuterebbe.”

 

Ricercatori USC confezionarono un farmaco per combattere il cancro al seno, con minuscole particelle di lipidi (i mattoni del grasso). Iniettate nei topi di laboratorio, le particelle rilasciarono il farmaco nel tessuto tumorale, riducendo i tumori metastatici nei polmoni.

Nel laboratorio di Yu, Oihana Iriondo e colleghi inibendo una proteina chiamata TAK1, riducevano le metastasi polmonari nei topi con TNBC .(Il TAK1 permette alle cellule maligne del seno di sopravvivere nei polmoni e formare nuovi tumori metastatici).

 

Le metastasi sono la causa più comune di morte correlata al cancro. Un potenziale farmaco, chiamato 5Z-7- Oxozeaenol o OXO, può inibire il TAK1 e presumibilmente rende molto più difficile per le cellule di cancro al seno di formare metastasi polmonari.Tuttavia, OXO non è stabile nel sangue e pertanto non funzionerebbe nei pazienti.

 

Per superare l’ostacolo, Yu e suoi collaboratori hanno sviluppato una sinergia con il laboratorio di Pin Wang presso l’USC Viterbi School of Engineering. La squadra di Wang ha sviluppato una nanoparticella – composta da una minuscola sacca di grasso – che funziona come una bomba intelligente per trasportare la droga attraverso il flusso sanguigno e consegnarla direttamente ai tumori.

Questa nanoparticella è caricata con OXO per trattare topi che erano stati iniettati con cellule di cancro al seno umano. OXO non ha ridotto i tumori primari nel seno, ma ha ridotto notevolmente i tumori metastatici nei polmoni con effetti collaterali tossici minimi.

 

“Sui pazienti con carcinoma mammario triplo negativo, – ha detto Yu – le chemioterapie sistemiche in gran parte sono inefficaci e molto tossiche. Le nanoparticelle sono un approccio promettente per fornire trattamenti più mirati, con l’OXO, per fermare il processo mortale delle metastasi”.

Il carcinoma mammario metastatico è classificato come carcinoma mammario allo stadio 4, una volta diffuso in altre parti del corpo, di solito polmoni, fegato o cervello. (Raggiunge questi organi penetrando nel sistema circolatorio o linfatico e migrando attraverso i vasi sanguigni, secondo la National Breast Cancer Foundation).

 

Il cancro al seno, tumore più comune nelle donne americane, ad eccezione dei tumori della pelle, possiede un rischio medio di sviluppo di 1 su 8 per una donna statunitense, secondo l’American Cancer Society.

Circa 266.120 nuovi casi di carcinoma mammario invasivo diagnosticati ogni anno nelle donne: circa 40.920 donne moriranno, secondo le stime dell’ACS.

La ricerca USC è in sviluppo, utilizzando test sugli animali. Il metodo scoperto sembra promettere, ma saranno necessarie altre ricerche per essere applicato agli esseri umani come trattamento.

 

 

La materia oscura è fatta di buchi neri primordiali ?

Standard

Immagini catturate dai moderni telescopi spaziali come Hubble e Spitzer

Telescopio spaziale di Spitzer

mostrano lo sfondo a infrarossi o la luce a infrarossi non associata a fonti note. Potrebbe essere stato lasciato dai primi oggetti luminosi dell’universo, comprese le stelle. La materia oscura – la sostanza elusiva che compone la maggior parte dell’universo materiale – potrebbe essere fatta di buchi neri?

Alcuni astronomi iniziano a pensare che quest’allettante possibilità sia sempre più probabile. Alexander Kashlinsky, astronomo (NASA Goddard Space Flight Center) Maryland, pensa che i buchi neri formatisi subito dopo il Big Bang, possano perfettamente spiegare le osservazioni delle onde gravitazionali, o quelle increspature nello spazio-tempo, fatte dall’interferometro laser Gravitational-Wave Osservatorio (LIGO)

Interferometro LIGO

, così come le precedenti osservazioni dell’universo primordiale.

Se l’ipotesi di Kashlinsky è corretta, allora la materia oscura potrebbe essere composta da questi buchi neri primordiali, e tutte le galassie potrebbero essere incorporate in una vasta sfera di buchi neri e l’universo primitivo potrebbe essersi evoluto in modo diverso rispetto a ciò che viene pensato dalla maggior parte degli scienziati. Nel 2005, Kashlinsky e colleghi hanno usato il telescopio spaziale Spitzer della NASA per esplorare il bagliore di fondo della luce a infrarossi che si trova nell’universo. Poiché la luce proveniente da oggetti cosmici richiede una quantità limitata di tempo per viaggiare nello spazio, gli astronomi sulla Terra vedono oggetti distanti nel modo in cui quegli oggetti guardavano nel passato. Kashlinsky e il suo gruppo volevano guardare verso l’universo primordiale, oltre il punto in cui i telescopi possono raccogliere singole galassie.”Se guardiamo New York da lontano,- ha detto Kashlinsky – non puoi vedere singoli lampioni o edifici, ma puoi vedere questa luce cumulativa diffusa che producono”.Quando i ricercatori avranno rimosso tutta la luce dalle galassie note in tutto l’universo, potrebbero ancora rilevare la luce in eccesso – il bagliore di fondo delle prime fonti per illuminare l’universo più di 13 miliardi di anni fa. Poi, nel 2013, Kashlinsky e colleghi usando l’Osservatorio a raggi X Chandra

osservatorio a raggi x Chandra

della NASA per esplorare il bagliore di fondo in una parte diversa dello spettro elettromagnetico: i raggi X. Con sorpresa, osservarono infrarossi e raggi X e le uniche fonti che sarebbero in grado di produrre questo sono i buchi neri, -ha rimarcato Kashlinsky – e non mi è venuto in mente in quel momento che questi potrebbero essere i buchi neri primordiali. “ Col rilevamento LIGO,  l’osservatorio che ha effettuato il primo rilevamento diretto delle onde gravitazionaliincrespature cosmiche nella struttura dello spazio-tempo stesso – prodotto da una coppia di buchi neri in collisione. Era l’inizio di nuove scoperte, e gli astronomi potevano raccogliere questi segnali unici creati da potenti eventi astronomici e, per la prima volta, rilevare direttamente i buchi neri (invece di vedere il materiale illuminato attorno ai buchi neri). Simeon Bird, astronomo (Johns Hopkins University), ha ipotizzato che la scoperta potrebbe essere ancora più significativa. Bird ha suggerito che i due buchi neri rilevati da LIGO potrebbero essere primordiali. I buchi neri primordiali non si formano dal collasso di una stella morta (il meccanismo più comunemente noto per la formazione del buco nero che si svolge relativamente tardi nella storia dell’universo). Invece, i buchi neri primordiali si sono formati subito dopo il Big Bang quando le onde sonore si sono irradiate in tutto l’universo. Le aree in cui quelle onde sonore sono più dense potrebbero essere crollate per formare i buchi neri.

“Un pensiero ci tormenta, – spiegava Kashlinsky – perchè questi buchi si vedono nella consistenza dell’impasto della pizza. È lo stesso con lo spazio-tempo, con la sola eccezione che quei buchi sono buchi neri primordiali. Per ora, questi buchi neri primordiali rimangono ipotetici.” Kashlinsky, colpito dal suggerimento di Bird, andando avanti, esaminò le conseguenze che questi buchi neri primordiali avrebbero avuto sull’evoluzione del cosmo. (Bird non è stato il primo scienziato a suggerire che la materia oscura potrebbe essere fatta di buchi neri, sebbene non tutte queste idee riguardino i buchi neri primordiali). Per i primi 500 milioni di anni della storia dell’universo, – ha detto poi Kashlinsky – la materia oscura collassò in grumi chiamati aloni, che fornivano i semi gravitazionali che avrebbero permesso alla materia di accumularsi e formare le prime stelle e galassie. Se quella materia oscura fosse composta da buchi neri primordiali, avrebbe creato questo processo che si cerca di indagare.  Per Kashlinsky questo processo può spiegare sia l’eccesso di sfondo cosmico dell’infrarosso

Eccesso di sfondo cosmico all’infrarosso

che l’eccesso di raggi X cosmici, osservato diversi anni fa coi suoi colleghi. Il bagliore infrarosso sarebbe venuto dalle prime stelle che si sono formate all’interno degli aloni. Anche se le stelle irradiano luce ottica e ultravioletta, l’espansione dell’universo tende naturalmente quella luce in modo che le prime stelle appaiano, agli astronomi sulla Terra, che emettono una luce infrarossa. Senza gli aloni in più, -ha aggiunto ulteriormente – le prime stelle potrebbero generare un bagliore infrarosso, ma non nella misura in cui Kashlinsky e colleghi l’hanno osservato. Il gas che ha creato quelle stelle sarebbe caduto anche sui buchi neri primordiali, riscaldandosi fino a temperature abbastanza elevate da far scoppiare i raggi X. Lo sfondo dell’infrarosso cosmico può essere spiegato – anche se in misura minore – senza l’aggiunta di buchi neri primordiali, mentre lo sfondo dei raggi X cosmici non può essere spiegato. I buchi neri primordiali collegano insieme le due osservazioni. “Tutto si combina notevolmente bene, -ha infine osservato Kashlinsky – perché occasionalmente, quei buchi neri primordiali si sarebbero avvicinati abbastanza da iniziare a orbitare l’uno accanto all’altro (il cosiddetto sistema binario). Nel corso del tempo, questi due buchi neri si unirebbero a spirale e irradierebbero le onde gravitazionali, potenzialmente simili a quelle rilevate da LIGO. Sono necessarie più osservazioni di buchi neri per determinare se questi oggetti sono primordiali o formati più tardi nella storia dell’universo.”