Saturday, March 20, 2010

Ils reconstruisent des mouvements à partir des signes cérébraux

Ils réussissent à reconstruire le mouvement 3D d'une main à partir des signes électriques produits par le cerveau en utilisant une méthode pas invasive et portative.

Une photoUn schéma du système de boutons utilisé dans l'expérience. Une fontaine : Bradberry et des collaborateurs.

Lentement, mais sans pause, les neurociencias avancent que c'est une barbarie. Récemment, un groupe d'hommes de science ont réussi à reconstruire le mouvement 3D d'une main à partir des signes électriques produits par le cerveau en utilisant une méthode pas invasive. La réussite, qui a été publiée le 3 Mars passé dans Journal of Neuroscience, aplanirait le chemin à l'utilisation d'un système computacional portative pour le contrôle avec la pensée de bras robóticos ou de chaises roulantes électriques. Cela supposerait une grande avance pour des personnes avec un type de paralysie.
Jusqu'à présent les hommes de science avaient utilisé des méthodes invasives et des systèmes pas portatifs pour la reconstruction des mouvements de la main. Dans cette étude José Contreras-Vidal et ses collaborateurs d'University of le Maryland ont situé des formations de capteurs sur les têtes des cinq participants dans l'expérience et ils ont enregistré l'activité électrique cérébrale en utilisant une soi-disant électroencéphalographie technique.
On a demandé aux volontaires de depuis un bouton central serrer encore huit boutons dans une séquence aléatoire dans 10 groupes (voir un dessin). En même temps qui enregistrait le mouvement de ses mains enregistrait son activité cérébrale.
Après, les enquêteurs se sont consacré à descodificar l'activité cérébrale et ont réussi à associer les mouvements tridimensionnels spécifiques de la main depuis des patrons d'activité électrique.
“Nos résultats montrent que l'activité cérébrale électrique acquise depuis le cuir chevelu porte assez d'information comme pour reconstruire les mouvements continus de la main”, dit Contreras-Vidal.
Les enquêteurs ont trouvé, en particulier, que le capteur 34 proportionnait l'information la plus précise. Ce capteur était placé sur une région du cerveau dénommée un cortex cérébral sensomotriz qui est la région associée aux mouvements volontaires. De plus, les capteurs sur le lobe pariétal inférieur ont aussi proportionné une information utile. Il est connu que cette autre région aide à guider le mouvement des membres. C'est pourquoi, ces résultats confirmeraient la validité de la méthode utilisée.
L'étude a des implications pour le développement futur de technologies qui communiquent le cerveau avec un ordinateur. Quand cette technologie sera mûre elle pourra être utilisée par les personnes qui ont des troubles neuromusculares sévères comme sclérose latérale amiotrófica, ictus ou des lésions médullaires, pour qu'ainsi ils puissent avoir un contrôle sur des travaux complexes sans la nécessité d'avoir des électrodes implantées dans le cerveau.
De plus, ce résultat a une importance du point de vue d'analyse de laboratoire ou de la surveillance clinique de fonctions cérébrales.
Une application intéressante serait le pouvoir aider avec ce type de technique des personnes avec paralysie à contrôler avec la pensée le curseur qui apparaît dans l'écran de son ordinateur. Tout de suite les systèmes qui existent requièrent du patient un long entraînement pour qu'ils puissent avoir un succès. Contreras-Vidal croit que la période d'entraînement pourrait être réduite et avoir besoin de moins d'effort si ce nouveau résultat est tenu en compte.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3033

Des fontaines et des références :
Un communiqué de presse.
Un article dans Journal of Neuroscience (un résumé).
Il interviewe l'enquêteur dans la NPR (podcast en anglais).

La glaciation Sturtian a couvert toute la Terre de glace

Ils trouvent les nouvelles épreuves de ce qu'une cape de glace étendait jusqu'à l'équateur il y a 716,5 millions d'années.

rocas_en_yukonDans ces endroits de l'Yukon des épreuves ont trouvé sur les glaciones Sturtian Le sommet obscur il s'est formé dans les tropiques d'il y a 716 millions d'années. Une fontaine : Francis A. Macdonald/Harvard University.

La vie à la Terre est intimement liée à la géologie terrestre, à la climatologie terrestre ou à notre lieu dans le Cosmos. L'histoire biologique est sujette et a été soumise à toute une infinité d'éventualité. On modifiez une de cette éventualité et cette histoire changera totalement. Mais comme ce sont des expériences réglées par des dés de lancer unique, nous ne pourrons jamais savoir ce qui aurait passé si les choses avaient été distinctes.
Plus de sept cents millions d'années cette planète était pratiquement couverte par la glace due à la glaciation Sturtian. À la période géologique correspondante on l'a nommé Cryogène en cette raison. La vie à la Terre, qui était essentiellement microbiana dans cette époque, était dans des gênes. Si cet âge de la glace avait été un peu plus cruel, ici nous n'aurions pas n'été pas aucun pour philosopher sur ce sujet, ou au moins pas encore. Pero la Naturaleza s'est montré miséricordieux, les glaces se sont retirées et un oxygène s'est libéré. Alors sont probablement apparues, pour la première fois, les premières formes complexes de vie pluricellulaire.
Savoir comment intense a été cette glaciation ou jusqu'à où elle s'est étendue est, donc, important à l'heure de comprendre l'histoire biologique de la Terre et nos origines les plus lointaines. En cette raison ce sujet a été un sujet de discussion chauffée entre les experts du champ. D'un côté il sont, ceux qui soutiennent que la glaciation n'a pas complètement couvert la planète et par l'autre ceux qui disent que oui il l'a fait. Nous avons déjà couvert ce sujet dans NeoFronteras quelques fois.
Maintenant, un groupe de géologues ont trouvé les nouvelles épreuves de ce qu'un océan de glace étendait jusqu'à l'équateur il y a 716,5 millions d'années, en proportionnant une plus grande précision à l'étude de cet événement “d'une boule glacée” ou “d'une boule de neige“.
Le groupe d'hommes de science, été à la tête par des hommes de science de l'Université de Harvard, ils ont basé son étude sur les roches anciennes tropicales qui peuvent se trouver maintenant dans une région lointaine du nord-ouest du Canada (la dérive continentale les aurait portées dans ce temps beaucoup plus au nord de sa localisation originale tropicale). Ils ont publié que sa trouvaille dans Science, par essence, qui viendrait à corroborer le fait de la Terre était totalement couverte par la glace pendant cette époque.
Selon Francis A. Macdonald, du département de la Terre et de Sciences Planétaires de l'université avant mentionne, ce serait la première fois qui est démontrée que la glaciation Sturtian s'est rendue dans des latitudes tropicales. Selon les données obtenues par cet homme de science et ses collaborateurs, cette glaciation a duré, comme un minimum, 5 millions d'années.
La survie de la vie eucariota le long de cette période indique qu'il y avait une eau disponible liquide superficielle et une lumière du soleil sur la Terre. Les premiers animaux ont surgi par cette époque et ils ont donné lieu à la plus grande prolifération d'eucariotas une connaissance.
Même pendant une glaciation globale comme celle-ci, il y avait une pente de température sur la Terre, en lui donnant une dynamique dans la glace : son flux, son amaigrissement et la formation pièces d'eaux ouvertes qui ont proportionné un refuge à la vie.
Selon Macdonald, le registre fossile suggère que, avec l'exception possible des animaux, tous les groupes principaux d'eucariotas existaient avant la glaciation Sturtian. La question est si s'est rendu un phénomène de boule de glace sur la planète: comment ont survécu les eucariotas ?: l'apparition des animaux a-t-elle stimulé cette période ?
“Du point de vue évolutif c'est pas toujours une mauvaise chose pour la vie terrestre confronter un stress sévère”, ajoute-t-il.
Les roches analysées par ces hommes de science proviennent des territoires de l'Yukon au Canada et montrent des dépôts et d'autres signes de glaciation. Ils ont été capables de décider, étant basé sur le magnétisme et sur la composition de ces roches carbonifères là opposées, qu'il y a 716,5 millions d'années se trouvaient à 10 degrés de latitude.
Gráce à l'hauteur albedo proportionné par la glace, les modèles climatiques il y a longtemps qui prédisent que si les océans sont couverts par la glace jusqu'aux 30 degrés de latitude, alors tout l'océan se congèlerait rapidement. Selon Macdonald les nouveaux résultats indiqueraient que la glace se trouverait à toutes les altitudes pendant la glaciation Sturtian.
Les hommes de science ne savent pas ce qui a causé cette glaciation ou ce qui l'a terminée, mais cet enquêteur dit que cet âge de 716,5 millions d'années cadre avec l'âge d'une grande région ignée de 1500 kilomètres qui va de l'Alaska à l'Île Ellesmere. Cela ferait coïncider la glaciation, ou son terme, avec une grande activité volcanique.
Si l'activité volcanique a mis fin à cette glaciation nous aurions à être alors très reconnaissants à ces volcans, parce que nous serions ici grâce à ceux-ci.
Cet événement n'a pas été celui unique il a défié le glacier auquel la vie à la Terre a survécu. On croit qu'il fait 2300 millions ans un autre événement similaire il a aussi couvert toute la planète de glace. Mais c'est une autre histoire.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3034

Des fontaines et des références :
Un communiqué de presse de l'Université de Harvard.
Un article dans Science (un résumé).
Une crise biologique préalable à la boule de neige.
Le premier m®tazoo (pour l'instant).
Sur le changement climatique d'il y a 635 millions d'années.
Une nouvelle théorie sur l'explosion du Cambrien.
Sur le retard dans l'apparition de la vie complexe.

Download House S06E15 Black Hole free

Friday, March 19, 2010

Ils mesurent l'âge de l'Univers avec une autre méthode

Ils mesurent l'âge de l'Univers grâce à l'effet de lentille gravitationnelle avec une précision sans précédents.

B1608L'effet de lentille gravitationnelle de B1608+656 a été utilisé pour calculer l'âge de l'Univers. Une fontaine : Sherry Suyu of the Argelander Institut für Astronomie.

Il y a quelques années, il ne fait pas tant de temps, nous ne savions pas l'âge de l'univers précisément. Plus que l'on nous disait c'était que l'Univers avait un âge compris entre les 10.000 millions d'années et les 20.000 millions d'années. Dès que l'on assumait que son âge marchait probablement probablement par les 15.000 millions d'années. Après, grâce aux données de WMAP du fond cosmique de microonde, on a vu que l'âge réel s'approchait assez de ce nombre, bien qu'un peu par dessous : 13.700 (± 130) des millions d'années.
Évidemment le WMAP ne pointe pas à une région de ciel où l'âge de l'Univers est écrit, mais celle-ci est indirectement inférée à partir des données physiques. Concrètement WMAP mesure les fluctuations du fond de radiation. À partir de là la densité de masse - énergie est calculée et en utilisant la Relativité Générale on peut trouver son âge en assumant un Univers plat (un type de géométrie appuyée par des mesures de WMAP). Mais quelqu'un avec un esprit critique (une chose indispensable dans une science) pourrait dire que seulement à partir d'un type de mesures nous ne pouvons pas être sûrs de comment d'un vieux est l'Univers où nous vivons, que sont nécessairees d'autres méthodes distinctes qui corroborent ce chiffre.
Eh bien, on vient de connaître qu'une équipe internationale d'hommes de science a récemment réalisé cela, en arrivant à un nombre assez pareil.
Pour réaliser cette étude ils se sont servis des lentilles gravitationnelles galactiques et sont arrivés à un âge de l'Univers fondé sur 13750 millions d'années avec une erreur de 170 millions d'années. De plus, le résultat confirme la force de l'énergie obscure, qui se croit qu'elle est la responsable de l'accélération de l'expansion d'Univers. Ces enquêteurs ont utilisé des données obtenues à partir des images prises pour le télescope spatial Hubble.
Selon la Relativité Générale la présence de masse - énergie fait que l'espace - temps se courbe autour de lui. De cette façon, les rayons de lumière qui passent près de cette région ne suivront pas de lignes droites mais géodésiques, qui sont l'équivalent des lignes dans des espaces courbes. Si la concentration de masse est très élevée (que dans ce cas nous supposerons que ce soit une galaxie) la courbure elle sera prononcée et la lumière originaire d'un objet distant (en général une autre galaxie) situé juste derrière la lentille gravitationnelle il souffrira d'une trajectoire telle l'observateur pourra le voir, bien que déformé. Il est comme si la concentration de masse agissait à la manière d'une lentille pour l'observateur. Une galaxie d'aspect ponctuel sera vue comme une multitude de points (une croix d'Einstein) ou quelques arcs, qui correspondront à des chemins distincts pris pour la lumière. Dans le cas d'un alignement presque parfait un anneau sera vu.
Appliqué l'effet à ce cas, il s'agit de mesurer les distances parcourues par la lumière originaire de l'objet du fond pour chaque chemin pris. En tenant en compte le temps nécessaire pour voyager en chaque chemin les enquêteurs peuvent pas seulement conclure combien d'un arrière-plan trouve la galaxie, mais de plus l'échelle de l'Univers et de détails sur l'expansion du même. Certains de ces aspects viennent déterminés à la constante de Hubble qui nous dit la taxe de vitesse de récession avec la distance.
Il est fréquemment difficile pour les experts de distinguer entre une brillante lumière lointaine et autre plus voisine mais plus faible. L'effet de lentille gravitationnelle résout ce problème après avoir proportionné des pistes multiples.
Selon Phil Marshall, du KIPAC, bien que l'on n'eût antérieurement jamais utilisé cet effet de la lentille gravitationnelle pour ne mesurer la constante de Hubble il avait été fait par tant de précision.
Bien que les astrophysiciens ne sachent pas quand la lumière abandonne la fontaine qui l'a produite, ils peuvent comparer les temps d'arrivée. Marshall utilise une analogie pour expliquer le phénomène. Selon lui, il est comme s'il partageait quatre automobiles depuis un point à côté d'une grande ville et en suivant différents chemins ils entoureront la ville précitée jusqu'à converger dans un point à l'autre côté. Les temps d'arrivée dépendraient des chemins pris. La plus longue c'était la route plus de temps il porterait la parcourir.
Les équations qui contrôlent les lentilles gravitationnelles peuvent tenir en compte des variables comme la distance et la densité de matière et proportionner une meilleure idée de quand la lumière a abandonné la galaxie et combien a voyagé.
Dans le passé cette méthode était remplie des erreurs, mais maintenant l'erreur est comparable avec celui d'autres méthodes. Bien qu'ils aient à encore tenir en compte des certains facteurs. Ainsi par exemple, la poussière dans la galaxie qui fait d'une lentille affectionnée à la lumière qui la traverse, c'est pourquoi l'Hubble dispose des filtres infrarouges pour éliminer cet effet. Les images contiennent aussi l'effet d'autres galaxies proches de ligne de vision qui participent à l'effet de lentille gravitationnelle.
Cette équipe d'enquêteurs veut étendre son étude à plus de cas. Ils ont déjà trouvé 20 objets susceptibles d'être étudiés.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3030

Des fontaines et des références :
Un communiqué de presse dans l'Université de Stanford avec vidéo.
Preprint de l'article original dans arXiv.
Un vidéo dans uni-bonn (l'anglais).
Il remarque dans EurekaAlert.
Il remarque dans KIPAC.

Secuencian le génome de Naegleria

La succession du génome de Naegleria aide à comprendre comment a été le premier eucariota, à borner le génome minimal et à analyser les routes métaboliques exotiques qui de plus peut-être peuvent servir des sources d'énergie.

naegleriaNaegleria dans une phase flagellée. Une fontaine : Lillian Fritz-Laylin, UC Berkeley.

L'importance scientifique d'une découverte ou son importance mediática parfois ils ne coïncident pas. La découverte d'un nouveau fossile de dinosaure, avec ou sans plumes, a l'habitude d'avoir un certain impact mediático. Mais les dinosaures, si cinématographiques ils, ne sont pas nos aïeux biologiques, ils ne devraient pas avoir tant d'importance, bien qu'ils excitent notre imagination. Même la faune de Burguess Shale, avec ses créatures étrangères, ils n'ont pas l'habitude d'importer beaucoup, bien qu'elle soit racontée par la prose magnifique de Steven J. Gould. C'est pourquoi, si nous nous élevons encore plus en arrière dans le temps, et nous parlons des microorganismes, il est normal que les gens avec peu de préoccupations passent du sujet dans une question.
Mais les microorganismes sont les rois de la création. Ils ont été les habitants uniques de cette planète pendant des milliers de millions d'années et, encore aujourd'hui, la vie à la Terre serait impossible sans ceux-ci. Ce sont à peu près que des attachés des microorganismes sophistiqués. Dans chaque cellule de notre corps, elles vivent encore dans endosimbiosis, les mitocondrias, quelques bactéries dégénérées qui nous fournissent une énergie. Même en ignorant il est fait, vous, un ami lecteur, il a dans son corps 10 bactéries à chaque cellule somatique.
L'histoire de la vie est une longue histoire, avec des événements uniques, les événements fondamentaux qui l'ont changée pour toujours. L'une de ces transitions a été le pas de cellules procariotas sans noyau, comme les bactéries et tu arques, à des cellules eucariotas nucléaires. On croit que cet événement est arrivé environ 1500 millions d'années. Presque nous n'avons pas de restes fossiles de cette époque, dès que nous elle avons à nous arranger à vérifier qu'il a passé. L'une des manières est de regarder dans des génomes d'espèces distinctes. Dans ces livres génétiques une partie de cette histoire est racontée si nous faisons un exercice “d'une littérature comparative”. C'est l'une des raisons par lesquelles des séquences organismes : pour plus savoir sur le passé.
L'un des génomes récemment secuenciado est celui de Naegleria gruberi. Cette créature est assez propre du point de vue biologique et son génome peut nous aider à comprendre la transition de procariotas à eucariotas.
Le travail, ils ont porté à un terme, les hommes de science du Department of Energy Joint Genome Institute (JGI) de l'Université de Berkeley et les experts de l'Université de Lancaster en Royaume-Uni.
Naegleria est une amibe commune du sol qui se consacre à la chasse de bactéries. Les exemplaires secuenciados se sont isolés, dans ce cas, de la boue d'une futaie d'eucalyptus dans le campus de l'Université de Berkeley. Quand cet organisme se trouve sous stress ils lui grandissent, les fouets, qui sont orgánulos similaires à celui des spermatozoïdes, et il se met à nager en recherche de meilleurs territoires. De plus, il a une troisième identité; si les conditions du sol deviennent très dures, de l'époque il se transforme en kyste dur et attend de meilleurs temps.
Selon Simon E. Prochnik, un processus comme celui-ci de se transformer en flagellé à partir de l'état ameboideo est très rare.

Une photoUne microphotographie par une microscopie électronique de balayage (une gauche) de la phase de kyste de Naegleria. À la phase droite ameboidea du même microorganisme. Une fontaine : Lillian Fritz-Laylin, UC Berkeley.

Prochnik et ses collaborateurs ont découvert que cet organisme a, logiquement, des paquets de gènes consacrés à toutes ces "personnalités". Son génome contient pas moins de 15.727 gènes codificateurs de protéines, que c'est un nombre comparable avec 23.000 chez des humains.
La raison à laquelle Naegleria a tant de gènes découle de son style de vie compliqué. La majorité des organismes unicelulares ont peu de gènes. Selon Prochnik, à l'être un organisme si versatile, son génome doit contenir l'information nécessaire pour survivre dans la variété d'atmosphères dans lesquelles il le fait et sous les gammes distinctes du stress qu'il est soumis.
Ces enquêteurs ont comparé le génome de Naegleria au génome 16 eucariotas qui allaient des champignons aux humains en passant par des plantes et des protozoaires. Un organisme libre le non parasite, qui n'a pas perdu une partie de ses gènes et de fonctions, a permis une plus vaste comparaison à l'être et il permet de trouver plus de protéines qui étaient dans les eucariotas ancestraux. Ils ont identifié l'ensemble de 4000 gènes qui, selon ces hommes de science, est probablement partie du génome le plus primitif eucariota.
Le nombre opposé de gènes ont surpris les enquêteurs parce que dans les comparaisons préalables, qui incluaient aux microorganismes des parasites, il a passé par un nombre inférieur, probablement à cause que les parasites délèguent une partie de ses fonctions aux gènes de l'être qui les loge. Ce résultat peut aider à déterminer, donc, le nombre minimal de gènes qui permettent une vie indépendante.
C'est la première génétique comparative qu'il inclut pas seulement à Naegleria, mais de plus à des représentants des six groupes d'eucariotas secuenciados, comme chromalveolata, diatomeas, le microorganisme causant de la malaria, les microbes de marée rouge, d'amibes ou de parasites comme giardia.
Entre d'autres résultats intéressants de cette étude il est qu'il peut aider à jeter une lumière sur comment les cellules se sont déplacées, comment les unes envoient des signes aux autres ou comment ils métabolisent des nutriments.
Naegleria use pseudópodos dans sa phase ameboidea dans ses déplacements pour chasser des bactéries, mais quand la nourriture disparaît il développe des fouets depuis “la rien” et les utilise pour nager à de meilleurs territoires de chasse. Mais les pseudópodos et les fouets utilisent différentes protéines pour le mouvement. Le premier basé dans actina qui crée un échafaudage à l'intérieur de la cellule. Le deuxième est basé sur le tubulina. Comme cet organisme a les deux systèmes il peut aider les hommes de science à comprendre l'origine de ce système parallèle pendant l'évolution des eucariotas.
Quand les hommes de science ont soumis des populations de Naegleria à un manque d'aliment ils ont vérifié que presque toutes changeaient rapidement à sa forme flagellée, par ce que le changement du système basé dans actina à l'autre de microtúbulos est hautement réglé et synchronisé dans toute la population.
Le génome de ce microorganisme révèle aussi comment il produit une énergie. Il peut utiliser de l'oxygène pour "brûler" des nutriments comme glucose ou des acides gras, ou, s'il n'y a pas d'oxygène, utiliser d'autres nutriments et routes métaboliques, en produisant l'hydrogène comme sous-produit. Ce dernier mécanisme lui permet de survivre à l'hipoxia dans l'atmosphère fangeuse où il vit. Un de ces experts spécule que peut-être cela peut servir à produire des biocombustibles si réussit à se comprendre bien cette dernière route métabolique.
La succession du génome de Naegleria est encore un pas. La comparative entre soi de plus de génomes de l'arbre évolutif des eucariotas nous aidera à comprendre l'évolution d'animaux plus complexes et à commencer à comprendre d'où venons nous. Parce que la science basique cherche à répondre seulement aux questions basiques habituelles : d'où venons-nous ?: quoi est-ce que nous sommes ?: adónde allons-nous ? … Ces hommes de science ont aidé un peu plus à éclaircir comment c'était le tataratatara … taratabuelo microbiano de vous, un amant lecteur.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3031

Des fontaines et des références :
Un communiqué de presse d'UC Berkeley avec vidéo.
Un article dans Cell (un résumé).

Thursday, March 18, 2010

Ils découvrent un antihipernúcleo

Ils réussissent à synthétiser un noyau d'antimatière composé par trois nucleones qu'un quark étranger contient.

antihipernucleo

Selon le modèle standard de particules, la matière est organisée chez trois familles. La première est formée par le quark là-haut, le quark en bas (les deux rapports constituants de neutrons et de protons), l'électron et le neutrino de l'électron (les deux leptones). La deuxième est formée par le quark enchanté, le quark étranger, et les leptones muón et neutrino muónico. La troisième famille est composée par les quark un sommet et un fond et les leptones tau et neutrino du tau. Toutes ces particules ont un spin semientier et c'est pourquoi ils sont fermiones (qui répondent à la Statistique de Fermi-Dirac). Pour organiser ces particules ils sont : les gluones (littéralement “pegamentones”) que les quarks unissent entre soi, en étant les responsables de la force nucléaire forte; les photons, des responsables des interactions électromagnétiques; et les particules W +, le W - et Z0 qui contrôlent les désintégrations et sont les responsables de la force nucléaire faible. Ces particules médiatrices ont toutes un spin entier et ils répondent à la statistique de Bose-Einstein, ils sont, donc, bosones.
Deux conclusions sont sorties de tout cela. La première consiste en ce que, depuis que se sont épuisées les lettres grecques pour les particules composées et les Nord-Américains sont entrés sur ce champ de la Physique de Hautes Énergies, s'utilise une terminologie assez peu élégante pas basée sur des mots gréco-latins. La deuxième consiste en ce que toute la matière qui nous entoure, nous voyons et nous frappons est seulement formée par la première famille du modèle. Le reste semble rester. Ainsi par exemple, nous pouvons seulement avoir des protons et des neutrons à coups de quarks là-haut et en bas. Avec neutrons et protons nous pouvons créer les noyaux de tous les éléments de la planche périodique, y compris ses isotopes, et en ajoutant des électrons nous avons les atomes.
Pour obtenir les particules de la deuxième et troisième des familles, ou des combinaisons d'elles, il faut rassembler beaucoup d'énergie dans un point, et attendre que se forment d'une manière spontanée des particules exotiques, grâce à équivalent une masse - énergie, bien qu'à un peu de temps ils se désintègrent dans des particules plus courantes. Des paires de particule - antipartícula se forment souvent.
Quelque chose de pareil a succédé au commencement du Big-Bang, quand se sont formées plusieurs de ces particules exotiques, mais toutes ont disparu à un peu de temps. Maintenant ils se rendent seulement dans des phénomènes naturels de hautes énergies ou dans nos accélérateurs.

colision_en_RHICDans chaque collision du RHIC se produisent les centaines de particules qu'il faut analyser. Dans ce cas grâce au détecteur STAR. Une fontaine : Brookhaven National Laboratory.

La synthèse de particules à partir d'une énergie n'est pas simple, plus d'emmerdeuses sont les particules à synthétiser plus d'énergie on a besoin de lui, et les particules de la deuxième et troisième famille sont assez lourdes (de plus en plus d'emmerdeuses). De plus, il n'est pas possible d'obtenir quarks isolés dès qu'il faut créer des particules composées (bariones ou des auberges) qu'ils les contiennent. La manière pour le faire est d'accélérer des particules courantes dans un accélérateur jusqu'à une vitesse proche de celle de la lumière (la vitesse envers laquelle ils ont beaucoup d'énergie cinétique) et les faire heurter entre soi. Pour pouvoir faire cela les particules dans une question elles ont à être lourdes eléctricamente et profiter des champs électromagnétiques pour pouvoir les accélérer et les confiner.
De plus, comme il tarde un temps à les accélérer, et on ne peut pas construire un très long tunnel, les fait être tourné dans un anneau. Ici le premier problème surgit. Toute particule chargée dans accélération (et elle forcer depuis à tourner dans des cercles est une forme d'accélération) émet une radiation sincrotón, en perdant une énergie dans le processus. Dès que, pour atteindre une haute énergie, il est nécessaire de mettre plus d'énergie qu'il est perdu par radiation sincrotón.
Une manière de le résoudre est d'utiliser les particules lourdes (comme par exemple des protons), qui sont en général particules composées qui ne donnent pas de collisions propres, mais qui permettent d'atteindre beaucoup d'énergie sans beaucoup de perte par radiation sincrotón. Le comble du comble est de faire choquer des noyaux d'atomes pesés comme l'or, en faisant des ions de cet élément circuler par un accélérateur.
Une installation qui se consacre précisément à ce travail est le Colisionador d'Ions Lourds Relativistas ou RHIC dans Brookhaven National Laboratory. Il consiste en accélérateur de presque quatre kilomètres de circonférence. Récemment, les hommes de science qui travaillent là ont synthétisé l'antinoyau (le noyau composé par des particules d'antimatière) plus massif jusqu'à la date, en publiant sa trouvaille dans Science Express le quatre mars passé.
Comme c'est un antinoyau il a une charge électrique négative au lieu d'un positif. Dénommé antilambda contient concrètement un antiproton, un antineutron et une particule neutre. C'est le premier antinoyau dans être créé qu'un antiquark étranger contient, puisque cet antilambda contient un antiquarks arrive, un antiquark en bas et un antiquark étranger.
Selon Horst Stoecker, de l'Association allemande Helmholtz, cette découverte pourrait avoir quelques conséquences sans précédents dans notre vision du monde, puisque cette antimatière ouvrirait la porte à une nouvelle dimension dans la lettre de noyaux. Jusqu'à il y a peu on croyait que la synthèse de ce type de noyaux était impossible.
Cette découverte pourrait aider à la création de modèles d'étoiles de neutrons et quand une fraction a exploré les asymétries fondamentales dans l'univers primitif, juste deuxième après le Big-Bang.
Les physiciens qui se consacrent à cette affaire utilisent fréquemment les tréteaux périodiques des éléments qui sont tridimensionnels. Dans celles-ci les isotopes distincts sont pas tenus en compte, mais un nombre quantique extra dénommé étonnement qui dépend de la présence de quarks des étrangers. Pour la matière ordinaire ce nombre quantique vaut un zéro. Quand il y a plus de l'un de ces quarks alors à ces noyaux on les nomme hypernoyaux ou antihipernúcleos s'ils sont d'une antimatière. Cette découverte consiste en synthèse du premier antihipernúcleo.

tabla_periodica_3DLa planche périodique dans laquelle est tenu en compte l'étonnement (l'axe vertical), le nombre de protons (Z) et le nombre de neutrons (N). La partie négative des axes correspondent aux antiparticules. Les antiéléments sont dénotés par une ligne horizontale sur son symbole. Le noyau reciéntenme découvert est en bas à la gauche marqué est rose. Une fontaine : Brookhaven National Laboratory.

Chez des vedettes paralysées, comme une vedette de neutrons, il peut arriver que l'étonnement n'est pas nul, donc cette trouvaille pourrait aider à distinguer entre les modèles qui décrivent les états exotiques de la matière qui essaient d'expliquer ces objets. Sur le passé on a spéculé sur l'existence possible d'objets paralysés composés principalement de matière étrangère (de quarks des étrangers).
Cette trouvaille pourrait aider à comprendre de plus la violation de la symétrie fondamentale entre une matière et une antimatière. Comme nous savons déjà, pendant le Big Bang un excès de matière s'est produit sur une antimatière et en cette raison l'Univers n'est pas seulement un nuage de radiation, mais il y a une matière et pratiquement il n'y a pas d'antimatière. Ce problème de l'asymétrie de matière - antimatière constitue un problème encore pour résoudre dans la Physique.
Avec le RHIC certains microsecondes atteignent une densité d'énergie comparable avec les existantes après le Big Bang, mais dans les collisions entre des ions d'or ils se produisent quarks et antiquark dans la même quantité. La rupture de cette symétrie a eu à se produire, donc, à une énergie encore plus grande ou à être très subtil. Pour pouvoir essayer de résoudre ce mystère on peut s'agir de mesurer des déviations subtiles entre une matière et une antimatière. Zhangbu Xu, du Brookhaven, croit qu'il y a bons des expectatives dont des mesures futures dans le RHIC permettent de résoudre ce mystère. L'équipe du détecteur STAR a trouvé que la taxe à laquelle les antinoyaux elle est produite est consistante avec l'espéré si nous nous basons sur la statistique de la soupe de quarks qui est généré dans les collisions. En extrapolant les résultats obtenus, les hommes de science de cette institution croient qu'ils pourront découvrir des antinoyaux encore plus pesés dans les proches collisions. Il y a des prédictions selon lesquelles il y a des noyaux le double de pesés que le découvert que des étrangers contiennent quarks et qu'ils peuvent être spécialement stables.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3032

Des fontaines et des références :
Un communiqué de presse de Brookhaven National Laboratory.

Wednesday, March 17, 2010

Ils vérifient la validité de la Relativité Générale

Encore une fois la Relativité Générale, proposée par Einstein presque il y a un siècle, sort victorieuse d'autre épreuve, de cette fois à une échelle cosmologique.

sloan_400Une carte partielle du ciel confectionné avec données du projet Sloan. Il représente une “portion de tarte” de l'univers de 7000 millions d'années-lumière de rayon. Une fontaine : M. Blanton, Sloan Digital Sky Survey.

L'apparition de la matière et de l'énergie obscure dans une scène a fait douter des théories établies. Selon la tradition, qui a commencé avec l'éther du XIXe siècle, peut-être l'énergie et la matière obscure n'existent pas réellement, et tout est le résultat de notre mauvaise compression de l'Univers. Une cible de cette mauvaise compréhension a été la Relativité Générale, la théorie que, sous cette philosophie, il faudrait réviser ou être substitué par l'autre meilleure qu'il expliquera les observations sans la nécessité de recourir à des énergies et à des matières énigmatiques. À la chaleur de ce mouvement intellectuel des candidates ont surgi quelques théories.
Maintenant, l'analyse de plus de 70.000 galaxies de la part des hommes de science des universités de Berkeley, Zurich et Princeton démontre que l'Univers, au moins jusqu'à une distance de 3500 millions d'années-lumière de nous, fonctionne sous les règles de la Relativité Générale (RG) et produit des résultats meilleurs que les obtenus par d'autres théories alternatives.
Dans son analyse ils ont tenu en compte le regroupement dans des tas de ces galaxies, de ses vitesses et la distorsion introduite dans la lumière par la matière impliquée. L'une des conséquences auxquelles ils arrivent dans cette étude consiste en ce que la matière obscure est la meilleure explication pour décrire le mouvement des tas de galaxies.
“Le meilleur d'aller à des échelles cosmologiques consiste en ce que nous pouvons vérifier toute théorie alternative de la gravité, parce qu'il doit prédire les choses que nous observons”, dit les Aurochs Seljak.
En particulier la théorie TeVeS que la RG modifie pour éviter l'existence de la matière obscure a complètement prononcé l'épreuve. Selon cette théorie alternative, l'accélération causée par la force gravitationnelle sur un corps ne dépendrait pas seulement de sa masse, mais de plus il dépendrait de la propre accélération produite par la gravité.
De plus, les résultats contredisent un rapport fantôme l'année passée selon laquelle, l'Univers primitif, d'entre il y a 11000 et 8000 millions d'années, a dévié de la description de la RG.
La découverte de l'énergie obscure, une force énigmatique qui accélère l'expansion de l'Univers, a donné lieu à l'apparition des théories f (R), selon lesquelles on peut expliquer l'accélération de l'expansion sans nécessité d'énergie obscure.
Mais se mettre à l'épreuve ces théories n'est pas facile. Normalement, dans les expériences cosmologiques on essaie de détecter des fluctuations dans le fond cosmique de radiation, mais les théories de gravité prédisent des relations entre une densité apparente et une vitesse ou entre densité et des fonctionnalités gravitationnelles.
Selon Seljak, la taille des fluctuations, par le même, ne nous dit rien au sujet de la théorie possible qui peut exister dessous. Il ajoute que la nouveauté de cette nouvelle technique consiste en ce qu'il ne dépend pas de la grandeur de ces fluctuations.
Tout a commencé il y a trois ans quand Pengjie Zhang de l'observatoire du Shanghai a suggéré d'utiliser une quantité appelée EG pour se mettre à l'épreuve les modèles. EG reflète la quantité de regroupement dans les galaxies observables et la quantité de distorsion introduite dans la lumière après avoir traversé les galaxies, ou un effet “d'une faible lentille”. La faible lentille peut faire, par exemple, que nous voyons une galaxie ronde comme si elle était ovale. EG est proportionnel à la densité moyenne de l'Univers et inversement proportionnel au taux de croissance de structures dans lui. Selon Seljak, cela permet d'échapper à l'étendue de fluctuations du fond cosmique et de se concentrer directement sur une combinaison particulière qui est sensible aux modifications de la RG.
En utilisant des données de plus de 70.000 galaxies distantes brillantes du projet Sloan, cet enquêteur et ses collaborateurs ont calculé EG et ils l'ont comparé aux prédictions qui pour EG font les théories TeVeS, f (R) et RG avec une constante cosmologique (qu'il se rendrait compte de l'énergie obscure) et une matière obscure froide. Une valeur s'est trouvée observacional pour EG de 0,39.
Les prédictions de TeVeS pour EG sont sorties en dehors des limites d'erreur observacional, tandis que f (R) il produisait une valeur d'EG en dessous de l'observé (bien qu'encore dans la barre d'erreur). Cependant, la valeur d'EG proportionnée par la RG cadrait très bien avec les données observacionales.
Dans un effort, pour réduire l'erreur, et pour être certainement butiné de la f (R), Seljak espère agrandir ses analyses avec le catalogue BOSS, qui contiendra des données d'un million de galaxies et qui sera disponible dans environ cinq années. Pour réduire l'erreur d'un facteur de dix on requerrait un projet plus ambitieux, comme le BigBOSS déjà proposé et dans une attente d'être mention passable. Des missions futures spatiales comme la JDEM de la NASA ou la mission Euclides de CELA pourraient aussi aider dans cet objectif.
D'un autre côté Glenn Starkman, de Case Western Reserve University au Cleveland dit que l'EG sera utile pour des batteries futures de test auxquels soumettre toutes ces théories. Cet enquêteur et ses collaborateurs viennent de vérifier que l'une de ces théories, dénommée “Éther d'Einstein”, et qu'il utilise un nouveau champ pour remplacer en même temps une matière et une énergie obscure, il n'explique pas les patrons qui se voient dans le fond cosmique de radiation.
En définitive, c'est un soulagement que de nouvelles expériences et observations commencent éliminer tant de théories qui avaient dernièrement proliféré.
Il n'arrête pas d'est incroyable que la RG fonctionne si bien à ces échelles cosmologiques et elle le fait aussi à l'une dix-millième d'un millimètre, comme dans l'expérience de Holger Müller décrite depuis peu dans cela même un web. Ce sont beaucoup d'ordres de grandeur.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3039

Des fontaines et des références :
Un communiqué de presse de l'Université de Berkeley.
Un article dans Nature (un résumé).
L'article sur l'éther d'Einstein.
Einstein recommence à avoir raison.

En voyant à travers d'opaques

En sachant comment mathématiquement la lumière est dispersée par un objet opaque arriver à compenser l'effet et à voir à travers de lui.

matriz_de_transmisionUn objet transparent et opaque avec ses matrices respectives de transmission. Une fontaine : American Physical Society.

Les personnes ne sont pas transparentes, au moins ne sont pas physiquement transparentes. S'ils l'étaient on pourrait regarder à son travers et nous pourrions voir comment ils ont ses organes internes. En ce cas les études d'anatomie deviendraient plus simples et intéressantes, mais la diagnose des certaines maladies serait énormément aussi facilitée. Il ne faudrait pas non plus recourir aux rayons X nuisibles pour savoir s'il y a ou non un tumeur présent. Mais la réalité consiste en ce que la viande humaine est opaque.
La raison médicale est une bonne motivation pour l'étude de comme c'est la dispersion de la lumière dans ces cas. Si de quelque façon nous sommes capables de savoir comment il le fait peut-être pouvoir explorer l'intérieur du corps humain (ou un sein suspect de contenir un tumeur) d'une manière sûre et bon marchée. Bien que cela ait aussi une importance dans l'industrie, comme dans les analyses pas destructives employées dans le contrôle de qualité ou, comme nous verrons plus loin, dans la haute technologie un microélectronique.
Les tissus humains (ou le papier, la peinture, etc.) sont opaques parce que la lumière qui essaie de les traverser se disperse d'une manière compliquée qui semble aléatoire. Parfois ce type de problèmes sont traités du point de vue mathématique comme “des problèmes inversés”. Basiquement, chez un modèle à l'usage, il est connu qu'il entre, il est connu qu'il sort, il est connu comment sont les interactions intérieures (dans le cas ici traité comment se disperse la lumière) et sont faits des changements d'une manière intelligente dans ce qu'il est supposé il y a à l'intérieur pour savoir comme c'est celui-ci, mais de telle manière que le modèle peu importe d'une sortie que les mesures prises dans le monde réel.
C'est pourquoi, toute avance sur ce champ, est intéressante. Récemment un groupe d'hommes de science français de l'ESPCI a montré qu'il est possible de diriger la lumière qui traverse des matériels opaques et de détecter des objets occultes dans son intérieur. Les résultats de l'expérience apparaissent dans Physical Review Letters.
Les enquêteurs ont commencé avec un système simple pour ainsi démontrer que son idée fonctionne. Ils ont concrètement étudié comment se dispersait la lumière dans l'oxyde de zinc, qui est un composant très commun des peintures blanches. En étudiant cela ils ont été capables de construire un modèle numérique basé sur ce qui s'appelle matrice de transmission, qui incluait 65.000 nombres qui décrivent la manière dans laquelle la cape d'oxyde de zinc affecte à la lumière. Alors ils ont utilisé l'information contenue dans cette matrice pour ajuster un faisceau spécifiquement dessiné de lumière qui traversait la cape opaque et qui était dirigée à l'autre côté.
Alternativement, ils ont pu mesurer la lumière qui émergeait de l'opaque et, grâce à l'usage de cette matrice, reconstruire une image d'un objet situé derrière le même.
Peut-être le plus surprenant des résultats consiste en ce que l'expérience montre que les matériels opaques peuvent servir comme éléments optiques de haute qualité, achetables aux lentilles conventionnelles, dès qu'un détail s'est construit une matrice de transmission avec suffisant. En plus de pouvoir voir à travers d'opaques, cette technique ouvre la possibilité c'est pourquoi de ce que les opaques puissent être bons éléments optiques dans des dispositifs à une échelle nanométrique, au niveau auquel la construction de lunettes trasparentes et d'autres composants il est particulièrement difficile.
Appliquée cette technique à des objets relativement transparents on peut utiliser la matrice de transmission pour obtenir des reconstructions topographiques d'échantillons, et ainsi l'utiliser pour suivre des processus dans des cellules vives, par exemple.
Bien qu'il ne soit pas clair si on peut généraliser cette approche à des matériels avec de hauts niveaux de dispersion, il existe, l'espoir de ce que l'on puisse obtenir une information sur l'intérieur de tissus biologiques pas transparents, avec ce que l'on pourrait appliquer au diagnostic médical et à la recherche biologique.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3037

Des fontaines et des références :
Un communiqué de presse dans EurekaAlert.
Un article original (un résumé).
Un reportage dans Physics Spotlight.