Saturday, March 20, 2010

Ils reconstruisent des mouvements à partir des signes cérébraux

Ils réussissent à reconstruire le mouvement 3D d'une main à partir des signes électriques produits par le cerveau en utilisant une méthode pas invasive et portative.

Une photoUn schéma du système de boutons utilisé dans l'expérience. Une fontaine : Bradberry et des collaborateurs.

Lentement, mais sans pause, les neurociencias avancent que c'est une barbarie. Récemment, un groupe d'hommes de science ont réussi à reconstruire le mouvement 3D d'une main à partir des signes électriques produits par le cerveau en utilisant une méthode pas invasive. La réussite, qui a été publiée le 3 Mars passé dans Journal of Neuroscience, aplanirait le chemin à l'utilisation d'un système computacional portative pour le contrôle avec la pensée de bras robóticos ou de chaises roulantes électriques. Cela supposerait une grande avance pour des personnes avec un type de paralysie.
Jusqu'à présent les hommes de science avaient utilisé des méthodes invasives et des systèmes pas portatifs pour la reconstruction des mouvements de la main. Dans cette étude José Contreras-Vidal et ses collaborateurs d'University of le Maryland ont situé des formations de capteurs sur les têtes des cinq participants dans l'expérience et ils ont enregistré l'activité électrique cérébrale en utilisant une soi-disant électroencéphalographie technique.
On a demandé aux volontaires de depuis un bouton central serrer encore huit boutons dans une séquence aléatoire dans 10 groupes (voir un dessin). En même temps qui enregistrait le mouvement de ses mains enregistrait son activité cérébrale.
Après, les enquêteurs se sont consacré à descodificar l'activité cérébrale et ont réussi à associer les mouvements tridimensionnels spécifiques de la main depuis des patrons d'activité électrique.
“Nos résultats montrent que l'activité cérébrale électrique acquise depuis le cuir chevelu porte assez d'information comme pour reconstruire les mouvements continus de la main”, dit Contreras-Vidal.
Les enquêteurs ont trouvé, en particulier, que le capteur 34 proportionnait l'information la plus précise. Ce capteur était placé sur une région du cerveau dénommée un cortex cérébral sensomotriz qui est la région associée aux mouvements volontaires. De plus, les capteurs sur le lobe pariétal inférieur ont aussi proportionné une information utile. Il est connu que cette autre région aide à guider le mouvement des membres. C'est pourquoi, ces résultats confirmeraient la validité de la méthode utilisée.
L'étude a des implications pour le développement futur de technologies qui communiquent le cerveau avec un ordinateur. Quand cette technologie sera mûre elle pourra être utilisée par les personnes qui ont des troubles neuromusculares sévères comme sclérose latérale amiotrófica, ictus ou des lésions médullaires, pour qu'ainsi ils puissent avoir un contrôle sur des travaux complexes sans la nécessité d'avoir des électrodes implantées dans le cerveau.
De plus, ce résultat a une importance du point de vue d'analyse de laboratoire ou de la surveillance clinique de fonctions cérébrales.
Une application intéressante serait le pouvoir aider avec ce type de technique des personnes avec paralysie à contrôler avec la pensée le curseur qui apparaît dans l'écran de son ordinateur. Tout de suite les systèmes qui existent requièrent du patient un long entraînement pour qu'ils puissent avoir un succès. Contreras-Vidal croit que la période d'entraînement pourrait être réduite et avoir besoin de moins d'effort si ce nouveau résultat est tenu en compte.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3033

Des fontaines et des références :
Un communiqué de presse.
Un article dans Journal of Neuroscience (un résumé).
Il interviewe l'enquêteur dans la NPR (podcast en anglais).

La glaciation Sturtian a couvert toute la Terre de glace

Ils trouvent les nouvelles épreuves de ce qu'une cape de glace étendait jusqu'à l'équateur il y a 716,5 millions d'années.

rocas_en_yukonDans ces endroits de l'Yukon des épreuves ont trouvé sur les glaciones Sturtian Le sommet obscur il s'est formé dans les tropiques d'il y a 716 millions d'années. Une fontaine : Francis A. Macdonald/Harvard University.

La vie à la Terre est intimement liée à la géologie terrestre, à la climatologie terrestre ou à notre lieu dans le Cosmos. L'histoire biologique est sujette et a été soumise à toute une infinité d'éventualité. On modifiez une de cette éventualité et cette histoire changera totalement. Mais comme ce sont des expériences réglées par des dés de lancer unique, nous ne pourrons jamais savoir ce qui aurait passé si les choses avaient été distinctes.
Plus de sept cents millions d'années cette planète était pratiquement couverte par la glace due à la glaciation Sturtian. À la période géologique correspondante on l'a nommé Cryogène en cette raison. La vie à la Terre, qui était essentiellement microbiana dans cette époque, était dans des gênes. Si cet âge de la glace avait été un peu plus cruel, ici nous n'aurions pas n'été pas aucun pour philosopher sur ce sujet, ou au moins pas encore. Pero la Naturaleza s'est montré miséricordieux, les glaces se sont retirées et un oxygène s'est libéré. Alors sont probablement apparues, pour la première fois, les premières formes complexes de vie pluricellulaire.
Savoir comment intense a été cette glaciation ou jusqu'à où elle s'est étendue est, donc, important à l'heure de comprendre l'histoire biologique de la Terre et nos origines les plus lointaines. En cette raison ce sujet a été un sujet de discussion chauffée entre les experts du champ. D'un côté il sont, ceux qui soutiennent que la glaciation n'a pas complètement couvert la planète et par l'autre ceux qui disent que oui il l'a fait. Nous avons déjà couvert ce sujet dans NeoFronteras quelques fois.
Maintenant, un groupe de géologues ont trouvé les nouvelles épreuves de ce qu'un océan de glace étendait jusqu'à l'équateur il y a 716,5 millions d'années, en proportionnant une plus grande précision à l'étude de cet événement “d'une boule glacée” ou “d'une boule de neige“.
Le groupe d'hommes de science, été à la tête par des hommes de science de l'Université de Harvard, ils ont basé son étude sur les roches anciennes tropicales qui peuvent se trouver maintenant dans une région lointaine du nord-ouest du Canada (la dérive continentale les aurait portées dans ce temps beaucoup plus au nord de sa localisation originale tropicale). Ils ont publié que sa trouvaille dans Science, par essence, qui viendrait à corroborer le fait de la Terre était totalement couverte par la glace pendant cette époque.
Selon Francis A. Macdonald, du département de la Terre et de Sciences Planétaires de l'université avant mentionne, ce serait la première fois qui est démontrée que la glaciation Sturtian s'est rendue dans des latitudes tropicales. Selon les données obtenues par cet homme de science et ses collaborateurs, cette glaciation a duré, comme un minimum, 5 millions d'années.
La survie de la vie eucariota le long de cette période indique qu'il y avait une eau disponible liquide superficielle et une lumière du soleil sur la Terre. Les premiers animaux ont surgi par cette époque et ils ont donné lieu à la plus grande prolifération d'eucariotas une connaissance.
Même pendant une glaciation globale comme celle-ci, il y avait une pente de température sur la Terre, en lui donnant une dynamique dans la glace : son flux, son amaigrissement et la formation pièces d'eaux ouvertes qui ont proportionné un refuge à la vie.
Selon Macdonald, le registre fossile suggère que, avec l'exception possible des animaux, tous les groupes principaux d'eucariotas existaient avant la glaciation Sturtian. La question est si s'est rendu un phénomène de boule de glace sur la planète: comment ont survécu les eucariotas ?: l'apparition des animaux a-t-elle stimulé cette période ?
“Du point de vue évolutif c'est pas toujours une mauvaise chose pour la vie terrestre confronter un stress sévère”, ajoute-t-il.
Les roches analysées par ces hommes de science proviennent des territoires de l'Yukon au Canada et montrent des dépôts et d'autres signes de glaciation. Ils ont été capables de décider, étant basé sur le magnétisme et sur la composition de ces roches carbonifères là opposées, qu'il y a 716,5 millions d'années se trouvaient à 10 degrés de latitude.
Gráce à l'hauteur albedo proportionné par la glace, les modèles climatiques il y a longtemps qui prédisent que si les océans sont couverts par la glace jusqu'aux 30 degrés de latitude, alors tout l'océan se congèlerait rapidement. Selon Macdonald les nouveaux résultats indiqueraient que la glace se trouverait à toutes les altitudes pendant la glaciation Sturtian.
Les hommes de science ne savent pas ce qui a causé cette glaciation ou ce qui l'a terminée, mais cet enquêteur dit que cet âge de 716,5 millions d'années cadre avec l'âge d'une grande région ignée de 1500 kilomètres qui va de l'Alaska à l'Île Ellesmere. Cela ferait coïncider la glaciation, ou son terme, avec une grande activité volcanique.
Si l'activité volcanique a mis fin à cette glaciation nous aurions à être alors très reconnaissants à ces volcans, parce que nous serions ici grâce à ceux-ci.
Cet événement n'a pas été celui unique il a défié le glacier auquel la vie à la Terre a survécu. On croit qu'il fait 2300 millions ans un autre événement similaire il a aussi couvert toute la planète de glace. Mais c'est une autre histoire.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3034

Des fontaines et des références :
Un communiqué de presse de l'Université de Harvard.
Un article dans Science (un résumé).
Une crise biologique préalable à la boule de neige.
Le premier m®tazoo (pour l'instant).
Sur le changement climatique d'il y a 635 millions d'années.
Une nouvelle théorie sur l'explosion du Cambrien.
Sur le retard dans l'apparition de la vie complexe.

Download House S06E15 Black Hole free

Friday, March 19, 2010

Ils mesurent l'âge de l'Univers avec une autre méthode

Ils mesurent l'âge de l'Univers grâce à l'effet de lentille gravitationnelle avec une précision sans précédents.

B1608L'effet de lentille gravitationnelle de B1608+656 a été utilisé pour calculer l'âge de l'Univers. Une fontaine : Sherry Suyu of the Argelander Institut für Astronomie.

Il y a quelques années, il ne fait pas tant de temps, nous ne savions pas l'âge de l'univers précisément. Plus que l'on nous disait c'était que l'Univers avait un âge compris entre les 10.000 millions d'années et les 20.000 millions d'années. Dès que l'on assumait que son âge marchait probablement probablement par les 15.000 millions d'années. Après, grâce aux données de WMAP du fond cosmique de microonde, on a vu que l'âge réel s'approchait assez de ce nombre, bien qu'un peu par dessous : 13.700 (± 130) des millions d'années.
Évidemment le WMAP ne pointe pas à une région de ciel où l'âge de l'Univers est écrit, mais celle-ci est indirectement inférée à partir des données physiques. Concrètement WMAP mesure les fluctuations du fond de radiation. À partir de là la densité de masse - énergie est calculée et en utilisant la Relativité Générale on peut trouver son âge en assumant un Univers plat (un type de géométrie appuyée par des mesures de WMAP). Mais quelqu'un avec un esprit critique (une chose indispensable dans une science) pourrait dire que seulement à partir d'un type de mesures nous ne pouvons pas être sûrs de comment d'un vieux est l'Univers où nous vivons, que sont nécessairees d'autres méthodes distinctes qui corroborent ce chiffre.
Eh bien, on vient de connaître qu'une équipe internationale d'hommes de science a récemment réalisé cela, en arrivant à un nombre assez pareil.
Pour réaliser cette étude ils se sont servis des lentilles gravitationnelles galactiques et sont arrivés à un âge de l'Univers fondé sur 13750 millions d'années avec une erreur de 170 millions d'années. De plus, le résultat confirme la force de l'énergie obscure, qui se croit qu'elle est la responsable de l'accélération de l'expansion d'Univers. Ces enquêteurs ont utilisé des données obtenues à partir des images prises pour le télescope spatial Hubble.
Selon la Relativité Générale la présence de masse - énergie fait que l'espace - temps se courbe autour de lui. De cette façon, les rayons de lumière qui passent près de cette région ne suivront pas de lignes droites mais géodésiques, qui sont l'équivalent des lignes dans des espaces courbes. Si la concentration de masse est très élevée (que dans ce cas nous supposerons que ce soit une galaxie) la courbure elle sera prononcée et la lumière originaire d'un objet distant (en général une autre galaxie) situé juste derrière la lentille gravitationnelle il souffrira d'une trajectoire telle l'observateur pourra le voir, bien que déformé. Il est comme si la concentration de masse agissait à la manière d'une lentille pour l'observateur. Une galaxie d'aspect ponctuel sera vue comme une multitude de points (une croix d'Einstein) ou quelques arcs, qui correspondront à des chemins distincts pris pour la lumière. Dans le cas d'un alignement presque parfait un anneau sera vu.
Appliqué l'effet à ce cas, il s'agit de mesurer les distances parcourues par la lumière originaire de l'objet du fond pour chaque chemin pris. En tenant en compte le temps nécessaire pour voyager en chaque chemin les enquêteurs peuvent pas seulement conclure combien d'un arrière-plan trouve la galaxie, mais de plus l'échelle de l'Univers et de détails sur l'expansion du même. Certains de ces aspects viennent déterminés à la constante de Hubble qui nous dit la taxe de vitesse de récession avec la distance.
Il est fréquemment difficile pour les experts de distinguer entre une brillante lumière lointaine et autre plus voisine mais plus faible. L'effet de lentille gravitationnelle résout ce problème après avoir proportionné des pistes multiples.
Selon Phil Marshall, du KIPAC, bien que l'on n'eût antérieurement jamais utilisé cet effet de la lentille gravitationnelle pour ne mesurer la constante de Hubble il avait été fait par tant de précision.
Bien que les astrophysiciens ne sachent pas quand la lumière abandonne la fontaine qui l'a produite, ils peuvent comparer les temps d'arrivée. Marshall utilise une analogie pour expliquer le phénomène. Selon lui, il est comme s'il partageait quatre automobiles depuis un point à côté d'une grande ville et en suivant différents chemins ils entoureront la ville précitée jusqu'à converger dans un point à l'autre côté. Les temps d'arrivée dépendraient des chemins pris. La plus longue c'était la route plus de temps il porterait la parcourir.
Les équations qui contrôlent les lentilles gravitationnelles peuvent tenir en compte des variables comme la distance et la densité de matière et proportionner une meilleure idée de quand la lumière a abandonné la galaxie et combien a voyagé.
Dans le passé cette méthode était remplie des erreurs, mais maintenant l'erreur est comparable avec celui d'autres méthodes. Bien qu'ils aient à encore tenir en compte des certains facteurs. Ainsi par exemple, la poussière dans la galaxie qui fait d'une lentille affectionnée à la lumière qui la traverse, c'est pourquoi l'Hubble dispose des filtres infrarouges pour éliminer cet effet. Les images contiennent aussi l'effet d'autres galaxies proches de ligne de vision qui participent à l'effet de lentille gravitationnelle.
Cette équipe d'enquêteurs veut étendre son étude à plus de cas. Ils ont déjà trouvé 20 objets susceptibles d'être étudiés.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3030

Des fontaines et des références :
Un communiqué de presse dans l'Université de Stanford avec vidéo.
Preprint de l'article original dans arXiv.
Un vidéo dans uni-bonn (l'anglais).
Il remarque dans EurekaAlert.
Il remarque dans KIPAC.

Secuencian le génome de Naegleria

La succession du génome de Naegleria aide à comprendre comment a été le premier eucariota, à borner le génome minimal et à analyser les routes métaboliques exotiques qui de plus peut-être peuvent servir des sources d'énergie.

naegleriaNaegleria dans une phase flagellée. Une fontaine : Lillian Fritz-Laylin, UC Berkeley.

L'importance scientifique d'une découverte ou son importance mediática parfois ils ne coïncident pas. La découverte d'un nouveau fossile de dinosaure, avec ou sans plumes, a l'habitude d'avoir un certain impact mediático. Mais les dinosaures, si cinématographiques ils, ne sont pas nos aïeux biologiques, ils ne devraient pas avoir tant d'importance, bien qu'ils excitent notre imagination. Même la faune de Burguess Shale, avec ses créatures étrangères, ils n'ont pas l'habitude d'importer beaucoup, bien qu'elle soit racontée par la prose magnifique de Steven J. Gould. C'est pourquoi, si nous nous élevons encore plus en arrière dans le temps, et nous parlons des microorganismes, il est normal que les gens avec peu de préoccupations passent du sujet dans une question.
Mais les microorganismes sont les rois de la création. Ils ont été les habitants uniques de cette planète pendant des milliers de millions d'années et, encore aujourd'hui, la vie à la Terre serait impossible sans ceux-ci. Ce sont à peu près que des attachés des microorganismes sophistiqués. Dans chaque cellule de notre corps, elles vivent encore dans endosimbiosis, les mitocondrias, quelques bactéries dégénérées qui nous fournissent une énergie. Même en ignorant il est fait, vous, un ami lecteur, il a dans son corps 10 bactéries à chaque cellule somatique.
L'histoire de la vie est une longue histoire, avec des événements uniques, les événements fondamentaux qui l'ont changée pour toujours. L'une de ces transitions a été le pas de cellules procariotas sans noyau, comme les bactéries et tu arques, à des cellules eucariotas nucléaires. On croit que cet événement est arrivé environ 1500 millions d'années. Presque nous n'avons pas de restes fossiles de cette époque, dès que nous elle avons à nous arranger à vérifier qu'il a passé. L'une des manières est de regarder dans des génomes d'espèces distinctes. Dans ces livres génétiques une partie de cette histoire est racontée si nous faisons un exercice “d'une littérature comparative”. C'est l'une des raisons par lesquelles des séquences organismes : pour plus savoir sur le passé.
L'un des génomes récemment secuenciado est celui de Naegleria gruberi. Cette créature est assez propre du point de vue biologique et son génome peut nous aider à comprendre la transition de procariotas à eucariotas.
Le travail, ils ont porté à un terme, les hommes de science du Department of Energy Joint Genome Institute (JGI) de l'Université de Berkeley et les experts de l'Université de Lancaster en Royaume-Uni.
Naegleria est une amibe commune du sol qui se consacre à la chasse de bactéries. Les exemplaires secuenciados se sont isolés, dans ce cas, de la boue d'une futaie d'eucalyptus dans le campus de l'Université de Berkeley. Quand cet organisme se trouve sous stress ils lui grandissent, les fouets, qui sont orgánulos similaires à celui des spermatozoïdes, et il se met à nager en recherche de meilleurs territoires. De plus, il a une troisième identité; si les conditions du sol deviennent très dures, de l'époque il se transforme en kyste dur et attend de meilleurs temps.
Selon Simon E. Prochnik, un processus comme celui-ci de se transformer en flagellé à partir de l'état ameboideo est très rare.

Une photoUne microphotographie par une microscopie électronique de balayage (une gauche) de la phase de kyste de Naegleria. À la phase droite ameboidea du même microorganisme. Une fontaine : Lillian Fritz-Laylin, UC Berkeley.

Prochnik et ses collaborateurs ont découvert que cet organisme a, logiquement, des paquets de gènes consacrés à toutes ces "personnalités". Son génome contient pas moins de 15.727 gènes codificateurs de protéines, que c'est un nombre comparable avec 23.000 chez des humains.
La raison à laquelle Naegleria a tant de gènes découle de son style de vie compliqué. La majorité des organismes unicelulares ont peu de gènes. Selon Prochnik, à l'être un organisme si versatile, son génome doit contenir l'information nécessaire pour survivre dans la variété d'atmosphères dans lesquelles il le fait et sous les gammes distinctes du stress qu'il est soumis.
Ces enquêteurs ont comparé le génome de Naegleria au génome 16 eucariotas qui allaient des champignons aux humains en passant par des plantes et des protozoaires. Un organisme libre le non parasite, qui n'a pas perdu une partie de ses gènes et de fonctions, a permis une plus vaste comparaison à l'être et il permet de trouver plus de protéines qui étaient dans les eucariotas ancestraux. Ils ont identifié l'ensemble de 4000 gènes qui, selon ces hommes de science, est probablement partie du génome le plus primitif eucariota.
Le nombre opposé de gènes ont surpris les enquêteurs parce que dans les comparaisons préalables, qui incluaient aux microorganismes des parasites, il a passé par un nombre inférieur, probablement à cause que les parasites délèguent une partie de ses fonctions aux gènes de l'être qui les loge. Ce résultat peut aider à déterminer, donc, le nombre minimal de gènes qui permettent une vie indépendante.
C'est la première génétique comparative qu'il inclut pas seulement à Naegleria, mais de plus à des représentants des six groupes d'eucariotas secuenciados, comme chromalveolata, diatomeas, le microorganisme causant de la malaria, les microbes de marée rouge, d'amibes ou de parasites comme giardia.
Entre d'autres résultats intéressants de cette étude il est qu'il peut aider à jeter une lumière sur comment les cellules se sont déplacées, comment les unes envoient des signes aux autres ou comment ils métabolisent des nutriments.
Naegleria use pseudópodos dans sa phase ameboidea dans ses déplacements pour chasser des bactéries, mais quand la nourriture disparaît il développe des fouets depuis “la rien” et les utilise pour nager à de meilleurs territoires de chasse. Mais les pseudópodos et les fouets utilisent différentes protéines pour le mouvement. Le premier basé dans actina qui crée un échafaudage à l'intérieur de la cellule. Le deuxième est basé sur le tubulina. Comme cet organisme a les deux systèmes il peut aider les hommes de science à comprendre l'origine de ce système parallèle pendant l'évolution des eucariotas.
Quand les hommes de science ont soumis des populations de Naegleria à un manque d'aliment ils ont vérifié que presque toutes changeaient rapidement à sa forme flagellée, par ce que le changement du système basé dans actina à l'autre de microtúbulos est hautement réglé et synchronisé dans toute la population.
Le génome de ce microorganisme révèle aussi comment il produit une énergie. Il peut utiliser de l'oxygène pour "brûler" des nutriments comme glucose ou des acides gras, ou, s'il n'y a pas d'oxygène, utiliser d'autres nutriments et routes métaboliques, en produisant l'hydrogène comme sous-produit. Ce dernier mécanisme lui permet de survivre à l'hipoxia dans l'atmosphère fangeuse où il vit. Un de ces experts spécule que peut-être cela peut servir à produire des biocombustibles si réussit à se comprendre bien cette dernière route métabolique.
La succession du génome de Naegleria est encore un pas. La comparative entre soi de plus de génomes de l'arbre évolutif des eucariotas nous aidera à comprendre l'évolution d'animaux plus complexes et à commencer à comprendre d'où venons nous. Parce que la science basique cherche à répondre seulement aux questions basiques habituelles : d'où venons-nous ?: quoi est-ce que nous sommes ?: adónde allons-nous ? … Ces hommes de science ont aidé un peu plus à éclaircir comment c'était le tataratatara … taratabuelo microbiano de vous, un amant lecteur.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3031

Des fontaines et des références :
Un communiqué de presse d'UC Berkeley avec vidéo.
Un article dans Cell (un résumé).

Thursday, March 18, 2010

Ils découvrent un antihipernúcleo

Ils réussissent à synthétiser un noyau d'antimatière composé par trois nucleones qu'un quark étranger contient.

antihipernucleo

Selon le modèle standard de particules, la matière est organisée chez trois familles. La première est formée par le quark là-haut, le quark en bas (les deux rapports constituants de neutrons et de protons), l'électron et le neutrino de l'électron (les deux leptones). La deuxième est formée par le quark enchanté, le quark étranger, et les leptones muón et neutrino muónico. La troisième famille est composée par les quark un sommet et un fond et les leptones tau et neutrino du tau. Toutes ces particules ont un spin semientier et c'est pourquoi ils sont fermiones (qui répondent à la Statistique de Fermi-Dirac). Pour organiser ces particules ils sont : les gluones (littéralement “pegamentones”) que les quarks unissent entre soi, en étant les responsables de la force nucléaire forte; les photons, des responsables des interactions électromagnétiques; et les particules W +, le W - et Z0 qui contrôlent les désintégrations et sont les responsables de la force nucléaire faible. Ces particules médiatrices ont toutes un spin entier et ils répondent à la statistique de Bose-Einstein, ils sont, donc, bosones.
Deux conclusions sont sorties de tout cela. La première consiste en ce que, depuis que se sont épuisées les lettres grecques pour les particules composées et les Nord-Américains sont entrés sur ce champ de la Physique de Hautes Énergies, s'utilise une terminologie assez peu élégante pas basée sur des mots gréco-latins. La deuxième consiste en ce que toute la matière qui nous entoure, nous voyons et nous frappons est seulement formée par la première famille du modèle. Le reste semble rester. Ainsi par exemple, nous pouvons seulement avoir des protons et des neutrons à coups de quarks là-haut et en bas. Avec neutrons et protons nous pouvons créer les noyaux de tous les éléments de la planche périodique, y compris ses isotopes, et en ajoutant des électrons nous avons les atomes.
Pour obtenir les particules de la deuxième et troisième des familles, ou des combinaisons d'elles, il faut rassembler beaucoup d'énergie dans un point, et attendre que se forment d'une manière spontanée des particules exotiques, grâce à équivalent une masse - énergie, bien qu'à un peu de temps ils se désintègrent dans des particules plus courantes. Des paires de particule - antipartícula se forment souvent.
Quelque chose de pareil a succédé au commencement du Big-Bang, quand se sont formées plusieurs de ces particules exotiques, mais toutes ont disparu à un peu de temps. Maintenant ils se rendent seulement dans des phénomènes naturels de hautes énergies ou dans nos accélérateurs.

colision_en_RHICDans chaque collision du RHIC se produisent les centaines de particules qu'il faut analyser. Dans ce cas grâce au détecteur STAR. Une fontaine : Brookhaven National Laboratory.

La synthèse de particules à partir d'une énergie n'est pas simple, plus d'emmerdeuses sont les particules à synthétiser plus d'énergie on a besoin de lui, et les particules de la deuxième et troisième famille sont assez lourdes (de plus en plus d'emmerdeuses). De plus, il n'est pas possible d'obtenir quarks isolés dès qu'il faut créer des particules composées (bariones ou des auberges) qu'ils les contiennent. La manière pour le faire est d'accélérer des particules courantes dans un accélérateur jusqu'à une vitesse proche de celle de la lumière (la vitesse envers laquelle ils ont beaucoup d'énergie cinétique) et les faire heurter entre soi. Pour pouvoir faire cela les particules dans une question elles ont à être lourdes eléctricamente et profiter des champs électromagnétiques pour pouvoir les accélérer et les confiner.
De plus, comme il tarde un temps à les accélérer, et on ne peut pas construire un très long tunnel, les fait être tourné dans un anneau. Ici le premier problème surgit. Toute particule chargée dans accélération (et elle forcer depuis à tourner dans des cercles est une forme d'accélération) émet une radiation sincrotón, en perdant une énergie dans le processus. Dès que, pour atteindre une haute énergie, il est nécessaire de mettre plus d'énergie qu'il est perdu par radiation sincrotón.
Une manière de le résoudre est d'utiliser les particules lourdes (comme par exemple des protons), qui sont en général particules composées qui ne donnent pas de collisions propres, mais qui permettent d'atteindre beaucoup d'énergie sans beaucoup de perte par radiation sincrotón. Le comble du comble est de faire choquer des noyaux d'atomes pesés comme l'or, en faisant des ions de cet élément circuler par un accélérateur.
Une installation qui se consacre précisément à ce travail est le Colisionador d'Ions Lourds Relativistas ou RHIC dans Brookhaven National Laboratory. Il consiste en accélérateur de presque quatre kilomètres de circonférence. Récemment, les hommes de science qui travaillent là ont synthétisé l'antinoyau (le noyau composé par des particules d'antimatière) plus massif jusqu'à la date, en publiant sa trouvaille dans Science Express le quatre mars passé.
Comme c'est un antinoyau il a une charge électrique négative au lieu d'un positif. Dénommé antilambda contient concrètement un antiproton, un antineutron et une particule neutre. C'est le premier antinoyau dans être créé qu'un antiquark étranger contient, puisque cet antilambda contient un antiquarks arrive, un antiquark en bas et un antiquark étranger.
Selon Horst Stoecker, de l'Association allemande Helmholtz, cette découverte pourrait avoir quelques conséquences sans précédents dans notre vision du monde, puisque cette antimatière ouvrirait la porte à une nouvelle dimension dans la lettre de noyaux. Jusqu'à il y a peu on croyait que la synthèse de ce type de noyaux était impossible.
Cette découverte pourrait aider à la création de modèles d'étoiles de neutrons et quand une fraction a exploré les asymétries fondamentales dans l'univers primitif, juste deuxième après le Big-Bang.
Les physiciens qui se consacrent à cette affaire utilisent fréquemment les tréteaux périodiques des éléments qui sont tridimensionnels. Dans celles-ci les isotopes distincts sont pas tenus en compte, mais un nombre quantique extra dénommé étonnement qui dépend de la présence de quarks des étrangers. Pour la matière ordinaire ce nombre quantique vaut un zéro. Quand il y a plus de l'un de ces quarks alors à ces noyaux on les nomme hypernoyaux ou antihipernúcleos s'ils sont d'une antimatière. Cette découverte consiste en synthèse du premier antihipernúcleo.

tabla_periodica_3DLa planche périodique dans laquelle est tenu en compte l'étonnement (l'axe vertical), le nombre de protons (Z) et le nombre de neutrons (N). La partie négative des axes correspondent aux antiparticules. Les antiéléments sont dénotés par une ligne horizontale sur son symbole. Le noyau reciéntenme découvert est en bas à la gauche marqué est rose. Une fontaine : Brookhaven National Laboratory.

Chez des vedettes paralysées, comme une vedette de neutrons, il peut arriver que l'étonnement n'est pas nul, donc cette trouvaille pourrait aider à distinguer entre les modèles qui décrivent les états exotiques de la matière qui essaient d'expliquer ces objets. Sur le passé on a spéculé sur l'existence possible d'objets paralysés composés principalement de matière étrangère (de quarks des étrangers).
Cette trouvaille pourrait aider à comprendre de plus la violation de la symétrie fondamentale entre une matière et une antimatière. Comme nous savons déjà, pendant le Big Bang un excès de matière s'est produit sur une antimatière et en cette raison l'Univers n'est pas seulement un nuage de radiation, mais il y a une matière et pratiquement il n'y a pas d'antimatière. Ce problème de l'asymétrie de matière - antimatière constitue un problème encore pour résoudre dans la Physique.
Avec le RHIC certains microsecondes atteignent une densité d'énergie comparable avec les existantes après le Big Bang, mais dans les collisions entre des ions d'or ils se produisent quarks et antiquark dans la même quantité. La rupture de cette symétrie a eu à se produire, donc, à une énergie encore plus grande ou à être très subtil. Pour pouvoir essayer de résoudre ce mystère on peut s'agir de mesurer des déviations subtiles entre une matière et une antimatière. Zhangbu Xu, du Brookhaven, croit qu'il y a bons des expectatives dont des mesures futures dans le RHIC permettent de résoudre ce mystère. L'équipe du détecteur STAR a trouvé que la taxe à laquelle les antinoyaux elle est produite est consistante avec l'espéré si nous nous basons sur la statistique de la soupe de quarks qui est généré dans les collisions. En extrapolant les résultats obtenus, les hommes de science de cette institution croient qu'ils pourront découvrir des antinoyaux encore plus pesés dans les proches collisions. Il y a des prédictions selon lesquelles il y a des noyaux le double de pesés que le découvert que des étrangers contiennent quarks et qu'ils peuvent être spécialement stables.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3032

Des fontaines et des références :
Un communiqué de presse de Brookhaven National Laboratory.

Wednesday, March 17, 2010

Ils vérifient la validité de la Relativité Générale

Encore une fois la Relativité Générale, proposée par Einstein presque il y a un siècle, sort victorieuse d'autre épreuve, de cette fois à une échelle cosmologique.

sloan_400Une carte partielle du ciel confectionné avec données du projet Sloan. Il représente une “portion de tarte” de l'univers de 7000 millions d'années-lumière de rayon. Une fontaine : M. Blanton, Sloan Digital Sky Survey.

L'apparition de la matière et de l'énergie obscure dans une scène a fait douter des théories établies. Selon la tradition, qui a commencé avec l'éther du XIXe siècle, peut-être l'énergie et la matière obscure n'existent pas réellement, et tout est le résultat de notre mauvaise compression de l'Univers. Une cible de cette mauvaise compréhension a été la Relativité Générale, la théorie que, sous cette philosophie, il faudrait réviser ou être substitué par l'autre meilleure qu'il expliquera les observations sans la nécessité de recourir à des énergies et à des matières énigmatiques. À la chaleur de ce mouvement intellectuel des candidates ont surgi quelques théories.
Maintenant, l'analyse de plus de 70.000 galaxies de la part des hommes de science des universités de Berkeley, Zurich et Princeton démontre que l'Univers, au moins jusqu'à une distance de 3500 millions d'années-lumière de nous, fonctionne sous les règles de la Relativité Générale (RG) et produit des résultats meilleurs que les obtenus par d'autres théories alternatives.
Dans son analyse ils ont tenu en compte le regroupement dans des tas de ces galaxies, de ses vitesses et la distorsion introduite dans la lumière par la matière impliquée. L'une des conséquences auxquelles ils arrivent dans cette étude consiste en ce que la matière obscure est la meilleure explication pour décrire le mouvement des tas de galaxies.
“Le meilleur d'aller à des échelles cosmologiques consiste en ce que nous pouvons vérifier toute théorie alternative de la gravité, parce qu'il doit prédire les choses que nous observons”, dit les Aurochs Seljak.
En particulier la théorie TeVeS que la RG modifie pour éviter l'existence de la matière obscure a complètement prononcé l'épreuve. Selon cette théorie alternative, l'accélération causée par la force gravitationnelle sur un corps ne dépendrait pas seulement de sa masse, mais de plus il dépendrait de la propre accélération produite par la gravité.
De plus, les résultats contredisent un rapport fantôme l'année passée selon laquelle, l'Univers primitif, d'entre il y a 11000 et 8000 millions d'années, a dévié de la description de la RG.
La découverte de l'énergie obscure, une force énigmatique qui accélère l'expansion de l'Univers, a donné lieu à l'apparition des théories f (R), selon lesquelles on peut expliquer l'accélération de l'expansion sans nécessité d'énergie obscure.
Mais se mettre à l'épreuve ces théories n'est pas facile. Normalement, dans les expériences cosmologiques on essaie de détecter des fluctuations dans le fond cosmique de radiation, mais les théories de gravité prédisent des relations entre une densité apparente et une vitesse ou entre densité et des fonctionnalités gravitationnelles.
Selon Seljak, la taille des fluctuations, par le même, ne nous dit rien au sujet de la théorie possible qui peut exister dessous. Il ajoute que la nouveauté de cette nouvelle technique consiste en ce qu'il ne dépend pas de la grandeur de ces fluctuations.
Tout a commencé il y a trois ans quand Pengjie Zhang de l'observatoire du Shanghai a suggéré d'utiliser une quantité appelée EG pour se mettre à l'épreuve les modèles. EG reflète la quantité de regroupement dans les galaxies observables et la quantité de distorsion introduite dans la lumière après avoir traversé les galaxies, ou un effet “d'une faible lentille”. La faible lentille peut faire, par exemple, que nous voyons une galaxie ronde comme si elle était ovale. EG est proportionnel à la densité moyenne de l'Univers et inversement proportionnel au taux de croissance de structures dans lui. Selon Seljak, cela permet d'échapper à l'étendue de fluctuations du fond cosmique et de se concentrer directement sur une combinaison particulière qui est sensible aux modifications de la RG.
En utilisant des données de plus de 70.000 galaxies distantes brillantes du projet Sloan, cet enquêteur et ses collaborateurs ont calculé EG et ils l'ont comparé aux prédictions qui pour EG font les théories TeVeS, f (R) et RG avec une constante cosmologique (qu'il se rendrait compte de l'énergie obscure) et une matière obscure froide. Une valeur s'est trouvée observacional pour EG de 0,39.
Les prédictions de TeVeS pour EG sont sorties en dehors des limites d'erreur observacional, tandis que f (R) il produisait une valeur d'EG en dessous de l'observé (bien qu'encore dans la barre d'erreur). Cependant, la valeur d'EG proportionnée par la RG cadrait très bien avec les données observacionales.
Dans un effort, pour réduire l'erreur, et pour être certainement butiné de la f (R), Seljak espère agrandir ses analyses avec le catalogue BOSS, qui contiendra des données d'un million de galaxies et qui sera disponible dans environ cinq années. Pour réduire l'erreur d'un facteur de dix on requerrait un projet plus ambitieux, comme le BigBOSS déjà proposé et dans une attente d'être mention passable. Des missions futures spatiales comme la JDEM de la NASA ou la mission Euclides de CELA pourraient aussi aider dans cet objectif.
D'un autre côté Glenn Starkman, de Case Western Reserve University au Cleveland dit que l'EG sera utile pour des batteries futures de test auxquels soumettre toutes ces théories. Cet enquêteur et ses collaborateurs viennent de vérifier que l'une de ces théories, dénommée “Éther d'Einstein”, et qu'il utilise un nouveau champ pour remplacer en même temps une matière et une énergie obscure, il n'explique pas les patrons qui se voient dans le fond cosmique de radiation.
En définitive, c'est un soulagement que de nouvelles expériences et observations commencent éliminer tant de théories qui avaient dernièrement proliféré.
Il n'arrête pas d'est incroyable que la RG fonctionne si bien à ces échelles cosmologiques et elle le fait aussi à l'une dix-millième d'un millimètre, comme dans l'expérience de Holger Müller décrite depuis peu dans cela même un web. Ce sont beaucoup d'ordres de grandeur.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3039

Des fontaines et des références :
Un communiqué de presse de l'Université de Berkeley.
Un article dans Nature (un résumé).
L'article sur l'éther d'Einstein.
Einstein recommence à avoir raison.

En voyant à travers d'opaques

En sachant comment mathématiquement la lumière est dispersée par un objet opaque arriver à compenser l'effet et à voir à travers de lui.

matriz_de_transmisionUn objet transparent et opaque avec ses matrices respectives de transmission. Une fontaine : American Physical Society.

Les personnes ne sont pas transparentes, au moins ne sont pas physiquement transparentes. S'ils l'étaient on pourrait regarder à son travers et nous pourrions voir comment ils ont ses organes internes. En ce cas les études d'anatomie deviendraient plus simples et intéressantes, mais la diagnose des certaines maladies serait énormément aussi facilitée. Il ne faudrait pas non plus recourir aux rayons X nuisibles pour savoir s'il y a ou non un tumeur présent. Mais la réalité consiste en ce que la viande humaine est opaque.
La raison médicale est une bonne motivation pour l'étude de comme c'est la dispersion de la lumière dans ces cas. Si de quelque façon nous sommes capables de savoir comment il le fait peut-être pouvoir explorer l'intérieur du corps humain (ou un sein suspect de contenir un tumeur) d'une manière sûre et bon marchée. Bien que cela ait aussi une importance dans l'industrie, comme dans les analyses pas destructives employées dans le contrôle de qualité ou, comme nous verrons plus loin, dans la haute technologie un microélectronique.
Les tissus humains (ou le papier, la peinture, etc.) sont opaques parce que la lumière qui essaie de les traverser se disperse d'une manière compliquée qui semble aléatoire. Parfois ce type de problèmes sont traités du point de vue mathématique comme “des problèmes inversés”. Basiquement, chez un modèle à l'usage, il est connu qu'il entre, il est connu qu'il sort, il est connu comment sont les interactions intérieures (dans le cas ici traité comment se disperse la lumière) et sont faits des changements d'une manière intelligente dans ce qu'il est supposé il y a à l'intérieur pour savoir comme c'est celui-ci, mais de telle manière que le modèle peu importe d'une sortie que les mesures prises dans le monde réel.
C'est pourquoi, toute avance sur ce champ, est intéressante. Récemment un groupe d'hommes de science français de l'ESPCI a montré qu'il est possible de diriger la lumière qui traverse des matériels opaques et de détecter des objets occultes dans son intérieur. Les résultats de l'expérience apparaissent dans Physical Review Letters.
Les enquêteurs ont commencé avec un système simple pour ainsi démontrer que son idée fonctionne. Ils ont concrètement étudié comment se dispersait la lumière dans l'oxyde de zinc, qui est un composant très commun des peintures blanches. En étudiant cela ils ont été capables de construire un modèle numérique basé sur ce qui s'appelle matrice de transmission, qui incluait 65.000 nombres qui décrivent la manière dans laquelle la cape d'oxyde de zinc affecte à la lumière. Alors ils ont utilisé l'information contenue dans cette matrice pour ajuster un faisceau spécifiquement dessiné de lumière qui traversait la cape opaque et qui était dirigée à l'autre côté.
Alternativement, ils ont pu mesurer la lumière qui émergeait de l'opaque et, grâce à l'usage de cette matrice, reconstruire une image d'un objet situé derrière le même.
Peut-être le plus surprenant des résultats consiste en ce que l'expérience montre que les matériels opaques peuvent servir comme éléments optiques de haute qualité, achetables aux lentilles conventionnelles, dès qu'un détail s'est construit une matrice de transmission avec suffisant. En plus de pouvoir voir à travers d'opaques, cette technique ouvre la possibilité c'est pourquoi de ce que les opaques puissent être bons éléments optiques dans des dispositifs à une échelle nanométrique, au niveau auquel la construction de lunettes trasparentes et d'autres composants il est particulièrement difficile.
Appliquée cette technique à des objets relativement transparents on peut utiliser la matrice de transmission pour obtenir des reconstructions topographiques d'échantillons, et ainsi l'utiliser pour suivre des processus dans des cellules vives, par exemple.
Bien qu'il ne soit pas clair si on peut généraliser cette approche à des matériels avec de hauts niveaux de dispersion, il existe, l'espoir de ce que l'on puisse obtenir une information sur l'intérieur de tissus biologiques pas transparents, avec ce que l'on pourrait appliquer au diagnostic médical et à la recherche biologique.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3037

Des fontaines et des références :
Un communiqué de presse dans EurekaAlert.
Un article original (un résumé).
Un reportage dans Physics Spotlight.

Tuesday, March 16, 2010

Plus de résultats sur le flux obscur

On a réussi à suivre le mouvement des objets impliqués dans le flux obscur jusqu'à une distance le double de ce qui avait été fait jusqu'à présent. L'effet semble persister.

Abell_1656Le tas Abell 1656, ou un tas de Coma, participe au flux obscur. Une fontaine : Jim Misti (Misti Mountain Observatory).

Depuis peu nous voyions dans NeoFronteras quelques résultats qui semblaient confirmer l'existence du flux obscur. Apparemment, le mouvement des certains tas de galaxies dans la même direction peut être interprété comme s'ils étaient attirés par quelque chose au-delà du bord de notre univers visible, peut-être inclus par un autre univers. Il est possible qu'il découle d'une grande concentration de matière, mais cela semble impossible qu'il succède sous les modèles cosmologiques actuels, qui prédisent une distribution plus ou moins homogène de matière. En cette raison ce résultat est polémique.
À ce flux il a été appelé flux obscur (comme synonyme de “mystérieux“), bien que les galaxies qui font une partie de lui soient si brillantes comme toute autre.
Ces tas ont sont étudiés par Alexander Kashlinsky del Goddard Space Flight Center de la NASA dans les dernières années. Il a récemment réussi à suivre le mouvement de ces objets jusqu'à une distance, le double de ce qui avait été fait jusqu'à présent. Le résultat principal consiste en ce que l'effet persiste à de plus grandes distances du pensé, comme minimum jusqu'à 2500 millions d'années. L'étude a été publiée dans Astrophysical Journal Letters.
Les galaxies impliquées semblent être bougées à une vitesse au-dessus de la normale le long d'une ligne qui unirait notre système solaire et une région située dans direction des constellations de Centaure et d'Hydre. Cependant, selon Kashlinsky, le sens du mouvement n'est pas si clair quand ne se sont pas défaussés qui s'approchent vers nous. Dans d'autres mots, on n'est pas connu s'ils viennent ou vont, au moins avec la technique employée, qui est peu conventionnelle.
Selon cet enquêteur, le flux est discutable parce que la distribution de matière observée dans l'univers visible ne l'explique pas. Jusqu'à présent, l'explication unique consiste en ce qu'il y a une matière au-delà de l'horizon qui pousse la matière existante dans notre voisinage.
Les cosmologistes considèrent le fond cosmique de microonde comme le cadre cosmique définitif. Dans la référence à ce cadre aucun mouvement à grande échelle n'aurait à avoir une direction privilégiée.
La technique utilisée dans cette étude est très singulière. Les rayons X émis par le gaz chaud présent dans les tas dispersent les photons du fond cosmique de microonde parce que les galaxies ne suivent pas à la perfection l'expansion cosmique de l'espace. La longueur d'onde des photons dispersés change d'une manière telle qui manifeste le mouvement individuel de chaque tas. Le résultat est un très petit glissement de la température du fond cosmique dans une direction du tas. À ce phénomène il est connu comme effet cinématique de Sunyaev-Zel’dovich (ou “KSZ effect” en anglais) et il est si petit qui n'a jamais été observé dans un tas isolé unique.
Cependant, Kashlinsky, á côté de Fernando Atrio Barandela de l'Université de Salamanque, a démontré en 2000 qu'il était possible il était possible d'extraire le faible signe du bruit de fond grâce à l'étude d'un grand nombre de tas.

mapa_flujo_oscuroDans ce montage les points colorés sont tas de galaxies à des distances distinctes, quand plus rougeâtres plus lointains. Les ellipses montrent la direction vers laquelle les galaxies précitées sont bougées en sa couleur correspondante. Une fontaine : NASA, Goddard, À. Kashlinsky et des collaborateurs.

En 2008 il a utilisé le catalogue de 700 tas de Harald Ebeling (University of Hawaii) et Le Da Kocevski (University of Californie, Santa Cruz) et les données accumulées par le WMAP pendant 3 ans pour extraire cette information. Ainsi c'est comment le mouvement mystérieux est apparu pour la première fois.
La nouvelle étude est basée sur la même technique que le précédent, mais en utilisant les données de 5 ans du WMAP et en doublant le nombre de tas galactiques.
“On a besoin, dans une moyenne, d'une heure de télescope pour mesurer la distance à chaque tas que nous étudions, pour ne pas mentionner les années nécessaires pour trouver ces systèmes dans un premier moment”, dit Ebeling.
Selon le Parvis Barandela, qui s'est concentré sur l'analyse des erreurs possibles, la nouvelle étude proportionne les épreuves beaucoup plus fortes de ce que le flux obscur est réel. Dans quelques cas le signe sort maintenant directement, au lieu d'être un résultat statistique.
De plus, Alastair Edge, d'University of le Durham, a ordonné les tas du catalogue dans quatre tranches qui représentaient des gammes distinctes de distance, en examinant la direction du flux dans chacune d'elles. La tendance entre les tranches distinctes montrait un accord remarquable en faveur de ce flux.
Ces astrophysiciens travaillent pour agrandir actuellement le catalogue pour ainsi doubler la distance jusqu'à présent réfléchie. L'amélioration des modèles de gaz chaud dans les tas aidera à raffiner la vitesse, l'axe et la direction de mouvement. Et les nouvelles données du WMAP, ainsi que que Planck obtient, aideront à perfectionner aussi l'étude.
Peut-être enfin sachons que notre univers n'est pas seul dans le Multivers avant de savoir si nous sommes seuls dans la galaxie.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3040

Des fontaines et des références :
Un communiqué de presse de la NASA.
De nouvelles données sur le flux obscur.
Un vidéo

Plus de données sur l'origine de la vision

De nouvelles pistes trouvées dans les hydres nous parlent encore une fois de l'origine de la vision dans les animaux.

hidra_actualUne hydre. Une fontaine : Todd Oakley, UCSB.

Vous, l'ami lecteur, qui lit ces lignes, le fait grâce à ses yeux, le sens de la vue. Aussi comme d'autres animaux, il peut contempler le monde de la même manière à comme il le rendait un trilobites d'il y a 500 millions d'années. Les yeux ont été inventés quelques fois, et de quelques manières distinctes, le long de l'histoire évolutive. Mais: quand et comment pouvons-nous signaler l'origine de la vision ? Avant que n'existassent des yeux proprement dits il y avait déjà des récepteurs sensibles à la lumière et aux protéines qui opéraient dans ceux-ci. La protéine rodopsina de notre rétine est l'héritière de ces protéines ancestrales qui ont surgi fait des centaines de millions d'années.
Depuis un temps, des enquêteurs de l'Université de Californie à la Santa Barbara faisaient de la recherche sur ce sujet, découvraient nouvelles des aspects sur l'origine de la sensibilité à la lumière des animaux, spécialement sur le chemin génétique qui a créé les premières protéines sensibles à la lumière.
Pour cela ils étudient un animal aquatique le membre des Cnidaria qui a été entre nous pendant des centaines de millions d'années : l'hydre. Ce groupe est l'ensemble d'animaux qui inclut des choraux, des méduses et des anémones marines. La raison de cette élection consiste en ce que les gènes opsin, des responsables de la sensibilité à la lumière, sont présents dans les hydres, mais non dans les éponges, que l'on suppose qu'ils sont animaux qu'ils sont apparus avant dans l'histoire évolutive. De cela on déduit que les premiers précurseurs de ces gènes ont pu surgir plus de 600 millions d'années, quand sont apparus les premiers Cnidaria.
L'hydre utilise des protéines type opsin surtout son corps, mais elles sont rassemblées autour de la bouche et près de la pointe de l'animal. Comme les hydres sont prédateurs on spécule qu'ils utilisent les capteurs de lumière pour trouver des prises. Bien que les hydres n'aient pas d'yeux proprement dits ou d'organes récepteurs complexes de lumière, oui ils ont le chemin génétique nécessaire d'être sensibles à une lumière.
Dans le passé NeoFronteras il a déjà publié un résultat sur ce sujet provenant de la même université. Dans ce cas se couvrait la nouvelle de qui avaient réussi à documenter précisément les changements spécifiques qu'ils ont eu lieu en l'espace de l'évolution pour que surgît cette nouvelle caractéristique naturelle de la sensibilité à la lumière chez quelques êtres vifs. Ils ont montré très clairement quels changements spécifiques dans un gène particulier doublé (opsin) ils ont permis aux nouveaux gènes d'interagir avec différentes protéines d'une nouvelle manière. Aujourd'hui ces différentes manières d'intergesticuler sont en dessous de la machinerie complexe génétique impliquée dans la vision qui est dans quelques groupes animaux, et qui inclut les humains.
Mais une chose consiste en ce qu'il y a quelques protéines sensibles à la lumière et à l'autre que l'information de ce qu'une lumière a été détectée est reçue par quelque chose ou quelqu'un. Maintenant, Todd H. Oakley et ses collaborateurs ont déterminé quel gène de canal iónico est relatif à la sensibilité à la lumière dans cet animal, qui est le même canal iónico utilisé dans la vision humaine. Ils publient ses trouvailles dans Proceedings of the Royal Society B.
Il y a beaucoup de gènes impliqués dans la vision et il y a un gène qui détermine le canal responsable d'ions de donner un commencement à l'impulsion nerveuse dans les neurones impliqués dans la vision. Ce gène contrôle la sortie et l'entrée d'ions sur le canal, en agissant à la manière d'une porte. C'est pourquoi, l'impulsion nerveuse contrôle c'est-à-dire le signe qu'il dit qu'une lumière a été détectée.
Le gène étudié est aussi d'une type opsin, et est présent dans la vision des vertébrés. Utilisé de différente manière un papier a aussi dans la vision d'autres animaux, comme les insectes. Bien que la vision dans les insectes apparût plus tard dans l'histoire évolutive que la machinerie visuelle trouvée dans des hydres et des vertébrés.
“Ce travail recueille des études préalables de l'hydre réalisées dans mon laboratoire et continue de défier le malentendu dont l'évolution représente une marche de progrès dans un escalier, avec les humains situés dans le sommet”, dit Oakley. “Dans son lieu, il illustre comment tous les organismes (humains inclus) sont un mélange complexe de caractéristiques antiques et nouvelles.”
Si maintenant il a été capable de lire cette nouvelle il est parce qu'environ 600 millions d'années quelques ont donné une séquence capricieuse de changements avec des protéines sensibles à la lumière dans l'animal le plus humble et de plus celui-ci a pu apprendre de cela.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3041

Des fontaines et des références :
Un communiqué de presse d'Université de Californie à la Santa Barbara.
L'origine génétique de la vision.

Monday, March 15, 2010

On peut savoir quel film il se rappelle

Ils réussissent à savoir, à partir de l'activité cérébrale, auquel de trois films possibles courts une personne pense.

tres_cortosLes photogrammes des trois courts qui se sont utilisés dans l'expérience. Une fontaine : Professor Eleanor Maguire.

Bien que la liberté d'expression ait toujours été contrôlée dans une plus grande mesure plus petite, même dans les régimes démocratiques, la liberté de pensée littérale a été effective ou que ce soit, chaque fois que ces pensées ne s'exprimeront pas en public, un espace.
Le courant de pensée de notre esprit est plus la partie intime de notre moi, de notre être. Nous donnons des sorties partie d'eux et nous restons avec les autres que nous appelons secrets. Notre vie en commun, notre société ou notre liberté sont basées, en partie, sur cette capacité. Un bon cauchemar serait un monde dans lequel tout le monde disait gratuitement toute la vérité constamment.
D'un autre côté, une capacité de lecture de pensée aux mains erronées serait encore un pire cauchemar. Les romans de l'anticipation comme “1984“ nous suggéraient déjà comment pourrait être un crime de pensée, ou dans “Minority Report“ comment on pourrait condamner un délinquant futur sans que celui-ci n'eût encore commis le crime. Maintenant que ces histoires ou les autres similaires comme “Blade Runner“, “Un Monde Heureux” ou “Fahrenheit 451” s'accomplissent et l'Hollande s'approche de plus en plus de la “Fuite de Logan” ou de “Soylent Green“, il n'est pas de plus surveiller les vendeurs de peur qui placent déjà des chambres par les rues, puisque ce seront ceux qui essaient de les mettre à nos esprits.
Mais en laissant à côté les composants éthiques, les résultats scientifiques sur le champ sont fascinants. Dans NeoFronteras nous informons depuis un temps de la capacité de lecture de pensée en utilisant des techniques neurologiques. Maintenant, un système informatique a été capable de prédire, à partir de l'activité cérébrale, auquel de trois films possibles courts une personne pense.
Le résultat a été obtenu par les hommes de science du Wellcome Trust Centre for Neuroimaging dans University College Londres dirigés par Eleanor Maguire, et il proportionne des pistes sur comment fonctionne le magasinage d'information dans notre mémoire.
Le travail est une étendue des études réalisées antérieurement par la même équipe, et publiés l'année passée, de la mémoire spatiale. Dans ce cas il s'agissait de l'enregistrement du patron d'activité de l'hippocampe quand les volontaires étaient dans une pièce virtuelle. L'hippocampe est la région cérébrale responsable de l'apprentissage et de la mémoire.
“Dans nos expériences préalables nous cherchions des souvenirs basiques, comme la localisation de quelqu'un dans l'atmosphère”, dit Maguire. “Ce qui est plus intéressant est de regarder à des souvenirs épisodiques”. Les souvenirs épisodiques sont les souvenirs habituels qui incluent beaucoup de plus d'information sur où nous sommes, ce que nous faisons ou ce que nous sentons.
Pour explorer comment ce type de souvenirs sont emmagasinés, les enquêteurs ont montré à dix volontaires court trois et on leur a demandé de mémoriser ce qu'ils voyaient. Les courts étaient très simples et partageaient les caractéristiques similaires qu'ils incluaient une femme en réalisant des travaux dans une atmosphère urbaine. Trois avaient la même durée : sept secondes. Ainsi par exemple, dans l'un des courts la femme était vue en buvant un café d'un verre de papier dans la rue avant qu'il ne le jetât à la corbeille à papiers. Dans le court autre une autre femme était vue en jetant une lettre à la boîte aux lettres de postes.
Après le visionado on a demandé aux volontaires que recodaran les courts tandis que son activité cérébrale était enregistrée avec un système de résonance magnétique nucléaire. Le flux sanguin du cerveau est mesuré par le système de résonance à l'échelle de voxels ou de pixels tridimensionnels. Dans ce cas chaque voxel incluait à peu près à environ 10.000 neurones.
L'algorithme computacional interprétait les changements voxel par voxel pour ainsi savoir comment changent les patrons d'activité avec le temps. Le programme a étudié alors ces patrons d'activité et il a identifié ce que courts ils avaient été évoqués par les volontaires.
Martin Chadwick, un auteur principal de l'article de Current Biology dans lequel les résultats sont décrits, dit que la prédiction de l'algorithme a été au-dessus de l'espéré que s'il était au hasard. Ce résultat suggère, selon lui, que nos souvenirs sont emmagasinés chez un patron régulier.
Bien qu'il y ait tout un réseau complet d'aires cérébrales qui appuient la mémoire, les enquêteurs se sont concentrés sur l'étude de lobe temporel moyen, d'une aire profonde dans ce que l'on croit que c'est la partie la plus impliquée dans les souvenirs épisodiques et qu'il inclut l'hippocampe.
Les enquêteurs ont trouvé que les aires clefs relatives au magasinage de souvenirs ont été l'hippocampe et ses environs. Cependant, l'algorithme computacional a obtenu un plus grand succès quand il analysait l'activité dans le propre hippocampe. Cela suggérerait que cette partie est la région la plus importante relative au magasinage de souvenirs épisodiques.
En particulier trois aires de l'hippocampe (la droite postérieure, la gauche frontale et la droite frontale) semblent être relatives à ce travail et il a été observé d'une manière consistante chez tous les participants de l'expérience.
La partie postérieure droite était impliquée dans l'étude préalable, ce qui renforcerait l'idée de ce que c'est la partie où on garde l'information spatiale. Cependant, il n'est pas encore clair quel papier les autres jouent deux régions.
Maguire, dit que maintenant qu'il a une plus claire vision comment nos souvenirs sont emmagasinés, il espère examiner comment ils sont affectés par la marche du temps, le vieillissement et les lésions cérébrales.

Copyleft : attribuer avec lien à http://neofronteras.com/?p=3036

Des fontaines et des références :
Un communiqué de presse de Wellcome Trust Centre for Neuroimaging.
Un article original.
“Minority un rapport” économique
Encore un pas dans la lecture de la pensée
Des décisions cérébrales prévisibles.
Plus près de la lecture de la pensée.
Les amnésiques ne peuvent pas non plus visualiser l'avenir.