Overblog Suivre ce blog
Administration Créer mon blog
14 décembre 2012 5 14 /12 /décembre /2012 13:27

Bien que les séismes, glissements de terrain, ou avalanches soient des phénomènes non prévisibles, ceux-ci pourraient dans certains cas respecter un "programme". C'est ce que suggère une étude de l'Institut pour l'énergétique et les interphases du Conseil national des recherches (Ieni-Cnr) de Milan. L'étude, réalisée en collaboration avec l'université de Yale et Cornell, ainsi qu'avec l'Afrl Air Force Research Laboratory (USA) a obtenu la page de couverture de la prestigieuse revue américaine Nature.

"Nous savons que les catastrophes sont le résultat d'une lente accumulation de perturbations externes : la neige qui se dépose sur les versants, ou le mouvement d'une faille sismique", explique Stefano Zapperi, co-auteur de l'étude et chercheur au Ieni-Cnr. "En laboratoire, nos collaborateurs de l'Afrl ont produit des micro-tremblements de terre d'intensité variable en comprimant des colonnes de nickel de dimensions micrométriques, et ont observé qu'ils se sont réalisés de manière aléatoire".

En faisant varier la vitesse de compression des colonnes, les chercheurs ont cependant "constaté qu'il existe un régime pour lequel les micro-tremblements de terre se produisent de manière périodique, comme s'ils suivaient un calendrier", poursuit Stefano Zapperi. "Nous avons de plus démontré par la théorie que cette périodicité est due à l'opposition de deux effets : la réponse "catastrophique" des micro tremblements de terre, et une réponse lente du support, qui reste non observée dans la plupart des cas. Quand la réponse du support s'effectue à la même vitesse que la sollicitation externe, l'événement catastrophique se vérifie de manière quasi périodique".

D'après la théorie proposée, ce mécanisme est général et devrait également s'appliquer à des systèmes de dimensions beaucoup plus grandes. "Le long d'une faille sismique, par exemple, entre deux tremblements de terre, l'énergie est souvent libérée à travers de lents écoulements d'eau. La théorie suggère que si la vitesse du flux était semblable à celle de la faille, les tremblements de terre pourraient avoir lieu presque périodiquement", précise Stefano Zapperi.

La théorie pourrait expliquer certaines observations passées de cas de tremblements de terres périodiques : "mais pour cela il sera nécessaire de ré-analyser et réinterpréter une grande quantité de données expérimentales", conclut le chercheur.

Stefano Zapperi est chef du projet "Sizeffects", financé par l'European Research Council dans le but de comprendre comment se fait la réponse mécanique des matériaux, aussi bien à l'échelle de l'atome qu'au niveau macroscopique.

Rédacteur : Frédérick MARTIN


Paru dans Bulletins électroniques

BE Italie numéro 108 (16/11/2012) - Ambassade de France en Italie / ADIT - http://www.bulletins-electroniques.com/actualites/71451.htm

Dans Nature : http://www.nature.com/nature/journal/v490/n7421/abs/nature11568.html

Repost 0
7 novembre 2012 3 07 /11 /novembre /2012 19:18

Des chercheurs de l’Institut Pasteur, du CNRS, et de la faculté de médecine de l’Université de Tsukuba au Japon, ont pour la première fois prouvé que l’activation d’un gène du staphylocoque doré (Staphylococcus aureus) permettait à ce dernier d’incorporer de l’ADN exogène et de devenir résistant à la méticilline. Ils ont également identifié deux mécanismes d’activation de ce gène. Ces résultats constituent un pas important dans la compréhension des mécanismes d’acquisition des gènes de résistance aux antibiotiques par S. aureus. Ces travaux sont publiés dans la revue PLoS Pathogens le 1er novembre.

Staphylocoque_sd-copie-1.jpg

 

Staphylococcus aureus est une bactérie extrêmement pathogène pour l'homme. Elle est la cause de multiples infections, qui vont de la lésion cutanée (furoncles, panaris, impétigo, etc.), à l'endocardite, la pneumonie aiguë, l'ostéomyélite ou la septicémie. Elle est très redoutée en milieu hospitalier et arrive au premier rang des germes à Gram positif responsables d'infections nosocomiales. Les souches les plus dangereuses sont celles qui sont multi-résistantes aux antibiotiques. C'est le cas du Sarm , résistant à la méticilline (comme 60% des souches multi-résistantes), répandu dans le milieu hospitalier européen et qui pose un problème de santé publique majeur.

Jusqu'à présent, les mécanismes à l'origine de l'acquisition des gènes de résistance par les bactéries du genre staphylocoque étaient inconnus. Cependant, l'équipe de Tarek Msadek, chercheur dans l'unité Biologie des bactéries pathogènes à Gram-positif, Institut Pasteur-CNRS, en collaboration avec la faculté de médecine de Tsukuba, vient de faire une importante découverte : pour la première fois, les chercheurs ont démontré que l'activation d'un gène de S. aureus, appelé sigH, permet à ce dernier de mettre en route une machinerie spécialisée et de capturer de l'ADN présent dans son environnement, et donc potentiellement d'acquérir des gènes de résistance aux antibiotiques. Les chercheurs ont également mis en évidence deux mécanismes distincts d'activation du gène sigH. Dans leur démonstration, après avoir activé expérimentalement le gène sigH, les chercheurs sont parvenus à transformer une souche de S. aureus sensible à la méticilline en une souche résistante, analogue à celles responsables des infections nosocomiales.

L'ensemble de ces résultats suggère que l'inhibition du gène sigH serait une piste sérieuse pour lutter contre l'apparition de souches de S. aureus multi-résistantes aux antibiotiques.

Le communiqué sur le site de l'Institut Pasteur

http://www.pasteur.fr/ip/easysite/pasteur/fr/presse/communiques-de-presse/2012/staphylococus-aureus-resistance-antibiotiques


Sources

Expression of a cryptic secondary sigma factor unveils natural competence for DNA transformation in Staphylococcus aureus, PLoS Pathogens, november 1, 2012.

Kazuya Morikawa (1,2), Aya J. Takemura (1), Yumiko Inose (1), Melody Tsai (1), Le Thuy Nguyen Thi (1), Toshiko Ohta (1), and Tarek Msadek (2,3)

(1) University of Tsukuba, Division of Biomedical Science, Faculty of Medicine, Tsukuba, Japan,

(2) Institut Pasteur, Biology of Gram Positive Pathogens, Department of Microbiology, Paris, France,

(3) CNRS ERL 3526, Paris, France


 

Repost 0
23 août 2012 4 23 /08 /août /2012 18:00

L’innovation technologique doit beaucoup à l’observation de la nature, et s’en inspire souvent.

En voici un exemple récent.

baleine.JPG

Lorsqu’un hélicoptère se déplace, les pales de son rotor principal sont tantôt avançantes tantôt reculantes par rapport à la progression de l’engin. En phase reculante, les pales sont soumises à un phénomène aérodynamique appelé décrochage dynamique (1) qui provoque une perte de portance de l’appareil. Ce qui entraine une instabilité, des vibrations inconfortables, et limite fortement la maniabilité et la vitesse de ce type d’aéronef, compte tenu du danger que cela représente. Or les chercheurs qui étudient les baleines ont découvert que les baleines à bosse sont capables d’une grande vélocité et d’exploits acrobatiques sous-marins, en dépit de leur taille. Cette capacité est en en partie due aux bosselures qu’elles ont sur le principal bord de leurs nageoires pectorales(2).

 

C’est de cette caractéristique des baleines à bosse que des ingénieurs du Centre d’études aérospatiales allemand (DLR) se sont inspirés pour tenter d’augmenter la stabilité des hélicoptères (3). Ils ont collé des œillets de caoutchouc sur le bord principal des pales d’un rotor qu’ils ont testé en soufflerie. Encouragés par les résultats, ils sont passés à des essais en vol. Les résultats sont suffisamment probants pour que les pilotes d’essai remarquent immédiatement la différence. Les tests continuent, et si aucun problème n’est identifié, les pales de rotor à bosses pourraient bientôt faire partie du design des nouveaux hélicoptères.

Anton Suwalki

 

Notes :

(1) http://www.onera.fr/images-science/simulation-numerique/helicoptere-aerodynamique-decrochage-dynamique.php

(2) pectorales et non dorsales comme c’est écrit à tort dans l’article phys.org (référence 3)

(3) http://phys.org/news/2012-02-german-mimic-humpback-whale-helicopter.html


Repost 0
23 juin 2012 6 23 /06 /juin /2012 23:47

Le gouvernement japonais a annoncé son intention de lancer en juillet une importante étude sur l'impact d'un tremblement de terre de forte puissance. Cette étude, qui sera conduite par le MEXT [1], concerne les principaux pôles métropolitains de l'archipel, c'est-à-dire les agglomérations de Tokyo, Nagoya et Osaka. L'impact du tremblement de terre d'une magnitude de 7 à 8 sur l'échelle de Richter sera simulé grâce à un superordinateur. L'utilisation de ce dernier permettra de prédire la réaction des bâtiments ainsi que des "liquéfactions du sol" dans les zones côtières.

Ce travail, qui s'étalera sur une durée de 5 ans, est doté d'un budget conséquent de 3 milliards de yens (soit 30 millions d'euros) et sera effectué en partenariat avec le prestigieux institut de recherche sur les tremblements de terre de l'université de Tokyo ainsi qu'avec des compagnies de construction. Les résultats de cette étude permettront d'identifier les zones dangereuses et d'améliorer les mesures d'urgence déployés en cas de tremblement de terre.

Enfin, parallèlement à cette étude, un système informatique sera mis en place. Il permettra de fournir des information précises (localisation des refuges les plus proches par exemple) aux utilisateurs de téléphones portables et de système de navigation GPS.

Guillaume CHARMIER

Source :

Bulletins électroniques

Veille technologique internationale

Ambassade de France au Japon

http://www.bulletins-electroniques.com/actualites/70364.htm




[1] MEXT : Ministry of Education, Culture, Sports, Science and Technology
Repost 0
21 janvier 2012 6 21 /01 /janvier /2012 00:05

 

Un consortium international, impliquant des chercheurs du CEA [1], du CNRS et des universités de la Méditerranée et Pierre et Marie Curie, ainsi que des chercheurs du DOE [2] à Ames (USA), des universités du Nevada (USA), de Rio de Janeiro (Brésil), de San Luis Obispo (USA) et de Pannonia (Hongrie), vient de caractériser un nouveau groupe de bactéries magnétotactiques (MTB) capables de produire des nano-aimants de magnétite et de greigite [3] en fonction des conditions environnementales.

La caractérisation phylogénétique, physiologique et génomique de l’une de ces bactéries, nommée Desulfamplus magnetomortis BW-1, a été possible grâce à son isolement en culture et a permis ainsi d’identifier deux groupes de gènes essentiels à la formation des nano-aimants. Le premier groupe interviendrait dans la formation de nano-aimants de magnétite tandis que le second serait impliqué dans la production de nano-aimants de greigite. C’est la première fois qu’une bactérie magnétotactique produisant des cristaux de greigite est isolée en culture. Il s’agit d’une avancée majeure permettant d’élargir le champ des applications biotechnologiques de ces nanoaimants. Ces résultats sont publiés dans la revue Science du 23 décembre 2011.

Les bactéries magnétotactiques (MTB) possèdent un organite unique, appelé magnétosome, constitué de nano-cristaux magnétiques de greigite (Fe3S4) ou de magnétite (Fe3O4). Alignés comme une aiguille de boussole, ces nano-cristaux leur permettent de nager le long des lignes de champs magnétiques à la recherche du milieu le plus favorable pour leur croissance. Bien que très largement répandues dans la nature, les MTB restent difficiles à cultiver en laboratoire. Seules quelques souches de ces bactéries, capables de produire uniquement des nano-aimants de magnétite, ont pu être cultivées. Quant aux bactéries magnétotactiques formant des nano-cristaux de greigite, les chercheurs n’avaient à ce jour jamais réussi à les isoler.

Pour répondre à ce challenge, des chercheurs du CEA, du CNRS, des Universités de la Méditerranée et Pierre et Marie Curie, en collaboration avec leurs partenaires américains, brésiliens et hongrois, ont réalisé des prélèvements au Nevada et en Californie dans des milieux aquatiques constitués d’eau douce ou d’eau saumâtre. Ils ont montré la présence de bactéries magnétotactiques (MTB) produisant à la fois de la greigite et de la magnétite dans ces milieux. De plus, l’analyse phylogénétique [4] de ces bactéries leur a permis d’identifier deux nouveaux genres inconnus appartenant à la classe Deltaproteobacteria, l’une des classes bactériennes les plus étudiées. Grâce à l’analyse d’échantillons provenant d’un bassin saumâtre de la vallée de la mort en Californie, les chercheurs ont réussi à isoler et à cultiver une bactérie, nommée Desulfamplus magnetomortis BW-1, appartenant à un de ces nouveaux genres bactériens et capable de produire à la fois de la greigite et de la magnétite.

De manière générale, chez les MTB, la formation des magnétosomes est contrôlée génétiquement par un groupe de gènes, les gènes mam, qui sont spécifiques des bactéries magnétotactiques (MTB). Le séquençage du génome de la bactérie BW-1 a confirmé l’existence de ces gènes mam chez cette nouvelle espèce. Toutefois, chez BW-1, ces gènes s’organisent différemment et forment deux groupes de gènes distincts dans le génome. Le premier groupe est homologue aux gènes permettant chez les MTB la formation de nano-aimants de magnétite. Le second partage le plus de similarités avec des gènes impliqués dans la formation de nano-aimants de greigite. La formation des magnétosomes de magnétite et de greigite, chez la bactérie BW-1, serait donc régie par ces deux groupes de gènes dont l’expression serait régulée en fonction des conditions environnementales.

Un grand nombre d’applications biotechnologiques sont à l’étude pour l’utilisation des nanocristaux de magnétite produit par les MTB, notamment pour l’imagerie par résonnance magnétique, la dépollution ou l’utilisation de magnétosomes modifiés comme catalyseurs. La première mise en culture de cette nouvelle bactérie produisant de la greigite est une avancée majeure qui va permettre de caractériser ces nouveaux nano aimants et d’élargir le champ des applications potentielles des magnétosomes.

 

Les travaux de cette étude ont partiellement été financés par la Fondation pour la Recherche Médicale.

 

Référence :

A cultured greigite-producing magnetotactic bacterium in a novel group of sulfate-reducing bacteria. Christopher T. Lefèvre, Nicolas Menguy, Fernanda Abreu, Ulysses Lins, Mihály Pósfai, Tanya Prozorov, David Pignol, Richard B. Frankel, Dennis A. Bazylinski, Science , Dec/23/2011.

Contact presse :

Coline Verneau – 01 64 50 14 88 – coline.verneau@cea.fr

[1] L’Institut de biologie Environnementale et de Biotechnologie de la Direction des sciences du vivant, Cadarache.

[2] Department of Energy : équivalent du CEA aux Etats-Unis.

[3] La greigite est un minéral, un sulfure de fer qui possède des propriétés ferromagnétiques, au même titre que la magnétite.

[4] Identification par séquençage des ARN ribosomiques 16S de ces bactéries.

Repost 0
23 septembre 2011 5 23 /09 /septembre /2011 23:01

Des neutrinos qui vont plus vite que la lumière ? C'est ce que semblent indiquer les mesures effectuées par une équipe de chercheurs menée par Dario Autiero, chercheur du CNRS, dans le cadre de l'expérience internationale OPERA. Ce résultat étonnant sera publié vendredi 23 septembre 2011 à 2h (heure de Paris) sur ArXiv et présenté ce même jour à 16h lors d'un séminaire au CERN, à Genève, retransmis en ligne.

 

Avec la théorie de la relativité restreinte énoncée en 1905, Einstein avait notamment prouvé que rien ne pouvait dépasser la vitesse de la lumière dans le vide. Pourtant, plus d'un siècle après, au terme de trois années de mesures de très haute précision et d'analyses complexes, l'expérience OPERA1 fait état d'un

résultat totalement inattendu : les neutrinos arrivent au Gran Sasso avec une petite mais significative avance par rapport au temps que la lumière aurait pris pour faire le même parcours dans le vide.

 

L'expérience OPERA est dédiée à l'observation d'un faisceau de neutrinos produit par les accélérateurs du CERN à Genève et détecté 730 km plus loin depuis le laboratoire souterrain de Gran Sasso en Italie. Cette distance, la lumière la parcourt en 2,4 millisecondes. Pourtant, l'expérience OPERA a pu mesurer des

neutrinos arrivant à Gran Sasso 60 nanosecondes plus tôt. Autrement dit, sur une « course de fond » de 730 km, les neutrinos franchissent la ligne d'arrivée avec 20 mètres d'avance sur des photons hypothétiques qui auraient parcouru la même distance.

 

« Nous avons mis en place un dispositif entre le CERN et le Gran Sasso nous permettant une synchronisation au niveau de la nanoseconde et mesuré la distance entre les deux sites à 20 centimètres près. Ces mesures présentent de faibles incertitudes et une statistique telle que nous accordons une grande confiance à nos résultats », explique Dario Autiero, chercheur du CNRS à l'Institut de physique nucléaire de Lyon (IPNL). « Nous avons donc hâte de confronter nos mesures avec celles en provenance d'autres expériences, car rien dans nos données ne permet d'expliquer pourquoi nous semblons observer

des neutrinos en excès de vitesse. » Ces résultats reposent sur l'observation de plus de 15 000 neutrinos.

 

« Ce résultat est totalement inattendu », affirme Antonio Ereditato, de l'Université de Berne et porte-parole de l'expérience OPERA. « De longs mois de recherche et de vérifications ne nous ont pas permis d'identifier un effet instrumental expliquant le résultat de nos mesures. Si les chercheurs participant à l'expérience OPERA vont poursuivre leurs travaux, ils sont impatients de comparer leurs résultats avec d'autres expériences de manière à pleinement évaluer la nature de cette observation ».

 

Jusqu’ici, la vitesse de la lumière a toujours été considérée comme une limite infranchissable. Si ce n'était pas le cas, cela pourrait ouvrir des perspectives théoriques complètement nouvelles. Compte tenu de l'énorme impact qu'un tel résultat pourrait donc avoir pour la physique, des mesures indépendantes

s'avèrent nécessaires afin que l'effet observé puisse être réfuté ou bien formellement établi. C'est pourquoi les chercheurs de la collaboration OPERA ont souhaité ouvrir ce résultat à un examen plus large de la part de la communauté des physiciens.

 

L'expérience OPERA a été inaugurée en 2006 afin d'étudier les rares transformations (oscillations) des neutrinos du muon en neutrinos du tau. Une de ces oscillations a été observée en 2010, témoignant de la capacité unique de cette expérience en matière de détection des signaux quasi insaisissables des

neutrinos tau.

 

Quatre laboratoires du CNRS sont impliqués dans l'expérience OPERA :

- l'Institut de physique nucléaire de Lyon (CNRS/Université Claude Bernard-Lyon 1),

- l'Institut pluridisciplinaire Hubert Curien (CNRS/Université de Strasbourg),

- le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud 11) qui a participé jusqu'en 2005,

-          le Laboratoire d'Annecy le Vieux de physique des particules (CNRS/Université de Savoie).

 


 

Lire l’article sur le site du CNRS

 

http://www.cnrs.fr/fr/pdf/neutrino.pdf

 

(Les liens proposés ne semblent pas fonctionnels)

 

 

·                      PS  : reste à savoir si ces résultats sont reproduits et validés par d’autres expériences, si la physique moderne pourrait en être complètement bouleversée, ou seulement révisée à la marge. Selon John Ellis, physicien britannique,  même si les neutrinos peuvent dépasser la vitesse de la lumière, «cela ne veut pas forcément dire qu'Einstein a eu tort, prévient-il. Je prends l'exemple de la théorie de la gravitation de Newton, qui marche très bien dans de très nombreux cas, mais qui doit être modifiée par la théorie d'Einstein dans des circonstances exotiques. Il faudra peut-être aussi modifier les prédictions d'Einstein dans des conditions extrêmes Anton Suwalki

 


 

 

Repost 0
14 juillet 2011 4 14 /07 /juillet /2011 05:00

Une étude publiée dans la revue en ligne PloS ONE va probablement relancer la polémique.


Pathogènes et insecticides : un cocktail mortel pour les abeilles

L'infection par Nosema ceranae, un parasite responsable de la nosémose (1), entraîne une plus forte mortalité des abeilles lorsque celles-ci sont exposées à de faibles doses d'insecticides. C'est ce que viennent de mettre en évidence des chercheurs du Laboratoire Microorganismes : Génome et Environnement (LMGE, CNRS/Université Blaise Pascal Clermont-Ferrand 2) et du Laboratoire de Toxicologie Environnementale (LTE, INRA Avignon). Ces résultats sont publiés dans la revue PLoS ONE.

En France, les abeilles domestiques de l'espèce Apis mellifera représentent l'outil de travail d'environ 70 000 apiculteurs professionnels et amateurs. Leur influence directe sur la qualité et la quantité des récoltes, ainsi que sur le maintien de la biodiversité florale, est aujourd'hui largement reconnue et souligne le rôle prépondérant des abeilles, domestiques et sauvages, dans le fonctionnement des écosystèmes.

 

Cependant, depuis plus de 15 ans, les colonies d'abeilles sont en proie à un mal étrange et peu compris des apiculteurs et des scientifiques, avec chaque année, des milliers de colonies qui disparaissent. Pour expliquer ce phénomène, observé principalement par les apiculteurs européens et américains, de nombreuses pistes sont avancées : l'appauvrissement de la diversité et de la qualité des ressources alimentaires (en lien avec les changements climatiques), l'intensification des monocultures et la modification des paysages, l'action d'agents pathogènes responsables de maladies comme la varroase (2), les loques (3) et la nosémose, le stress chimique provoqué par l'exposition des abeilles aux produits phytosanitaires et vétérinaires ou encore certains prédateurs tels que le frelon asiatique. Bien que de nombreuses données soient disponibles sur l'influence des stress nutritionnel, parasitaire et chimique sur la santé des abeilles, aucun d'entre eux n'a pu être isolé comme unique responsable du déclin des populations d'abeilles. Aujourd'hui, les spécialistes du domaine s'accordent pour orienter les recherches sur les effets combinés de plusieurs de ces facteurs.

 

C'est dans ce contexte que des équipes de recherche du CNRS, de l'INRA et de l'Université Blaise Pascal ont associé leurs compétences respectives en parasitologie et en toxicologie pour évaluer l'influence des interactions pathogène-toxique sur la santé des abeilles. En laboratoire, les chercheurs ont exposé de façon chronique des abeilles naissantes saines et d'autres contaminées par Nosema ceranae à de faibles doses d'insecticides. Résultat : les abeilles infectées par Nosema ceranae puis exposées de façon chronique aux insecticides succombent, même à des doses se situant en dessous du seuil entrainant la mort, ce qui n'est pas le cas de leurs congénères non infectées. Cet effet combiné sur la mortalité des abeilles apparaît pour une exposition quotidienne à des doses pourtant très faibles (plus de 100 fois inférieures à la DL50 (4) de chaque insecticide). La synergie observée ne dépend pas de la famille d'insecticides puisque les deux molécules étudiées, le fipronil et le thiaclopride (5), appartiennent à des familles différentes. Le mode d'action responsable de cette synergie n'a cependant pas été encore identifié.

 

Cette étude montre donc que l'interaction entre nosémose et insecticides constitue un risque significatif supplémentaire pour les populations d'abeilles et pourrait expliquer certains cas de surmortalité. Ce travail indique également que des doses d'insecticides considérées comme ne pouvant entrainer la mort expriment pourtant un potentiel toxique létal pour des organismes parasités et donc fragilisés. Par conséquent ces résultats montrent la nécessité d'améliorer la gestion et la protection du cheptel apicole face au danger que représentent les pollutions environnementales et les pathogènes (seuls ou en combinaison) sur la santé de l'abeille. L'équipe « Interactions Hôtes-Parasites » du Laboratoire Microorganismes : Génome et Environnement (LMGE, CNRS/Université Blaise Pascal Clermont-Ferrand 2) travaille justement à rechercher de nouveaux moyens de lutte contre cet agent pathogène.

le communiqué sur le site du CNRS 


 

Le fipronil, l’une des deux substances testées dans cette étude, est le principe actif utilisé dans l’insecticide Régent, depuis longtemps montré du doigt par les apiculteurs.  La figure 3.A de l’étude publié par PloS ONE résume le problème :

Sur des abeilles non infectées par Nosema ceranae , la mortalité des abeilles exposées à un des insecticides ne diffère pas du groupe contrôle (<10% à 20 jours). Des abeilles infectées (par le parasite sans exposition aux insecticides) ont un taux de mortalité multiplié par 5 environ  (47% à 20 jours). L’exposition au fipronil ou au thiaclopride , inoffensive sur des abeilles saines, renforce fortement leur fragilité face au parasite (respectivement 82 et 71% à 20 jours), d’où l’ « effet synergétique » évoqué par les chercheurs. Notons que les auteurs concluent non pas à l’urgence de se priver de ces insecticides, mais au besoin pressant de traitements vétérinaires contre Nosema ceranae. Encore faudrait-il réussir convaincre les apiculteurs que là est bien le problème essentiel, alors que leur syndicat (l’UNAF) est en guerre contre les pesticides.                                    Anton Suwałki

Repost 0
7 mai 2011 6 07 /05 /mai /2011 15:46

Dans le monde extraordinaire que décrit la mécanique quantique, le monde du tout petit dans lequel les lois physiques en jeu défient l'intuition humaine, l'une d'elle est le principe de Heisenberg, du nom de son découvreur allemand en 1927. Que dit-il ? Il dit qu'entre position et vitesse d'une particule, la précision de la mesure concernant l'une de ces deux grandeurs physiques est inversement proportionnelle à celle de la mesure de l'autre grandeur. Dit autrement, ce principe prévoit une limite physique dans la précision des mesures.

En 2007, des physiciens de l'université du Nouveau Mexique aux États-Unis ont montré que la limite en question pouvait cependant être contournée si les particules utilisées pour la mesure étaient en interaction. De la théorie à la pratique, il s'est écoulé quelques années et c'est maintenant que nous arrive de l'ICFO, l'institut catalan de photonique, la première évidence expérimentale d'une telle possibilité de dépassement de la limite imposée par le principe de Heisenberg dans la précision d'une mesure.

En l'occurrence, il s'agit de la mesure de magnétisation d'un ensemble d'atomes de rubidium ultrafroids piégés optiquement et analysés par des impulsions laser. Dans une mesure classique, chaque photon du laser interagirait individuellement avec les atomes et le signal résultant serait faible. Mais ce que Mario Napolitano et cinq de ses collègues de l'ICFO du groupe Quantum Optics dirigé par Morgan Mitchell, ont réussi à faire est d'envoyer des impulsions laser telles que chaque photon, non seulement mesure l'état magnétique de l'atome sur lequel il arrive mais altère aussi la structure électronique de ce dernier de telle façon que celui-ci influence la polarisation du photon suivant, créant ainsi une amplification du signal mesuré.

Cette expérience démontre l'existence de nouvelles voies de métrologie, quantique en l'occurrence. Mesurer des champs magnétiques très faibles, immesurables jusqu'alors, permet d'espérer la mesure d'activités très fines du coeur ou du cerveau par exemple. Mais manifestement on en n'est pas là : "de par les défis technologiques qu'il faut relever, des applications pratiques ne sont pas envisageables dans un futur proche" dit Barry Sanders, un physicien de l'université de Calgary (Canada) cité par Edwin Cartlidge dans un article de présentation du travail en provenance de l'ICFO [1].

Il n'en demeure pas moins que cette expérience a été faite et a valu à ses auteurs l'honneur d'être publiés dans la revue Nature [2].

     

Pour en savoir plus

 - [1] "Quantum probe beats Heisenberg limit", http://physicsworld.com/cws/article/news/45535

- [2] "Interaction-based quantum metrology showing scaling beyond the Heisenberg limit" par M. Napolitano et al., Nature 471, pages 486-489 ; doi : 10.1038/nature09778

 

Rédacteur :

 Guy Molénat, attaché scientifique, service.scientifique@sst-bcn.com

 

Source :

BE Espagne numéro 104 (5/05/2011) - Ambassade de France en Espagne / ADIT - http://www.bulletins-electroniques.com/actualites/66676.htm

Repost 0
20 octobre 2010 3 20 /10 /octobre /2010 15:14

Le fer semble favoriser l’activité de photosynthèse du phytoplancton, algue microscopique qui joue un rôle essentiel dans le rôle de « pompe biologique » des océans en matière de capture de CO2 atmosphérique.  D’où l’idée avancée par certains chercheurs d’une fertilisation en fer des océans afin d’augmenter leur biomasse et de compenser l’augmentation prévisible de la teneur atmosphérique en CO2 dans les décennies futures.

 

Néanmoins le potentiel réel du fer dans l’activation de la pompe à carbone océanique est très discuté, et les projets d’enrichissement en fer des océans évidemment contestés par certains à cause des conséquences qu’ils pourraient avoir sur les écosystèmes marins. 

 

Une nouvelle étude publiée dans Geophysical Research Letters (*) permet à la fois de confirmer le rôle au moins ponctuel du fer dans la croissance du phytoplancton , et de relativiser son potentiel.

 

Le point sur Bulletins électroniques.

 


Un volcan alimente l'éclosion massive de phytoplancton

 

Les partisans de l'alimentation en fer de régions océaniques pour combattre le réchauffement climatique devraient être intéressés par une nouvelle étude publiée récemment dans Geophysical Research Letters. Une équipe de chercheurs canadiens et américains menée par l'océanographe Dr. Roberta Hamme de l'Université de Victoria (Colombie-Britannique) décrit comment l'éruption en 2008 du volcan Kasatochi dans les Iles Aléoutiennes a rejeté de la cendre chargée de fer sur une grande étendue du Pacifique Nord. Le résultat, dit Hamme, a été "un événement de productivité océanique d'ampleur sans précédent" - la plus grande éclosion de phytoplancton détectée dans la région depuis les mesures à la surface des océans effectuées par satellite et débutées en 1997.

 

Le phytoplancton est composé de plantes monocellulaires flottant librement, unicellulaires qui sont à la base de la chaîne alimentaire marine. Elles absorbent le dioxyde de carbone (CO2) pour grandir, ce qui explique pourquoi il a été proposé d'alimenter certaines régions océaniques avec du fer comme solution de compensation des concentrations de CO2 atmosphériques croissantes.

 

Mais bien que la cendre volcanique ait engendré cette production massive, le processus a abouti seulement à une assimilation "modeste" du CO2 atmosphérique, dit Hamme. "Cet événement est un exemple de l'échelle nécessaire qu'il faudrait utiliser pour que des fertilisations au fer puissent avoir un impact sur des niveaux de CO2 atmosphériques globaux."

 

http://www.bulletins-electroniques.com/actualites/64792.htm

 


(*) Volcanic ash fuels anomalous plankton bloom in subarctic northeast Pacific

GEOPHYSICAL RESEARCH LETTERS, VOL. 37, L19604, 5 PP., 2010

Le résumé :

http://www.agu.org/pubs/crossref/2010/2010GL044629.shtml

Repost 0
13 octobre 2010 3 13 /10 /octobre /2010 12:07

Une équipe de chercheurs dirigée par Jean-Claude Dreher du Centre de Neuroscience Cognitive de Lyon (CNRS/Université Claude Bernard Lyon 1) montre pour la première fois qu'il existe, au sein du cortex orbitofrontal (situé dans la partie antérieure et ventrale du cerveau), des régions distinctes répondant à des récompenses secondaires comme l'argent ou à d'autres plus primaires comme des images érotiques. Ces résultats ouvrent de nouvelles pistes de recherche pour la compréhension de certaines pathologies comme l'addiction aux jeux d'argent ou l'étude des réseaux neuronaux impliqués dans la motivation et l'apprentissage. Ils sont publiés le 29 septembre 2010 dans The Journal of Neuroscience.

Dans notre quotidien, nous sommes fréquemment confrontés à divers types de « récompenses » : un billet de 20 €, un carré de chocolat ou un bon vin... De plus, nous devons bien souvent faire des choix entre elles ou les échanger les unes contre les autres. Pour ce faire, il est important de pouvoir comparer leur valeur relative sur une même échelle, ce qui laisse supposer qu'elles sont traitées dans des régions cérébrales communes. De plus, il est possible que ces récompenses, en raison de leurs particularités propres, sollicitent parallèlement des zones du cerveau bien distinctes. Plus particulièrement, il pourrait exister une dissociation entre les récompenses dites « primaires » (comme la nourriture ou le sexe qui satisfont aux besoins vitaux et ont une valeur innée) et celles plus « secondaires » (comme l'argent ou le pouvoir qui ne sont pas indispensables à la survie et ont une valeur qui s'apprend par association avec des gratifications primaires).

 

C'est pour vérifier ces hypothèses que Jean-Claude Dreher et Guillaume Sescousse du Centre de Neuroscience Cognitive de Lyon (CNRS/Université Claude Bernard Lyon 1) ont proposé à 18 volontaires de se prêter à une expérience originale sous forme de jeu permettant de gagner de l'argent ou de voir des images érotiques. Pendant l'expérience leur activité cérébrale était enregistrée à l'aide d'un scanner IRMf (imagerie par résonance magnétique fonctionnelle).

 

Résultat : la valeur des récompenses est effectivement traitée dans des régions cérébrales partiellement communes (composées du striatum ventral, de l'insula, du mésencéphale et du cortex cingulaire antérieur). Les chercheurs ont également confirmé qu'il existe une dissociation entre récompenses primaires et secondaires dans le cortex orbitofrontal. Sa partie postérieure (plus ancienne sur l'échelle de l'évolution) est activée spécifiquement par les images érotiques (récompense primaire), alors que sa partie antérieure (apparue plus récemment chez l'Homme) l'est spécifiquement par les gains d'argent (récompense secondaire). Ainsi, plus les récompenses sont abstraites et complexes, plus leur représentation sollicite des régions antérieures du cortex orbitofrontal.

 

Ces résultats démontrent pour la première fois une dissociation entre deux types de récompenses au niveau cérébral et suggèrent qu'il pourrait exister des zones distinctes pour ces différentes gratifications. Des travaux qui pourraient permettre de mieux comprendre certaines maladies psychiatriques, notamment l'addiction aux jeux d'argent.

 

Origine : Centre national de la recherche scientifique

 


Commentaire :

Nous ignorons toute la portée de cette découverte, et les portes qu’elles ouvrent pour un meilleur traitement de certaines addictions. Elle peut déjà permettre de remettre en cause les poncifs habituels sur le thème « sexe,argent, pouvoir », ou les sornettes freudo-lacaniennes sur l’argent :

Rappelons-en quelques unes :

« Le point de départ de la réflexion psychanalytique sur l'argent est le travail de Sigmund Freud en 1908 quant au caractère anal de l'argent. Il émet un rapport d'équivalence entre le symbole argent et les fèces, autour de la rétention et de la défécation. Ferenczi analyse ce déplacement par le passage d'un objet sale à quelque chose de plus propre où l'œil prend plaisir à voir l'éclat et l'oreille à écouter le tintement métallique. À ce stade, les pièces sont estimées comme objet de plaisir à amasser et à contempler et non pour leur valeur économique. L'enfant comprend ensuite que l'argent est un moyen d'arriver à obtenir ce qu'il désire par sa capacité à exercer sa puissance sur ses parents et à susciter chez eux des réactions affectives. C'est pourquoi Melanie Klein attribue à l'argent une signification orale en tant que sein inépuisable. (…)

L'argent n'a aucune valeur propre et c'est pourquoi Jacques Lacan le définit en tant que signifiant. Il permet d'accéder à son désir par son glissement dans la chaîne du langage. Quand le sujet le possède et le garde, il répond de la valeur et de la puissance qu'il a réellement à l'intérieur de lui. En tant que signifiant, il correspond à un manque, à l'objet « a ». Le figer arrête la course désirante et conduit à l'esclavage. Dans l'Avare de Molière, Harpagon est possédé par sa caisse qui le pousse à un désir de mort, ayant incarné le grand Autre. »

Misère !!!

La valeur de l’argent selon la psychanalyse

Repost 0
19 mai 2010 3 19 /05 /mai /2010 17:02

Les chenilles de la pyrale, l’un des principaux ravageurs du maïs, présentent un comportement particulier : à la fin de leur croissance, au temps des récoltes, elles descendent vers le sol, ce qui leur permet d’échapper à la mort. Cette étonnante faculté d’adaptation vient d’être mise en lumière par des travaux de chercheurs de l’INRA et de l’Université du Texas publiés dans les Proceedings of the Royal Society B.

 

 

 

 

 

 

La pyrale du maïs, Ostrinia nubilalis, est un papillon dont les chenilles se nourrissent en forant les tiges et épis de maïs, engendrant d’importants dégâts et baisses de productivité dans la plupart des pays tempérés. A l’automne, les chenilles cessent de se nourrir et entrent en diapause (phase de vie ralentie) passant l’hiver abritées dans les cannes de maïs avant de se métamorphoser en adultes le printemps suivant.

 

 

La pyrale du maïs est apparue en Europe occidentale, il y a environ 500 ans, lors de l’importation du maïs, avant d’être accidentellement introduite en Amérique du nord au début du 20ème siècle. Il est vraisemblable que cette espèce de ravageur soit issue d’Ostrinia scapulalis, son espèce jumelle. Les deux espèces sont dites jumelles car elles sont identiques morphologiquement et si proches génétiquement que seules des études moléculaires ont permis de les distinguer, il y a quelques années. Une importante différence est cependant qu’O. Scapulalis n’attaque pas le maïs, mais principalement l’armoise, une plante non cultivée. La pyrale du mais serait donc une espèce apparue par « changement d’hôte », l’introduction du maïs ayant engendré sa propre espèce de ravageur.

 

Le maïs constitue pour la pyrale un nouvel environnement avec son cortège de prédateurs et de parasites. Parmi ces prédateurs, le plus redoutable est à n’en pas douter l’espèce humaine. Brûlées ou utilisées comme fourrage ou litière lorsque la récolte était manuelle, complètement broyées depuis la généralisation des moissonneuses batteuses, la partie supérieure des cannes de maïs constitue un refuge mortel pour les chenilles lorsqu’elles rentrent en diapause. En effet, les chenilles de pyrale situées au-dessus de la ligne de fauchage au moment de la moisson font face à une mort quasi-certaine.

 

A la fin de leur croissance, au temps des récoltes, les chenilles choisissent leur emplacement pour la période de diapause. L’étude qui vient d’être publiée révèle que les chenilles de la pyrale du maïs descendent alors vers le sol et s’installent plus bas dans les tiges que celles de son espèce jumelle, à la fois dans le maïs et dans l’armoise. Ce comportement, qui précède de quelques semaines la période de fauchage, est indépendant des conditions environnementales et n’est pas causé par la recherche de nourriture. L’étude montre qu’il est déterminé génétiquement et implique une certaine perception par les insectes de la gravité terrestre et de leur localisation.

 

Les chenilles de pyrale se retrouvent par conséquent en plus grand nombre en dessous de la ligne de fauchage, ce qui augmente leur taux de survie d’environ 50% relativement à leur espèce jumelle.

 

Descendre vers le sol assure ainsi une excellente adaptation de la pyrale au maïs. Ce comportement résulte probablement d’une sélection opérée par l’homme au fil des récoltes. La modification de la position des larves en diapause serait donc une réponse adaptative à la récolte par l’homme. Si les études à venir confirment cette interprétation, ceci constituerait un exemple singulier de résistance comportementale aux pratiques agricoles, la plupart des cas connus jusqu’ici impliquant une résistance aux insecticides. Si le maïs a engendré son propre ravageur, l’homme l’a sans doute façonné de telle sorte qu’aujourd’hui, la pyrale regarde la grande Faucheuse beaucoup plus sereinement que son espèce jumelle.


 

 

 

 

 Institut national de la recherche agronomique

 

http://www.inra.fr/presse/comment_chenilles_pyrale_evitent_la_grande_faucheuse

 

 


 

 

Références :

Divergence in behaviour between the European corn borer, Ostrinia nubilalis, and its sibling species O. scapulalis: adaptation to human harvesting? Proc. Roy. Soc. B., 21 avril 2010.

Vincent Calcagno¹²³, Vincent Bonhomme¹, Yan Thomas¹, Michael C Singer4 et Denis Bourguet1.

1Centre de Biologie pour la Gestion des Populations (CBGP), UMR INRA-IRD-CIRAD-Montpellier SupAgro, Campus International de Baillarguet, Montferrier-sur-Lez, France.

2Institut des Sciences de l'Evolution (ISEM), UMR CNRS-UM2, Université de Montpellier II, Place Eugène Bataillon, Montpellier,France.

3McGill University, Biology Dept, 1205 av. Docteur-Penfield, Montreal, QC, H3A 1B1, Canada

4Integrative Biology, Patterson Laboratories, University of Texas at Austin, USA.

 

 

Repost 0
29 avril 2010 4 29 /04 /avril /2010 15:11

Des scientifiques du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) (1), du Centre national de la recherche scientifique (CNRS) (2) et de l'installation européenne de rayonnement synchrotron (ESRF) (3) apportent des éléments clés pour expliquer le curieux phénomène de surfusion, cet état de la matière où un liquide ne gèle pas alors même qu'il est à une température inférieure à son point de cristallisation. La surfusion est un phénomène que l'on peut observer au quotidien puisque les nuages sont une accumulation de gouttelettes d'eau en surfusion. Ces résultats sont publiés dans la revue Nature du 22 avril 2010.

La surfusion est un état de la matière qui ne peut se produire qu'avec un liquide très pur et ne contenant pas de germes cristallins. La pureté extrême du liquide ne permet pas à la cristallisation de prendre, autrement dit au liquide de geler, alors que la température est inférieure à son point de congélation. Les nuages de haute altitude sont un bon exemple de ce phénomène : ils sont constitués de minuscules gouttelettes d'eau qui, en raison de la pureté de l'air, ne forment pas de glace malgré de très basses températures. L'arrangement des atomes, très chaotique, et l'absence de germe cristallin pour déclencher le processus de cristallisation sont à l'origine du phénomène. Qu'un avion traverse le nuage et les gouttelettes d'eau vont s'accrocher à sa structure, qui possède des impuretés, déclencher très rapidement le processus de cristallisation et former de la glace. C'est pour cette raison que certains avions sont équipés de systèmes de dégivrage.

 

Si la surfusion a été découverte dès 1724 par Fahrenheit, de nombreuses questions sur son mécanisme restent encore aujourd'hui sans réponse. Actuellement, les théoriciens postulent que la structure interne des liquides pourrait être incompatible avec la cristallisation. Des modèles théoriques suggèrent que les atomes dans les liquides s'organisent en pentagones. Or, pour former un cristal, il faut une structure qui peut être répétée périodiquement, de façon à remplir tout l'espace, ce que la forme pentagonale ne permet pas. Couvrir sans interruption un plancher avec des pavés pentagonaux est impossible alors que cela l'est avec des pavés triangulaires, rectangulaires ou hexagonaux. Pour que la cristallisation puisse avoir lieu, la structure pentagonale doit être cassée afin que les atomes se réarrangent.

 

Jusqu'à aujourd'hui, la preuve expérimentale que ces structures pentagonales pouvaient être la cause de la surfusion n'avait pas été apportée. En étudiant par rayonnement synchrotron un alliage de silicium et d'or à l'état liquide, les chercheurs ont pu prouver que l'ordre pentagonal était à l'origine de la surfusion. «  Nous avons étudié ce qui se passe dans un liquide en contact avec une surface sur laquelle une structure de symétrie 5 peut être réalisée (une surface de silicium 111 avec un revêtement spécial) », explique Tobias Schülli, premier auteur de l'article. « Nos expériences montrent qu'une surfusion très importante, inobservée dans ces alliages jusqu'à aujourd'hui, se produit sur une telle surface. Nous avons fait la même expérience avec des surfaces de silicium présentant une symétrie 3 ou 4 et dans ces cas, la cristallisation a eu lieu à des températures bien plus élevées ».

 

C'est au cours de travaux sur la croissance de nanofils de semi-conducteurs que les chercheurs ont découvert cette propriété des liquides qui favorise la surfusion. En observant le premier stade de croissance de nanofils, ils ont pu constater que l'alliage métal/semi-conducteur utilisé restait liquide à une température bien inférieure à son point de cristallisation, et ont décidé d'explorer le phénomène. Ces alliages liquides attirent beaucoup l'attention car ils permettent la croissance de structures semi-conductrices à des températures de croissance faibles.

 

Les nanofils de semi-conducteurs sont des candidats prometteurs pour de futurs dispositifs. A titre d'exemple, les chercheurs travaillent sur l'intégration de nanofils de silicium en nanoélectronique ou dans les cellules solaires photovoltaïques, ce qui permettrait d'augmenter le rendement de ces dernières. La surfusion pourrait aussi avoir des applications métallurgiques. Elle permettrait de mettre au point certains alliages à plus basse température.

 

L’article sur le site du CNRS :

http://www2.cnrs.fr/presse/communique/1862.htm

 

 

Notes :

(1) Institut nanosciences et cryogénie du CEA Grenoble : Consulter le site web

(2) Institut Néel (CNRS, Grenoble) et unité « Science et ingénierie, des matériaux et procédés » (Institut Polytechnique de Grenoble / CNRS / Université Grenoble 1)

(3) European Synchrotron Radiation Facility

 

Références :

« Substrate-enhanced supercooling in AuSi eutectic droplets », Nature, 22 April 2010

T. U. Schülli, R. Daudin, G. Renaud, A. Vaysset, O. Geaymond & A. Pasturel

 

Repost 0
12 mars 2010 5 12 /03 /mars /2010 17:10

Paru dans Bulletins électroniques

 

La production d'une énergie abondante et propre est l'un des Graal de la physique et de la technique moderne. Parmi les candidats identifiés, la fusion nucléaire se situe parmi les favoris. Après plusieurs décennies d'efforts, les chercheurs parviennent à surmonter un à un les obstacles qu'ils rencontrent pour parvenir à contrôler cette forme d'énergie. Deux avancées dans ce domaine ont été annoncées ces derniers jours.

 

Les réactions de fusion nucléaire

 

Les réactions de fusion nucléaire sont celles qui ont lieu au coeur des étoiles. Dans ces processus, des noyaux d'atomes légers fusionnent pour former des atomes plus lourds. La réaction produit, à masse égale de combustible, 4 à 5 fois plus d'énergie que les réactions de fission qui sont utilisées dans les centrales nucléaires actuelles. Cependant, cette énergie nucléaire est beaucoup plus difficile à maitriser.

 

Les réactions de fusion ont lieu à des températures de plusieurs dizaines de millions de degrés. Dans ces conditions, la matière se présente sous la forme d'un plasma. La première difficulté consiste donc à confiner cet ensemble de particules chargées très énergétiques. La seconde consiste à obtenir une densité de matière très élevée pour pousser les noyaux d'atomes -qui naturellement se repoussent par l'effet des forces électriques- à se rencontrer et fusionner. Dans le cas d'une étoile, l'obtention des hautes températures et des hautes densités est assurée de manière simultanée par l'effondrement gravitationnel de l'étoile sous sa propre masse. Les réactions de fusion produisent alors l'énergie nécessaire pour contrebalancer cet effondrement et assurer la stabilité de l'astre. Du moins, jusqu'à l'utilisation totale des combustibles qui entraine la mort de l'étoile.

 

Fission et fusion

 

Pour reproduire la fusion nucléaire sur Terre, il faut parvenir à maintenir dans un état contrôlé une certaine quantité de matière à des températures et des densités très élevées pour provoquer les réactions de fusion et surtout entretenir le processus pour fournir de l'énergie en continu. Cette condition est essentielle et constitue une différence entre les réactions de fusion et de fission.

 

Les réactions de fission se produisent en chaîne. Un neutron envoyé sur un noyau massif le déstabilise énergétiquement entraînant sa fission en deux noyaux de masse inférieure et produisant des neutrons qui vont à leur tour provoquer la fission de noyaux. La réaction, auto-entretenue, se poursuit tant que du combustible est disponible. Ceci présente un avantage essentiel pour assurer la production continue d'énergie ou lorsque l'on cherche à fabriquer une bombe très puissante. Avantage qui peut vite devenir un inconvénient si la réaction s'emballe et entraine la fusion complète du réacteur et la pollution radioactive qui s'en suit comme ce fut le cas à Tchernobyl en 1986. Ce risque d'emballement des réactions n'existe pas dans le cas des processus de fusion nucléaire puisque dès que les conditions de température et/ou de densité de la matière ne sont plus réunies, la réaction cesse.

 

L'enjeu de la production d'énergie par fission consiste donc à prévenir les risques d'emballement de la réaction alors que celui la production d'énergie par fusion consiste à maintenir le système dans les conditions permettant la réalisation des réactions. La fission est donc un processus simple à mettre en oeuvre mais risqué alors que la fusion est un processus complexe mais qui ne présente pas de risques similaires. La fusion présente par ailleurs d'autres avantages par rapport à la fission. Les réactifs envisagés, le deutérium (A) et le tritium (des isotopes lourds de l'hydrogène) sont relativement abondants. Chimiquement équivalent à l'hydrogène, le deutérium le remplace dans les molécules à hauteur de 0,015%. Cela peut paraître peu mais l'abondance de l'hydrogène -la molécule d'eau en contient deux atomes pour un atome d'oxygène- assure l'abondance de deutérium (qu'il faut cependant extraire des molécules). Le cas du tritium est différent. Ce dernier est un élément radioactif ayant une durée de vie très courte d'un peu plus de 12 ans. Ainsi il n'existe qu'en très petite quantité de manière naturelle mais sa synthèse est maitrisée depuis plusieurs décennies. Les matériaux combustibles pour la fusion nucléaires sont donc largement plus abondants que ceux disponible pour la fission, c'est-à-dire l'uranium.

 

L'autre avantage majeur de la fusion sur la fission concerne les déchets produits. Les réactions de fission nucléaire produisent des déchets radioactifs dont les durées de vie sont très longues, de l'ordre de plusieurs centaines de milliers d'années. Le problème concernant ces déchets ne tient pas tant de leur dangerosité que de la difficulté à les stocker de manière sécurisée sur des périodes aussi longues. Quels sont les terrains géologiques qui vont rester stables pour les prochains 200.000 ans ? Comment assurer la transmission de la mémoire de ces stockages ? Pour faire simple : que faut-il écrire sur les déchets pour être sûr d'être compris dans 100.000 ans ? Dans le cas de la fusion, les déchets radioactifs, en quantité beaucoup moins importante, ont des durées de vie plus courtes, de l'ordre de la centaine d'année.

 

Le contrôle de la production d'énergie par fusion nucléaire présente ainsi de nombreux avantages : l'existence de combustible relativement abondant ; un ratio très élevé entre la quantité de combustible nécessaire et l'énergie produite ; une quantité de déchets nocifs relativement faibles. Cependant, le processus clé ayant lieu au coeur des étoiles et permettant le démarrage des réactions de fusions -l'effondrement gravitationnel- ne peut pas être reproduit sur Terre. Pour créer les conditions de fusion nucléaire, deux procédés ont été explorés : le confinement magnétique et le confinement inertiel.

 

Le confinement magnétique

 

La méthode de confinement magnétique du plasma est celle qui se rapproche le plus de ce qui se passe au coeur des étoiles. Les réactions de fusion y ont lieu de manière continue. Ce sont ainsi plusieurs centaines de millions de tonnes d'hydrogène qui sont consommées chaque seconde par le soleil. La méthode de confinement magnétique a pour but de contrôler un "burning plasma" [1]. Il s'agit de maintenir le plasma dans les conditions de température et de densité qui permettent d'entretenir les réactions de fusion de manière permanente. Dans ce dispositif, l'énergie est donc produite de manière continue, à condition que l'on intègre dans le plasma du combustible au fur et à mesure que celui-ci est consommé. Le plasma est contrôlé dans une chambre de confinement magnétique de forme toroïdale appelée "tokamak". Des aimants situés autour de la chambre créent à l'intérieur de celle-ci un champ magnétique torique qui maintient le plasma à bonne distance de la surface du tokamak. Il faut en effet éviter tout contact entre la chambre et le plasma étant donné la température de ce dernier.

 

Même si cela fait plusieurs décennies que les expériences de confinement ont lieu, de nombreuses difficultés doivent encore être surpassées. Ces problèmes sont de natures théoriques en ce qui concerne le comportement des plasmas chauds, notamment ses instabilités qu'il faut comprendre et modéliser. Mais ce sont aussi des difficultés techniques dans le domaine des sciences des matériaux pour la réalisation des tokamaks. Le projet International Thermonuclear Experimental Reactor (ITER) [2], mentionné dans la note sur le budget 2011, et qui est actuellement en construction à Cadarache, est basé sur le principe du tokamak.

 

Une nouvelle méthode de confinement magnétique

 

Des chercheurs du Massachussetts Institute of Technology (MIT) ont proposé récemment une nouvelle méthode de confinement. Le Levitation Dipole Experiment (LDX) [3] consiste à maintenir en lévitation, au centre d'une chambre, un aimant en forme d'anneau. Cet aimant produit un champ toroïdal qui permet de confiner un plasma au sein de la chambre. Ainsi, alors que le confinement magnétique traditionnel permet de contrôler le plasma à l'intérieur du tokamak, et donc des aimants, la méthode de lévitation magnétique permet de contrôler le plasma à l'extérieur de l'aimant. On parle de confinement inverse. La création de ce nouveau dispositif est inspirée des résultats de la recherche astronomique sur les magnétosphères. Le champ magnétique créé par les planètes est un champ toroïdal. Ce champ permet donc de confiner des particules chargées comme cela se passe dans la magnétosphère terrestre dans des régions appelées ceintures de Van Allen.

 

La découverte effectuée récemment concerne les turbulences aléatoires observées dans le plasma. Celles-ci ont normalement pour conséquence de disperser les particules du plasma. Or, il a été observé que le plasma confiné par cette nouvelle méthode pouvait aussi se densifier grâce à ces turbulences. La contraction locale par turbulence avait été observée dans l'espace mais n'avait jamais été reproduite en laboratoire avant. Connaissant l'importance de l'augmentation de la densité du plasma pour provoquer les réactions de fusion nucléaire, cette découverte pourrait susciter des retombées pour la réalisation de la fusion par confinement magnétique.

 

Cependant, le LDX a pour but premier de reproduire les champs magnétiques créés par les planètes. C'est avant tout un appareil destiné à l'étude des magnétosphères. L'expérience effectuée ouvre de nouvelles perspectives dans la production d'énergie par fusion mais nécessite de nombreux développements pour l'orienter dans cette voie. Le LDX reste en revanche un instrument capital afin de développer les connaissances sur les plasmas et leur confinement et afin d'assurer la formation des chercheurs dans le domaine, ressources indispensables à la poursuite des recherche sur la fusion par confinement.

 

Le confinement inertiel : la fusion par laser

 

Il est important de noter tout d'abord que le développement des installations lasers utilisées dans le cadre des expériences de fusion par confinement inertiel est avant tout lié à des impératifs de défense et d'armement nucléaire. L'arrêt des essais nucléaires pose un problème fondamental pour la défense : comment s'assurer que l'arsenal nucléaire reste opérationnel sans effectuer de tests ? Ce point est capital car c'est sur cette assurance de l'efficacité de l'arme que se fonde le principe de dissuasion nucléaire.

 

Pour pouvoir abandonner les essais nucléaires, il faut mettre en place des moyens d'expérimentation alternatifs. C'est ce qui a été fait en France par la création du programme Simulation [4]. Ce programme comprend un premier volet de simulation numérique permettant de comprendre et d'analyser les phénomènes intervenant dans l'explosion d'une arme nucléaire. Cependant, les modèles utilisés ont besoin d'être confrontés à une forme d'expérimentation. Le deuxième volet comprend donc une partie expérimentale dans laquelle les installations laser jouent un rôle essentiel.

 

Ces installations, la National Ignition Facility (NIF) [5] aux Etats-Unis et le Laser MégaJoule (LMJ) [6] en France, permettent de reproduire les conditions thermodynamiques dans lesquelles se produisent les réactions lors de l'explosion d'une arme nucléaire. Ces conditions étant aussi celles nécessaires à la fusion nucléaire dans le but de produire de l'énergie, ces installations contribuent naturellement à la recherche dans ce domaine mettant en oeuvre la méthode de confinement inertiel par laser. Dans ce dispositif, des dizaines de faisceaux lasers envoient une impulsion très brève et très énergétique sur une cible solide de deux millimètres de diamètre. L'absorption de l'énergie laser par la cible entraine la dilatation des couches externes et, en réaction, la compression des couches internes. La densité et la température au sein de la cible, composée de deutérium et tritium, augmentent fortement entrainant l'apparition d'un point chaud puis le démarrage des réactions de fusion.

 

Le dispositif nécessaire est immense en comparaison avec la taille de la cible. Le bâtiment du NIF couvre la surface de trois terrains de football. La majeure partie est dédiée aux lignes qui permettent de produire les 192 faisceaux lasers. Les faisceaux convergent dans une sphère de 10 mètres de diamètre au sein de laquelle se trouve la cible, placée dans un cylindre d'or, appelé hohlraum, de quelques millimètres de long seulement.

 

Un allumage en vue

 

Les chercheurs du NIF ont annoncé récemment que les conditions initiales permettant l'allumage pourraient être réunies avant la fin de l'année soit seulement quelques mois après la mise en service de l'instrument. Cette avancée a été possible grâce au développement d'une technique de mesure par le Plasma Science and Fusion Center (PSFC) du MIT [7]. Cette technique, la "fusion backlighting method", proposée en 2008, a été utilisée avec succès pour mesurer les propriétés électromagnétiques régnant autour de la cible à l'Université de Rochester. Cette expérience permet de comprendre les conditions ayant lieu au sein du hohlraum et d'améliorer le dispositif afin d'atteindre l'allumage.

 

Il est à noter ici que le terme d'allumage n'a pas la même signification selon que l'on parle de confinement magnétique ou de confinement inertiel. Dans le premier cas, l'allumage est atteint lorsque l'énergie émise par le plasma en fusion atteint le niveau d'énergie requis pour démarrer et entretenir la réaction. Au-delà de l'allumage, le réacteur produit donc plus d'énergie qu'il n'en consomme. Dans le second cas, l'allumage correspond au moment où les réactions nucléaires commencent au sein de la cible.

 

 

Les problèmes à résoudre afin de produire de l'énergie par confinement inertiel sont essentiellement liés à la difficulté d'obtention des conditions initiales de température et de densité. La compression et le réchauffement simultanés de la cible par l'impulsion laser initiale présente des difficultés. Il ne semble pas possible d'atteindre des niveaux de température et de densité assez élevés seulement par compression. Une alternative, privilégiée au NIF et au LMJ, consiste à faire suivre les impulsions laser de compression par une autre impulsion permettant d'élever la température. On parle alors d'allumage rapide. Il faut par ailleurs obtenir au niveau du point chaud une température et une densité suffisante pour que la réaction s'auto-entretienne et consume l'ensemble de la cible afin d'en tirer le meilleur rendement.

 

L'obstacle principal à surmonter dans le cas de la fusion nucléaire par confinement inertiel concerne la production continue d'énergie. La combustion d'une cible dure quelques dizaines de picosecondes. L'énergie est donc produite de manière discrète. Pour arriver à produire de l'énergie de manière continue, il faut être capable de répéter l'opération de fusion plusieurs centaines voire milliers de fois par seconde. Il faut donc parvenir à assurer cette cadence malgré l'extrême précision requise, notamment sur le positionnement de la cible.

 

La production d'énergie par fusion nucléaire est un enjeu majeur à l'échelle internationale. Même si les retombées économiques ne sont pas attendues avant la seconde partie du siècle, les grandes puissances scientifiques consacrent des budgets conséquents pour la réalisation d'instruments que ce soit à l'échelle nationale avec les installations laser ou à l'échelle internationale notamment au travers du projet ITER [2]. Si plusieurs voies pourraient conduire à la réalisation de réacteur par fusion, il est encore trop tôt pour savoir lesquelles aboutiront, c'est-à-dire proposeront un rendement permettant une production industrielle d'énergie. Les différentes méthodes se trouvent donc dans un processus d'émulation plus que de compétition. Elles présentent toutes des obstacles qu'il reste à surmonter et qui demandent des progrès théoriques aussi bien que techniques.

 

En plus de cette émulation, la production de cette forme d'énergie nucléaire est aussi en concurrence avec toutes les formes d'énergies renouvelables. La récupération de l'énergie solaire par exemple pourrait voler la vedette à la fusion nucléaire si son rendement pouvait être considérablement amélioré dans les prochaines décennies. A quoi ressemble le Graal ? Personne ne le sait encore.

 

Vincent Reillon,

 

L’article sur le site de Bulletins électroniques :

http://www.bulletins-electroniques.com/actualites/62278.htm

 

 

- [1] Le site de l'organisation nationale des chercheurs travaillant sur les propriétés des plasmas en fusion : http://burningplasma.org/home.html

- [2] Le site d'ITER : http://www.iter.org/default.aspx

- [3] Le site du LDX : http://www.psfc.mit.edu/ldx/

- [4] Le site du programme Simulation : http://www-lmj.cea.fr/fr/programme_simulation/index.htm

- [5] Le site de la National Ignition Facility : https://lasers.llnl.gov/

- [6] Le site du Laser MégaJoule http://www-lmj.cea.fr/index.htm

- [7] Le site du PSFC : http://www.psfc.mit.edu/

- [8] Le site de l'IFS : http://hagar.ph.utexas.edu/ifs/


 

Note :

(A) Le Deutérium (D) est un isotope de l'hydrogène à un neutron et un proton, le Tritium(T) un autre isotope à un proton et deux neutons.
La réaction de fusion dont on parle ici ,D + T, produit de l'Hélium 4 (atome d'hélium possédant deux protons et deux neutrons) tout en libérant le neutron excédentaire.

 

 

 

Repost 0
23 février 2010 2 23 /02 /février /2010 18:00

Des chercheurs du CNRS ont transformé l'énergie chimique issue de la photosynthèse en énergie électrique. Ils proposent ainsi une nouvelle stratégie qui convertit l'énergie solaire en énergie électrique de manière écologique et renouvelable. Cette biopile pourrait aussi avoir des applications médicales. Ces travaux viennent d'être publiés dans la revue Analytical Chemistry.

La photosynthèse est le processus par lequel les plantes convertissent l'énergie solaire en énergie chimique. En présence de lumière visible, le dioxyde de carbone (CO2) et l'eau (H20) sont transformés en glucose et en dioxygène (O2) dans une série complexe de réactions chimiques. Les chercheurs du Centre de recherche Paul Pascal (CNRS) ont mis au point une biopile qui fonctionne à partir des produits de la photosynthèse : le glucose et l'O2, et qui est composée de deux électrodes modifiées avec des enzymes.
Cette pile est insérée dans une plante vivante, dans le cas présent un cactus.

Grâce à ces électrodes très sensibles à l'O2 et au glucose, une fois implantées dans le cactus, les chercheurs ont réussi à suivre l'évolution de la photosynthèse in vivo en temps réel. Ils ont pu observer l'augmentation du courant électrique lorsque qu'une lampe est allumée et une diminution lorsque celle-ci est éteinte. Par ces expériences, les chercheurs ont aussi pu observer pour la première fois l'évolution du glucose en temps réel lors de la photosynthèse. Cette méthode pourrait offrir de nouvelles pistes dans la compréhension des mécanismes de la photosynthèse.

D'autre part, les chercheurs ont montré qu'une biopile implantée dans un cactus pouvait générer une puissance de 9 μW par cm2.Le rendement étant proportionnel à l'intensité de l'éclairage, une illumination plus intense accélère la production de glucose et d'O2 (photosynthèse), il y a donc plus de combustible pour faire fonctionner la biopile. Dans un futur lointain, ce dispositif pourrait éventuellement offrir une nouvelle stratégie pour transformer l'énergie solaire en énergie électrique d'une façon écologique et renouvelable

Au-delà de ce résultat, l'objectif initial de ces travaux est la mise au point d'une biopile pour des applications médicales. Elle fonctionnerait alors sous la peau de façon autonome (in vivo) en puisant l'énergie chimique du couple oxygène-glucose naturellement présent dans les fluides physiologiques. Elle pourrait ainsi alimenter des dispositifs médicaux implantés, tels que, par exemple, des capteurs autonomes sous-cutanés mesurant le taux de glucose chez les patients diabétiques.

 


 

 

 

L’article d’origine sur le site du CNRS :


http://www2.cnrs.fr/presse/communique/1797.htm

 

Repost 0
2 octobre 2009 5 02 /10 /octobre /2009 07:33

De nouvelles voies de recherche sur les cancers et les maladies génétiques.

INRA - Institut Pasteur - Inserm

Des chercheurs de l'INRA, de l'Institut Pasteur, du CNRS et de l'Inserm viennent d'identifier et de caractériser une protéine humaine qui a un rôle décisif dans le compactage de l‘ADN et donc le verrouillage de l'expression des gènes. Cette découverte ouvre de nouvelles voies de recherche sur le cancer et les maladies héréditaires. Ces travaux sont publiés dans les comptes rendus de l'Académie des sciences américaines (PNAS).

 

 Toutes les cellules de notre corps contiennent le même patrimoine génétique. Elles n’utilisent pourtant qu’une partie des gènes portés par l’ADN, ce qui leur permet d’acquérir des fonctions différentes et de former des tissus aussi variés que la peau, le tissu nerveux, musculaire ou intestinal. Mais comment font les cellules pour choisir quels gènes utiliser ? On sait qu'intervient ici la chromatine, formée par l’assemblage de l’ADN et de protéines dans le noyau des cellules. La structure de la chromatine a un rôle primordial sur la façon dont les gènes se comportent. Ainsi, la compaction de la chromatine désactive les gènes, car elle rend l’ADN peu accessible aux enzymes qui permettent leur expression.

 

Il est crucial d’identifier les facteurs qui « commandent » l'activation ou la désactivation de certains gènes dans la cellule car leur altération peut conduire à des maladies génétiques ou à des cancers. Une étude menée par Hélène Bierne, directrice de recherche à l’INRA au sein de l’Unité des Interactions Bactéries-Cellules (Institut Pasteur, Inserm U604, INRA USC2020) dirigée par Pascale Cossart, en collaboration avec d'autres équipes de l'Institut Pasteur et des chercheurs CNRS de l'Institut Gustave Roussy, a permis de découvrir comment la protéine humaine BAHD1 est capable de stimuler la compaction de la chromatine au niveau de certains gènes. En mettant en œuvre un complexe de protéines qui condensent la chromatine, BAHD1 désactive plusieurs gènes impliqués dans la multiplication ou la survie des cellules. Or, l’expression anormale de ces gènes contribue à des anomalies congénitales ou à l'apparition de cancers.

 

Cette découverte apporte donc un nouvel espoir dans la compréhension des processus de cancérisation et la recherche de nouvelles thérapies anti-cancer. Ainsi BAHD1, qui contrôle la compaction de ces gènes, pourrait être un nouveau marqueur pronostique de l'évolution de certains cancers en servant à repérer les patients susceptibles de développer des métastases.

 


 

 

 

L’article d’origine sur le site de l’INRA :

 

Pour en savoir plus :

« Human BAHD1 promotes heterochromatic gene silencing », Hélène Biernea, To Nam Thama, Eric Batscheb, Anne Dumayc, Morwenna Leguillouc, Sophie Kernéis-Golsteynd, Béatrice Regnaulte, Jacob-S Seelerf, Christian Muchardtb, Jean Feunteunc and Pascale Cossarta. PNAS, 2009, vol. 106 _ no. 33 pp. 13826–13831.

 

Repost 0