Overblog Suivre ce blog
Administration Créer mon blog
3 septembre 2009 4 03 /09 /septembre /2009 15:50

Le caoutchouc naturel provient en grande partie du Ficus elastica - plus communément appelé "caoutchouc" - un arbre surtout présent en Asie du Sud-Est. La production de ce matériau devenu essentiel pour notre société moderne est néanmoins aujourd'hui menacée : un champignon infecte en effet un nombre croissant de Ficus elastica sur la planète et notamment en Asie du Sud-Est. Afin de pouvoir continuer à récolter la précieuse substance, une équipe de scientifiques de l'Institut Fraunhofer de biologie moléculaire et d'écologie appliquée (IME) d'Aix-la-Chapelle travaille actuellement à l'obtention de caoutchouc naturel à partir de pissenlits. En empêchant la polymérisation spontanée du caoutchouc issu du pissenlit, les chercheurs viennent de réaliser un grand pas vers la production industrielle de caoutchouc naturel à partir de cette plante.

Environ 30.000 produits de la vie quotidienne contiennent du caoutchouc naturel. Les pneus de voiture, les tubes de cathéter et les gants en latex sont autant d'exemples de la variété des applications de cette substance naturelle. Une grande partie de la production mondiale se trouve en Asie du Sud-Est où les conditions climatiques tropicales se prêtent particulièrement bien à la culture du Ficus elastica. Cette espèce, et par là-même la production de caoutchouc, est cependant menacée par la propagation d'un champignon qui a déjà infecté de nombreux arbres en Amérique du Sud. Plus inquiétant, la contamination est maintenant observée dans plusieurs zones d'Asie du Sud-Est. Même s'il est possible de lutter contre ce champignon à l'aide de fongicides, l'utilisation de tels moyens ne serait pas envisageable si la contamination s'étendait sur de grandes surfaces. L'industrie caoutchoutière serait alors très fragilisée.

Les chercheurs de l'IME d'Aix-la-Chapelle essayent actuellement d'utiliser le pissenlit russe pour produire du caoutchouc, comme cela avait déjà été le cas pendant la Deuxième Guerre mondiale. L'obtention de caoutchouc est toutefois difficile, le caoutchouc issu de la plante polymérisant immédiatement. Cette propriété interdit implicitement la production à grande échelle de caoutchouc naturel à partir de pissenlits.

Les scientifiques sont maintenant parvenus à identifier l'enzyme responsable de la polymérisation rapide du caoutchouc de pissenlit. En désactivant cette enzyme, ils ont obtenu des plantes génétiquement modifiées capables de produire jusqu'à quatre à cinq fois plus de caoutchouc qu'avec des pissenlits russes classiques. "En cultivant ces plantes à grande échelle, il serait possible de produire de 500 à 1.000 kilogrammes de latex par hectare et par période de végétation", commente le Prof. Dr. Dirk Prüfer, directeur de laboratoire à l'IME. Autre avantage : le caoutchouc de pissenlit n'a occasionné jusqu'ici aucune allergie. Il serait donc particulièrement conseillé pour des produits d'utilisation clinique.

Les chercheurs essayent désormais de cultiver les pissenlits génétiquement modifiés selon des techniques classiques. Prüfer estime que cette étape sera franchie d'ici cinq ans. La culture massive de pissenlit permettra de produire une autre substance précieuse sécrétée par la plante : l'induline.

 

Julien Sialelli

 


 

Article paru dans Bulletins électroniques

http://www.bulletins-electroniques.com/actualites/60381.htm

 

Repost 0
27 juillet 2009 1 27 /07 /juillet /2009 16:57

Avec une somme globale de 4,3 millions d'euros, le Ministère fédéral de l'enseignement et de la recherche (BMBF) soutient le projet de production de "biohydrogène" réalisé à échelle nationale : sous la direction du Prof. Dr. Matthias Rögner (biochimie des plantes, faculté de biologie et biotechnologies de l'Université technique de la Ruhr à Bochum (RUB) ), huit groupes de travail internationaux à compétences interdisciplinaires se penchent sur le développement d'une "cellule-design" biologique, susceptible de produire de l'hydrogène à partir d'eau à l'aide de l'énergie solaire. Le projet s'étendra sur trois ans. Participent à ce projet des biochimistes et chimistes, biophysiciens et physiciens-chimistes, microbiologistes et techniciens de procédés provenant de Bochum, Berlin, Bielefeld, Cologne et Mülheim. La chaire du RUB, chargé de la coordination, recevra à elle seule 2,2 millions d'euros.

Les chercheurs exploitent la photosynthèse de cyanobactéries unicellulaires ("algues bleues", [1]), qu'ils couplent directement avec l'enzyme hydrogénase, productrice d'hydrogène. Comme les cyanobactéries ne possèdent pas d'hydrogénase performante, les scientifiques "importent" l'enzyme à partir d'algues vertes - et optimisent ainsi le procédé, de sorte qu'il demeure également fonctionnel avec de l'oxygène. Par liaison directe avec le processus d'hydrolyse photobiologique, devraient ainsi être atteints des taux de production d'hydrogène d'un facteur au moins 100 fois supérieur au taux maximal atteint jusqu'à présent avec des organismes photosynthétiques.

 

La condition préalable à ce procédé consiste à modifier le métabolisme énergétique de la cellule en plusieurs étapes, de sorte que les cellules d'algues bleues transforment plus de 75% de l'énergie disponible pour produire de l'hydrogène à la place de la biomasse. La cellule de cyanobactérie est reconvertie en pratique en catalyseur vivant, qui se multiplie en continu par division et n'a aucune existence propre en dehors de l'eau, des sels nutritifs et de l'énergie solaire.

Les analyses de coûts menées par le Prof. Dr. Hermann-Josef Wagner (chaire des systèmes énergétiques et de l'économie énergétique, faculté de construction mécanique de la RUB) démontrent que l'hydrogène produit par ces "cellules-design" d'avenir peut être compétitif, à condition qu'il permette en même temps de développer des systèmes de fermentation de masse pour les microalgues ("photo-bio-fermenteur"), dont le prix demeurerait à 10% inférieur aux coûts des systèmes disponibles jusqu'à présent. De tels développements constituent une part déterminante du projet, et ils ont déjà été abordés avec succès par les entreprises environnantes.

 

Le nouveau projet soutenu par le BMBF et intitulé "systèmes naturels design pour la production d'hydrogène aidée par la lumière" se base sur le projet du BMBF "Bio-H2" [2] terminé il y a peu de temps, dans le cadre duquel des chercheurs ont développé une "biobatterie" sous la direction du RUB - un système semi-artificiel pour la production de biohydrogène. Pour le projet actuel de conception de cellules "naturelles" comme fournisseurs d'énergie, le BMBF a doublé les moyens financiers accordés.

Article paru dans Bulletins électroniques

http://www.bulletins-electroniques.com/actualites/59986.htm


Rédactrice : Claire Vaille


 

 

 


[1] Les cyanobactéries sont des procaryotes photosynthétiques, c'est-à-dire qu'elles utilisent comme source d'énergie l'énergie lumineuse, qu'elles transforment en énergie chimique utilisable par la cellule en fixant du CO2 et en libérant de l'O2. L'oxydation de l'eau en oxygène au cours de la photosynthèse est une propriété qui sépare totalement les cyanobactéries des autres procaryotes photosynthétiques, les bactéries pourpres et vertes.

 

[2] Pour en savoir plus :

 

- Informations supplémentaires sur le site internet de Bio-H2 (en allemand) : http://www.bio-h2.de
- Informations supplémentaires sur Bio-H2 (en anglais) : http://www.eihp.org/public/documents/fuero/BIO-H2.pdf
- Prof. Dr. Matthias Rögner, chaire de biochimie des plantes, faculté de biologie et biotechnologie de l'Université de la Ruhr - Université de la Ruhr à Bochum (RUB) -

Repost 0
24 juillet 2009 5 24 /07 /juillet /2009 15:23

Des connexions du cerveau, qui encouragent la formation de faux souvenirs, ont été identifiées. De tels souvenirs sont plus susceptibles de se retrouver chez les gens ayant des liens de bonne qualité entre les neurones dans une région particulière du cerveau.

Les individus se souviennent souvent des mêmes événements différemment, ou rapportent des souvenirs de choses auxquelles ils ne devraient pas se rappeler étant donné leur trop jeune âge à l’époque de l’événement rapporté. Pour découvrir si une tendance à fabriquer des faux souvenirs se reflétait dans la structure du cerveau, Luis Fuentemilla de l’Université de Barcelone en Espagne et ses collègues ont provoqué des faux souvenirs chez 48 étudiants en laboratoire.

On demandait aux participants de lire quatre listes de 14 mots sémantiquement proches, dans laquelle chaque liste avait un mot "leurre" manquant. Par exemple, une liste incluant "siège", "sofa", "table" et "tabouret" ne comptait pas le mot "chaise" qui était donc le mot absent leurre.

Les étudiants écrivaient autant de mots dont ils pouvaient se souvenir et avaient ensuite leurs cerveaux passés au scanner. Ceux qui se "souvenaient" de plus de mots leurres étaient supposés être plus enclins aux faux souvenirs, chez lesquels on a trouvé des connections neurales de meilleure qualité, appelés "axons", dans le faisceau longitudinal supérieur, connu pour être associé à la mémoire fondamentale.

Article paru sur le site Charlatans

http://charlatans.info/news/spip.php?article209


 

 

 

A noter que Charlatans fournit également en référence bibliographique deux ouvrages d’Elisabeth Loftus, psychologue américaine qui grâce aux méthodes de la psychologie expérimentale a réussi a démontrer qu’on peut fabriquer des faux souvenirs : le fait qu’on croit se remémorer brutalement un événement traumatisant ne signifie pas qu’on l’ait refoulé dans sa mémoire, comme le veut la mythologie freudienne.

Anton

Le syndrome des faux souvenirs. Elizabeth Loftus

Le mythe de la mémoire refoulée. Elisabeth Loftus

Repost 0
28 juin 2009 7 28 /06 /juin /2009 15:47

Un fils, un frère, une cousine, un grand-père, une tante… partagent certains traits qui montrent plus ou moins qu'ils ont un lien de parenté. Si les êtres vivants reconnaissent en général les membres de leur propre famille, peuvent-ils reconnaître si deux inconnus ont un lien de parenté ? Pour la première fois, une équipe de chercheurs du Laboratoire de psychologie et neurocognition de Grenoble (CNRS / Université Pierre Mendes France / Université de Savoie) a évalué cette capacité à détecter un lien familial. Les résultats, publiés dans Proceedings of the Royal Society B, montrent que cette reconnaissance dépend d'un degré « r » de parenté.

Le cœfficient de parenté « r » correspond à la probabilité qu'un même gène se retrouve chez deux individus de même famille. Il est, par exemple, égal à 1 pour deux « vrais jumeaux », de ½ entre parents et enfants, de ¼ entre petits-enfants et grands-parents. L'étude révèle que plus « r » est plus élevé, plus détecter le lien de parenté est fréquent. Elle montre ainsi que l'on perçoit l'air de famille même avec des personnes qui n'ont jamais cohabité et qui appartiennent à différentes générations, comme des grands-parents et leurs petits-enfants. Reconnaître un lien de parenté entre deux inconnus peut nous aider à anticiper leurs comportements, procurant ainsi un certain avantage dans la vie en société.

Certaines particularités ont également été notées : en effet, le lien qui réunit grands-parents et petits-enfants est plus détectable que celui qui lie les oncles ou tantes à leurs neveux ou nièces, bien qu'ils soient tous deux estimés par le même coefficient de parenté (r=¼). Des facteurs comportementaux  et génétiques concourent à expliquer ces différences.

Pour cette étude, l'équipe du LPNC a réuni plus de 500 photos de membres de plusieurs dizaines de familles de la région grenobloise. Elle les a ensuite associées par paires et les a soumis à des adultes n'ayant aucun lien avec ces familles. Ces adultes devaient détecter l'existence ou non d'un lien de parenté entre elles. Les paires de visages présentées à ces adultes associaient un individu avec lui-même (à un âge différent), avec un frère ou une sœur, un oncle ou une tante, un des grands-parents, un cousin ou une cousine ou enfin avec, un étranger, adulte ou enfant.

Aujourd'hui, l'équipe du LPNC poursuit ses investigations en essayant de mieux comprendre la nature des mécanismes mise en jeu dans la reconnaissance et de définir les zones des visages qui permettent de détecter la parenté.



L’article sur le site du CNRS

http://www2.cnrs.fr/presse/communique/1629.htm

 

Notes :

(1)Soins allo-parentaux, choix du partenaire sexuel

Références :

Human ability to detect kinship in strangers' faces: effects of the degree of relatedness.
Gwenaël Kaminski, Slimane Dridi, Christian Graff, Edouard Gentaz.
Paru le 17 juin 2009 dans la revue avancée en ligne de Proceedings of the Royal Society B

 


Repost 0
24 juin 2009 3 24 /06 /juin /2009 11:33

Le professeur Gebisa Ejeta de l’Université de Purdue (Indiana) recevra en octobre 2009 le World Food Prize (1) (2) pour ses recherches sur le sorgho, céréale cultivée sur les 5 continents mais qui surtout constitue une des principales cultures vivrières en  Afrique.

 Entré à la faculté de Purdue en 1974, Gebisa Ejeta est docteur en génétique et en amélioration des plantes. Il a poursuivi ses recherches au Soudan pour le compte de  l’ ICRISAT, qui se consacre aux conditions de culture en milieu semi-aride tropical. Il a mis au point dans les années 80 un hybride de sorgho tolérant à la sécheresse , Hageen Dura-1, permettant d’obtenir des rendements jusqu’à 2,5 fois supérieurs au sorgho traditionnel. Il ne s’est pas contenté de créer l’hybride, il a aussi contribué à la mise en place des infrastructures permettant le développement, la multiplication des semences, et la formation des agriculteurs à des pratiques culturales appropriées.  Hageen Dura-1 est aujourd’hui cultivé sur plus d’un million d’acres au Soudan. Un autre hybride tolérant à la sécheresse NAD-1 a été mis au point pour le Niger .

 

Gebisa Ejeta a d’autre part travaillé sur la  résistance du sorgho à la Striga, un véritable fléau pour les cultures africaines qui serait respsonsable de 40% de pertes. Il ne s’agit en effet pas d’une adventice ordinaire :   celle-ci est un parasite qui se fixe sur la racine du sorgho et pompe ses ressources en nutriments et en eau. En collaboration avec le professeur Larry Butler de l’université de Purdue, il a identifié des gènes de résistance à la Striga (3) qui ont été intégré par hybridation à des variétés de sorgho adaptées aux conditions locales . Un programme pilote conduit dans les années 90 dans plusieurs pays africains a permis d’obtenir des rendements jusqu’à 4 fois supérieurs à ceux des variétés locales. Un nouveau programme pilote démarré en 2002/2003 avec l’USAID en Érythrée, en Ethiopie et Tanzanie a mis au point un « pack » pour l’amélioration de la culture du sorgho, combinant la résistance de la plante hôte à son parasite, une meilleure gestion de l’eau et l’amélioration de la fertilité des sols.

Anton Suwalki



Notes :

  (1) http://www.worldfoodprize.org/press_room/2009/june/ejeta.htm

(2) http://www.worldfoodprize.org/about/about.htm
(3) il ne s’agit pas de sorgho transgénique. Par contre une variété de sorgho transgénique destinée à en améliorer les qualités nutritives a récemment été autorisée à l’essai en serres en Afrique du Sud.

Repost 0
22 juin 2009 1 22 /06 /juin /2009 11:03

Les organismes vivants ont développé des systèmes de régulation de leurs voies métaboliques, qui leur sont nécessaires pour survivre. Pourquoi ne pas s'inspirer de ces mécanismes afin d'améliorer notre maîtrise des flux de matière et d'énergie ?
C'est dans cette optique que des chercheurs du CNRS, de l'INRA et du CEA(1) ont développé un modèle mathématique représentant les voies de biosynthèse des acides aminés(2) chez la plante Arabidopsis. Ce modèle a permis de reproduire fidèlement des mesures réalisées avec des plantes entières, démontrant ainsi son exactitude. Des simulations ont alors permis de comprendre qualitativement et quantitativement le fonctionnement d'un tel réseau de contrôle. Ces résultats viennent d'être publiés en ligne par la revue Molecular Systems Biology.

Imaginez qu'une usine fabrique simultanément, à partir d'un même stock de pièces détachées, plusieurs modèles de voiture à une vitesse de 20 000 voitures par seconde et qu'elle doive, de plus, adapter sa vitesse de production à un apport de pièces détachées plus ou moins efficace ainsi qu'à une demande très fluctuante des consommateurs. À ce rythme, plus d'un milliard de voitures peuvent être fabriquées en une journée. On comprend aisément qu'à cette vitesse, le moindre retard lors d'une étape puisse conduire à un chaos indescriptible.

 

 

De tels flux sont caractéristiques des processus de synthèse des petites molécules dans les organismes vivants (métabolisme). Ces derniers ont en effet été capables, au cours de l'évolution, de développer des systèmes de contrôle permettant de gérer leur production de molécules, à des vitesses parfois encore 1 000 fois plus grandes. Ces mécanismes de contrôle sont nécessaires  pour éviter une rupture de stock ou un engorgement qui ralentiraient la croissance de la plante, ou tueraient les cellules, lors d'un changement dans leur environnement. Par exemple, la lumière, source d'énergie pour les plantes, peut augmenter brusquement après le passage d'un nuage ; un coup de vent peut faire baisser la température d'une dizaine de degrés, divisant ainsi la vitesse de travail dans la cellule par deux.

 

Partant du principe que la nature, dans sa capacité à gérer des systèmes complexes, était sans doute un bon exemple à suivre pour améliorer notre maîtrise des flux de matière et d'énergie, les chercheurs se sont fixés comme objectif de modéliser un système métabolique comprenant de nombreuses bifurcations et un réseau dense de contrôles (synergie, feedback, inhibitions, activation, doubles contrôles). Ils se sont inspirés de modèles expérimentaux pour obtenir les informations nécessaires à la mise en place du modèle mathématique :

·          mesure de la vitesse à laquelle les « robots » (les enzymes(3)) transforment ou assemblent des pièces (les métabolites).

·          mesure de la sensibilité de certains « robots » (les enzymes allostériques) à différents signaux (selon les niveaux de certains stocks, ces enzymes clé travailleront plus ou moins vite).

·          comptage du nombre  de robots impliqués à chaque étape grâce à des anticorps reconnaissant spécifiquement ces enzymes.

 

Chaque brique d'information n'est pas en elle-même porteuse de sens. Mais lorsque l'ensemble de ces données a été assemblé dans un modèle mathématique d'un niveau de complexité très élevé, il a été possible de simuler le comportement du système et de reproduire des mesures réalisées avec des plantes entières.

 

Le modèle a également permis de reproduire quantitativement le comportement de certaines plantes mutantes. Ces résultats validant le modèle, des simulations, intégrant la modification de certains paramètres, ont alors été réalisées et ont permis de comprendre qualitativement et quantitativement le fonctionnement d'un tel réseau de contrôle.

Ces problématiques de contrôle rencontrées dans les systèmes vivants se rapprochent de celles rencontrées, par exemple, dans un réseau électrique. Ainsi, le modèle mathématique mis au point pourrait permettre d'améliorer l'efficacité de ce dernier. Les chercheurs s'intéressent dorénavant à d'autres systèmes métaboliques qui présentent une architecture de contrôle différente ainsi qu'à d'autres mécanismes de contrôle qui opèrent sur des gammes de temps plus lentes et qui ont pour fonction de contrôler le nombre d'enzymes.


 

 

 

La dépêche sur le site du CNRS :

http://www2.cnrs.fr/presse/communique/1602.htm

 


 

 

Notes :

1) Les chercheurs du laboratoire de physiologie cellulaire végétale (CNRS / CEA / Inra / Université de Grenoble 1) ont travaillé en collaboration avec le Laboratoire « Bioénergétique et ingénierie des protéines » (CNRS).
2) Les acides aminés sont les constituants de base des protéines. Ils mesurent environ 100 picomètres (pm).
3) Une enzyme est une molécule, le plus souvent une protéine, permettant d'accélérer jusqu'à des millions de fois les réactions chimiques du métabolisme.

Références :

Curien, G., Bastien, O., Robert-Genthon, M., Cornish-Bowden, A., Cardenas, M. L. & Dumas, R. (2009) Understanding regulation of aspartate metabolism with a model based on measured kinetic parameters, Mol Sys Biol. 5:271
 

 
Repost 0
26 mai 2009 2 26 /05 /mai /2009 13:04

CEA/INSERM

12 Mai 2009

 

Nos capacités mathématiques s’appuient-elles sur des régions cérébrales liées à l’attention spatiale? Cette question est soulevée dans une étude menée par des chercheurs du CEA, de l’Inserm, de l’Inria, de l’Université Paris-Sud au sein de l’unité Inserm/CEA « Neuroimagerie cognitive », à NeuroSpin.

 

Grâce à l’imagerie cérébrale par résonance magnétique à 3 Teslas de NeuroSpin, ces équipes viennent de mettre en évidence un rapprochement inattendu entre les représentations des nombres et celles de l’espace dans le cerveau. Ces travaux, qui sont publiés dans Science Express, pourraient avoir des conséquences importantes pour l’enseignement de l’arithmétique. 

 

Au sein de l’équipe de Stanislas Dehaene dans l’unité Inserm/CEA de neuroimagerie cognitive à NeuroSpin, André Knops a enregistré l’activité du cerveau au moyen d’un appareil d‘imagerie par résonance magnétique (IRM) de 3 Teslas, alors que des adultes volontaires effectuaient, soit des additions et des soustractions mentales, soit des mouvements des yeux vers la droite ou vers la gauche de l’écran. Un logiciel de traitement du signal a ensuite permis d’identifier des régions du cerveau impliquées dans les mouvements des yeux, et d’en déduire un algorithme qui, à partir de l’activité cérébrale, dévoile un aspect du comportement des sujets.

 

À partir des images IRM de haute résolution obtenues, les chercheurs ont été en mesure de déduire, essai par essai, si la personne avait orienté son regard vers la droite ou vers la gauche, avec un taux de succès de 70 %. Plus surprenant, cette classification s’est étendue au calcul mental : les chercheurs ont ainsi observé la même distinction entre l’activité cérébrale évoquée pendant les mouvements à gauche ou à droite et pendant les opérations de soustraction ou d’addition – que ces opérations soient réalisées avec des ensembles concrets d’objets (calcul non symbolique) ou avec des nombres symboliques (calcul symbolique) présentés sous formes de chiffres arabes.

 

Ils en ont conclu que le calcul mental ressemblait à un déplacement spatial. Par exemple, dans une certaine mesure, lorsqu’une personne qui a appris à lire de gauche à droite, calcule 18 + 5, son attention se déplace « vers la droite » de 18 à 23 dans l’espace des nombres, comme si les nombres étaient représentés sur une ligne virtuelle. 

 

En mettant en évidence l’interconnexion entre le sens des nombres et celui de l’espace, ces résultats éclairent l’organisation de l’arithmétique dans le cerveau. Ils sont compatibles avec l’hypothèse, développée par Stanislas Dehaene, que les apprentissages scolaires entraînent un recyclage neuronal de régions cérébrales héritées de notre évolution et dédiées à des fonctions proches.

 

Chez les enfants en difficultés, l’utilisation de jeux qui insistent sur la correspondance entre les nombres et l’espace, tels que le jeu des « petits chevaux », peut conduire à des améliorations prononcées des compétences en mathématiques. Sur ce principe, un logiciel ludo-pédagogique en libre accès, « La course aux nombres », a été développé par le même groupe afin de faciliter l’apprentissage de l’arithmétique.

 


 

 

L’article d’origine sur le site du Commissariat à l’énergie atomique

Le calcul mental active des aires cérébrales impliquées dans l’attention spatiale

Repost 0
20 mai 2009 3 20 /05 /mai /2009 15:00

BE Etats-Unis numéro 161 (9/04/2009) - Ambassade de France aux Etats-Unis / ADIT


 

Une nouvelle méthode de mesure de l'arsenic dans les sols

 

Selon le "Journal of Analytical Atomic Spectrometry" publié le 4 avril 2009, l'université de "Massachusetts Amherst" aurait mis au point une méthode précise de mesure des concentration totale de l'arsenic dans le sol. Si l'impact de l'arsenic sur l'environnement et la santé humaine n'est plus à démontrer, ce nouvel outil de mesure devrait favoriser une meilleure connaissance du cycle de cet élément ainsi que la gestion du risque de contamination de l'environnement et des nappes phréatiques. La méthode pourrait par ailleurs être utilisée pour détecter facilement les concentrations d'arsenic s'accumulant le long de la chaîne alimentaire (cas des rizières du sud-est de l'Asie).

Si l'arsenic peut être présent naturellement dans l'environnement en raison du fond géochimique des sols et des différentes formations géologiques, les concentrations mesurées en Amérique du nord seraient principalement le résultat de pollutions issues du traitement du bois. En effet, Les équipements de pleins airs, fabriqués à base de bois (comme par exemple les aires de jeux dans les parcs...), s'imprègnent de métaux lourds lors du traitement (principalement de chrome, cuivre et arsenic) visant à rendre le bois imperméable. Toutefois, au contact de l'air libre, ces matériaux se dégradent, entraînant une contamination des sols en métaux lourds. Sachant que les enfants ingèrent en moyenne 100 mg/jour de sol (donnée de EPA - 1997), ces sources de pollution peuvent avoir des répercussions non négligeables en termes de santé publique.

Actuellement, les méthodes couramment utilisées pour mesurer l'arsenic dépendent de la spéciation et du degré d'oxydation de l'élément (mono ou diméthyle...). Si le risque environnemental et le niveau de toxicité de l'arsenic varient fortement en fonction de la nature des espèces présentes et des propriétés physico-chimiques du sol, il est finalement important de pouvoir mesurer la concentration totale de l'élément. Mise au point par Julian Tyson, chercheur en chimie analytique et chargé des projets de recherche sur l'arsenic à l'université de "Massachusetts Amherst", la méthode vise à extraire les différentes formes d'arsenic d'un échantillon de sol afin d'en mesurer la concentration totale. Cette procédure consiste à dissoudre dans un premier temps, les différents composés à base d'arsenic par de la soude et de l'acide phosphorique pour les séparer par chromatographie. L'arsenic est ensuite converti en substance volatile et mesuré à haute température par spectrométrie d'émission atomique au plasma.

Cette méthode permettrait ainsi de mesurer l'arsenic dans différents milieux afin de caractériser les flux entre ses différentes natures chimiques et d'accroître les connaissances quant aux sources potentielles de contamination. Si le pouvoir bio-accumulant de l'élément au sein des espèces végétales est connu, de plus amples recherches sont nécessaires pour statuer sur le devenir de cet élément dans le sol, à savoir son éventuelle évaporation dans l'atmosphère ou son infiltration dans les nappes souterraines (réserves d'eau potable). Selon des études menées au département des sols de l'université de Stanford, il semblerait cependant que seule une très faible quantité d'arsenic présent dans les sols aux Etats-Unis atteigne les eaux souterraines.

Il n'en reste pas moins que beaucoup reste à découvrir concernant la chimie de l'arsenic et notamment sur le rôle des bactéries présentes dans le sol. En effet, certaines bactéries anaérobiques seraient responsables de la conversion de l'arsenic sous une forme volatile, lui permettant ainsi de se lier à des oxydes de fer présents dans le sol. Piégé par les oxydes de fer, l'arsenic est stabilisé dans le sol. Il présente alors moins de risque pour l'environnement.

 Agathe Dumas

Pour en savoir plus :

 - Site de l'université de Massachusetts Amherst : http://www.umass.edu/

- BE Etats-Unis 744 (04/07/2005) - "L'arsenic, c'est fantastique" - http://www.bulletins-electroniques.com/actualites/28908.htm

 Code brève

ADIT : 58584

 

Source :

 - First Accurate Test For Arsenic In Soil Developed. (03/04/2009). Science Daily. http://www.sciencedaily.com/releases/2009/04/090401183822.htm

- Stanford scientists find new solutions for the arsenic-poisoning crisis in Asia. (25/03/2009). EurekAlert. http://www.eurekalert.org/pub_releases/2009-03/su-ssf032509.php

 

 


 

Remarques importantes :

(rectifié le 21/05/2009)

-Si les concentrations excessives d’arsenic en Amérique du Nord évoqués ici semblent avant tout liées à l’activité humaine et sont d’ampleur non négligeables, ils sont d’origine naturelle et constituent un grâve problème sanitaire en Asie pour 140 millions de personnes qui vivent autour du massif himalayen, dont les roches contiennent naturellement de l’arsenic. Des milliers de personnes meurent chaque année d’empoisonnement aigu à l’arsenic dans la région, des centaines de milliers de personnes mourraient de cancers provoqués par l’arsenic.

 

-Une des sources citées contredit l’article de BE sur le rôle des bactéries anaérobiques (*) qui convertit l’arsenic favorisant au contraire son transfert et sa dissolution dans l’eau, selon l’équipe de Scott Fendorf (Université de Standford-USA) .

Anton

Lire :

Standford Report : Scientists solve puzzle of arsenic-poisoning crisis in Asia

 


(* ) anaérobiques = capables de vivre dans un mulieu privé d’oxygène

Repost 0
15 avril 2009 3 15 /04 /avril /2009 09:53

Je n’ai pas encore lu de commentaires « autorisés » sur cette thèse qui contredit l’explication admise depuis plusieurs décennies du trou dans la couche d’ozone. C’est moi qui ai rajouté le point d’interrogation au titre. Affaire à suivre.

Anton


La théorie classique du cycle de l'ozone remise en question par le rayonnement cosmique

Depuis plus de deux décennies, il était généralement admis que la couche d'ozone s'épuisait à cause des atomes de chlore produits lors de la décomposition par le rayonnement ultraviolet provenant du soleil des molécules de chlorofluorocarbures (modèle photochimique). Or, le Dr. Qing-Bin Lu, professeur de physique et d'astronomie à l'Université de Waterloo (Ontario) et spécialiste de la couche d'ozone, a une théorie tout à fait différente.

Le Dr. Lu a étudié les données certifiées concernant la couche d'ozone sur une période de 1980 à 2007. Ces observations ne peuvent pas être expliquées par le modèle photochimique jusqu'à présent accepté. Cependant, si les données concernant le rayonnement cosmique, provenant en partie du soleil, sur cette même période sont prises en compte, il est alors possible de montrer sans équivoque non seulement une corrélation temporelle entre l'intensité du rayonnement cosmique et la réduction globale d'ozone mais aussi une corrélation entre l'intensité du rayonnement cosmique et le trou d'ozone sur le pôle sud.

Grâce à cette étude qui couvre 11 années de cycles solaires, le Dr. Lu a pu prédire quantitativement en août dernier la variation d'ozone du mois d'octobre 2008. En effet, le travail du Dr. Lu indiquait que, du fait d'un cycle de rayonnement cosmique, le trou d'ozone en octobre sur l'Antarctique devrait atteindre en moyenne 187 unités Dobson (DU). Les données provenant du satellite OMI de la NASA (données révélées le 13 mars 2009) montrent que la moyenne de la couche d'ozone en Octobre 2008 sur cette même zone a été de 197 DU, soit une erreur de moins de 5% de la prédiction du Dr. Lu, justifiant de facto sa théorie.

 


 

Voir l’article d’origine dans bulletins électroniques

 

http://www.bulletins-electroniques.com/actualites/58534.htm

 

Source :

 

http://newsrelease.uwaterloo.ca/news.php?id=5051

 

http://scitation.aip.org/getabs/servlet/GetabsServlet?prog=normal&id=PRLTAO000102000011118501000001&idtype=cvips&gifs=yes

 

Repost 0
30 mars 2009 1 30 /03 /mars /2009 12:42

Inserm - INRA - Pasteur - Université Paris Descartes - CNRS

Grâce à leurs grandes capacités d’adaptation, les bactéries apprennent progressivement à résister aux traitements antibiotiques. Des chercheurs français associant l’Inserm, l’Université Paris Descartes, l’INRA, l’Institut Pasteur, et le CNRS ont montré que l’une de leurs stratégies consiste à détourner les acides gras présents dans le sang humain pour leur propre croissance.
Ces travaux sont publiés dans la revue "NATURE" du 5 mars 2009.

Les bactéries sont capables pour survivre de s’adapter rapidement à un nouvel environnement, notamment à la présence d'antibiotiques. Leur matériel génétique évolue et se diversifie, des germes résistants sont sélectionnés et les traitements deviennent alors inefficaces. Ces dernières années, les bactéries pathogènes pour l'homme sont majoritairement devenues résistantes aux traitements antibiotiques.

Des chercheurs français associant l’Inserm, l’Université Paris Descartes, l’INRA, l’Institut Pasteur et le CNRS ont montré que des bactéries à Gram positif pathogènes majeures pour l’homme (streptocoques, entérocoques et staphylocoques) sont capables d’utiliser les acides gras présents abondamment dans le sang humain pour constituer leur membrane. Elles peuvent ainsi échapper à l’activité des antibiotiques censés les empêcher de fabriquer leurs propres acides gras.

Ces derniers sont les constituants majeurs de la membrane bactérienne et leur biosynthèse est considérée comme indispensable à l’intégrité de la cellule bactérienne. De ce fait, les enzymes qui permettent la biosynthèse des acides gras sont proposées comme cibles potentielles pour le développement d'antibiotiques dont certains, déjà validés par des laboratoires pharmaceutiques, inhibent la croissance des bactéries in vitro.

« Nous sommes partis d’observations effectuées sur les streptocoques du groupe B, principale cause d’infection chez les nouveau-nés » explique Claire Poyart. Dans ces travaux, des streptocoques dépourvus des gènes codant pour  les enzymes impliquées dans la biosynthèse des acides gras sont incapables de croître dans les milieux de culture conventionnels.

Cependant, ces streptocoques mutants ne présentent aucun défaut de croissance dans des milieux supplémentés avec du sérum humain qui fournit à la membrane bactérienne les acides gras essentiels. Par ailleurs, leur virulence est normale dans des modèles animaux. Ces résultats illustrent un « parasitisme » dans lequel les bactéries ont recours aux composants du sang de l’organisme humain et échappent à l’activité des antibiotiques qui ciblent la voie de biosynthèse des acides gras.
Ces travaux soulignent l’importance de tester l'activité des antibiotiques à l'aide de tests qui miment les conditions réelles de l'infection et du traitement.

Pour en savoir plus :
"Type II fatty acid synthesis is not a suitable antibiotic target for Gram-positive pathogens"
Sophie Brinster1,2, Gilles Lamberet3, Bart Staels4, Patrick Trieu-Cuot5, Alexandra Gruss3 & Claire Poyart1,2,5,6

1Institut Cochin, Université Paris Descartes, CNRS (UMR 8104), Paris, France.
2INSERM, U567, Paris, France.
3INRA, UR888, Unité Bactéries Lactiques et Pathogènes opportunistes, F-78350, Jouy en Josas, France.
4Institut Pasteur de Lille, INSERMUMR545, Université Lille 2, Lille, France.
5Institut Pasteur, Unité de Biologie des Bactéries Pathogènes à Gram Positif, URA CNRS 2172, Paris, France.
6 Assistance Publique Hôpitaux de Paris, Centre National de Référence des Streptocoques, Hôpital Cochin, Paris, France.
Nature : http://doi.org/10.1038/nature07772


Le communiqué d’origine sur le site de l’INRA :

http://www.inra.fr/presse/decouverte_nouvelle_strategie_resistance_aux_antibiotiques


Repost 0
18 mars 2009 3 18 /03 /mars /2009 10:20

En 1983 était découvert le VIH, virus responsable du SIDA. Un an plus tard, Margaret Heckler, du secrétariat américain à la santé, annonçait la proche mise au point d’un vaccin, « d’ici 2 ans environ » ! Pourtant , 25 ans après, le vaccin n’est pas au rendez-vous. Les uns après les autres, les candidats vaccins ont échoué, et les essais cliniques ont été interrompus. Toutes les méthodes classiques sur lesquelles repose la vaccination - imiter une infection naturelle à l’aide d’agents infectieux inactivés ou atténués pour créer dans le système immunitaire une mémoire lui permettant de réagir en cas d’infection réelle - ont jusqu’à présent raté dans le cas du HIV .

 

Une des raisons principales est que celui-ci est un rétrovirus qui mute particulièrement rapidement: son génome est constitué d’ARN qu’il convertit en ADN par une enzyme, la transcriptase inverse, et l’intègre aux génomes des cellules qu’il infecte. Lorsqu’il se multiplie, les erreurs de copie sont très nombreuses, rendant rapidement l’intrus méconnaissable des cellules du système immunitaire qui se souviennent de la première version du virus. Pour avoir une idée de l’ampleur du problème, il suffit de savoir que la diversité des protéines à la surface des virus du VIH chez un seul individu après 6 ans d’infection est supérieure à celle des virus de la grippe humaine dans le monde une année donnée. Or, pour la grippe, les fabricants sont obligés de changer leur vaccin tous les ans …

 

Si la mise au point d’un vaccin piétine, les traitements contre le VIH , qui comportent 6 classes de médicaments distinctes par leur mode d’action, ont accompli d’énormes depuis le premier médicament en 1987. Les traitements permettent de diminuer la charge virale (quantité de virus dans le sang) en dessous du seuil de détection. Les malades bénéficiant des thérapies antirétrovirales ont vu leur espérance de vie augmenter de 13 années. Le drame est que moins d’un tiers des personnes dans le monde nécessitant un traitement y ont accès.

 

Pourtant, les thérapies actuelles butent également sur certaines limites : elles sont incapables d’éradiquer totalement le virus . Celui-ci parvient en effet à se cacher dans le système nerveux central, les organes génitaux et les ganglions, les intestins, et dans les lymphocytes T « dormants », des globules blancs impliqués dans la mémoire du système immunitaire. Toute suspension des traitements actuels aboutit à une reprise de l’infection et à une ré augmentation rapide de la charge virale. Jusqu’à présent, un traitement contre le VIH, c’est un traitement à vie. C’est pour cela que la découverte faite par des chercheurs espagnols et décrite ci-dessous peut ouvrir des perspectives intéressantes.

 

Anton

(*) Rédigé à partir de Pour La Science -Mars 2009 -dossier : Le Sida, 25 ans après

Découverte de protéines responsables de l'"hibernation" du VIH

 

Les équipes de Sebastián Chávez de l'Universidad de Sevilla  et de Albert Jordà du Centro de Regulación Genómica (CRG) de Barcelone  ont pour la première fois pu mettre en évidence l'implication de trois protéines (FACT, Spt6 et Chd1) dans le mécanisme d'"hibernation"  du virus du SIDA. Ces molécules sont capables de compacter spécifiquement la chromatine (ou fibre d'ADN) sur laquelle elles se sont fixées. Les gènes du virus deviennent alors "illisibles" pour les enzymes de transcription  alors que les autres gènes de la cellule, eux, ne sont pas modifiés et sont transcrits normalement. Ce mécanisme permet enfin d'expliquer le paradoxe entre l'absence d'expression du génome viral et sa localisation dans des régions transcriptionnellement très actives.

Cette latence est d'ailleurs responsable de la nécessité de suivre les traitements antirétroviraux à vie puisque, au moindre arrêt de la médication, les copies du virus qui sortent de leur "hibernation" sont capables d'induire une nouvelle virémie. De plus, parce que ces traitements actuels interfèrent avec les mécanismes de réplication du virus, cette découverte inédite permet d'envisager ces trois protéines (FACT, Spt6 et Chd1) comme d'éventuelles cibles thérapeutiques complémentaires permettant de lutter contre la latence du virus. Elle offre ainsi de nouvelles perspectives d'amélioration des traitements ainsi qu'un nouvel espoir dans l'allongement de la durée de vie des patients.

 

L’article d’origine dans Bulletins électroniques :

 http://www.bulletins-electroniques.com/actualites/57910.htm

 

Source :

-Article : Yeast Genetic Analysis Reveal the Involvement of Chromatin Reassembly Factors in Repressing HIV-1 Basal Transcription PLoS Genet. 2009 Jan;5(1):e1000339
- El Ideal Gallego, 20/01/09
- El País, 20/01/09
- abcdesevilla.es, 20/01/09

Rédacteur :

Anne-Laure Fize, service-scientifique@sst-bcn.com

 

 

 




 

Repost 0
2 mars 2009 1 02 /03 /mars /2009 15:30

Les guêpes parasites de la famille des braconides et leurs chenilles hôtes constituent un modèle original de parasitisme : les guêpes pondent leurs œufs dans les chenilles et injectent simultanément des particules virales pour contourner les défenses de leur hôte et contrôler sa physiologie. Les gènes codant pour ces particules virales viennent d'être identifiés dans le génome des guêpes par une équipe de l'Institut de recherche sur la biologie de l'insecte (CNRS/Université François-Rabelais Tours), en collaboration avec un laboratoire de l'université de Berne et le Genoscope d'Evry. Il s'agit de gènes provenant d'un virus capturé par l'ancêtre commun des guêpes il y a 100 millions d'années. Ces résultats, publiés dans la revue Science le 13 février 2009, permettent d'envisager de nouvelles pistes pour concevoir des vecteurs de transfert de gènes en thérapie génique.

Pour se perpétuer, les guêpes de la famille des braconides doivent pondre leurs œufs dans des chenilles qui servent à l'alimentation des larves de la guêpe(1). Mais ces chenilles constituent un milieu hostile : elles sont pourvues d'un système de défense efficace qui forme une capsule de cellules immunitaires autour d'un corps étranger. Pour contourner ces défenses, au moment de la ponte dans la chenille, les guêpes injectent des particules fabriquées dans leurs ovaires. Ces particules pénètrent dans les cellules de la chenille. Elles induisent une immunosuppression et le contrôle du développement de la chenille, permettant la survie des larves de guêpe.

 

Si l'on connaît de nombreux cas de bactéries symbiotiques, cet exemple d'utilisation d'un virus par une espèce parasite pour contrôler la physiologie de son hôte est unique. Afin de mieux comprendre ce phénomène, les chercheurs de l'Institut de recherche sur la biologie de l'insecte (CNRS/Université François-Rabelais Tours) étudient en détail les particules virales. Dans de précédents travaux, ils avaient remis en cause la nature virale de ces particules. En effet, alors qu'un virus possède dans son génome toute la machinerie nécessaire à sa réplication, ils avaient montré que l'ADN des particules virales en est dépourvu.

 

Dans leurs derniers travaux publiés dans Science, les chercheurs montrent finalement que les particules sont bien de nature virale, mais que les gènes codant pour leurs composants résident en fait dans le génome de la guêpe. Plus de vingt gènes différents codant pour des composants caractéristiques des nudivirus -des virus d'insectes utilisés en lutte biologique- sont exprimés dans les ovaires de la guêpe. De plus, ces gènes sont conservés dans les différentes familles de guêpes fabriquant des particules.

L'ensemble des résultats indique que l'ancêtre des guêpes braconides a intégré dans son propre génome le génome d'un nudivirus. Ces gènes continuent à assurer la production de particules virales mais celles-ci délivrent des gènes de virulence (provenant de la guêpe) dans l'hôte parasité.

Les guêpes ont donc « domestiqué » un virus pour en faire un vecteur de transfert de leurs gènes. L'étude de ce phénomène est particulièrement intéressante pour concevoir de nouveaux vecteurs de thérapie génique. Cette technique thérapeutique consiste à introduire des gènes dans des cellules ou des tissus d'un individu pour traiter une maladie. Ce transfert de gènes est possible grâce à un virus inactivé utilisé comme vecteur. Les particules des guêpes parasites sont en fait de véritables vecteurs « naturels », sélectionnés pendant 100 millions d'années pour exercer cette fonction et capables de transférer de grandes quantités de matériel génétique (plus de 150 gènes). Comprendre comment elles y parviennent pourrait donc s'avérer très utile pour la conception de nouveaux vecteurs thérapeutiques.

 


 

L’article d’origine sur le site du CNRS :

http://www2.cnrs.fr/presse/communique/1533.htm


 

 

Notes :

1) Les guêpes traversent la peau de la chenille par l'intermédiaire d'une sorte de stylet, appelé tarière, puis pondent leurs œufs dans le corps de l'insecte. Les larves se développent ensuite dans le sang de la chenille, en consommant celui-ci.

Références :

Polydnaviruses of Braconid Wasps Derive from an Ancestral Nudivirus. Annie Bézier, Marc Annaheim, Juline Herbinière, Christoph Wetterwald, Gabor Gyapay, Sylvie Bernard-Samain, Patrick Wincker, Isabel Roditi, Manfred Heller, Maya Belghazi, Rita Pfister-Wilhem, Georges Periquet, Catherine Dupuy, Elisabeth Huguet, Anne-Nathalie Volkoff, Beatrice Lanzrein, Jean-Michel Drezen. Science, 13 février 2009.

Repost 0
1 mars 2009 7 01 /03 /mars /2009 17:05

Comment se créent les barrières de reproduction qui isolent les espèces les unes des autres ? Une étude génétique réalisée par l’équipe d’Olivier Loudet, à l’INRA de Versailles en collaboration avec l’université de Nottingham, révèle un des aspects de leur mise en place dans le génome au cours de l’évolution. Ce travail explique pourquoi certaines descendances de croisements ne sont pas viables chez la plante modèle Arabidopsis thaliana, et fournit un mécanisme potentiel pour la formation de sous espèces au sein de populations apparemment homogènes. Ces résultats sont publiés dans la revue "SCIENCE" du 30 janvier 2009.

 

Spécialisés dans la génétique de la plante modèle Arabidopsis thaliana, les chercheurs ont d’abord constaté que la descendance du croisement entre deux souches naturelles de la plante, Columbia (Col) et Cape Verde Island (Cvi), n’obéissait pas totalement aux lois classiques de l’hérédité de Mendel : certains individus résultant d’une combinaison génétique spécifique des deux génomes parentaux manquaient à l’appel.

Ils ont découvert que ceci correspondait à une incompatibilité entre deux régions chromosomiques, portées par le chromosome 1 de Col et le chromosome 5 de Cvi, qui ne se retrouvaient jamais ensemble à l’état homozygote dans le génome des plantes issues de leur croisement.

Une étude génétique plus poussée leur a permis d’attribuer cette incompatibilité à un seul gène, celui de l’histidinol phosphate aminotransférase (HPA) : celui-ci est porté par le chromosome 1 chez la souche Cvi et est présent en deux copies, sur les chromosomes 1 et 5, chez la souche Col, suite à la duplication et à la translocation d’un fragment du chromosome 1 vers le chromosome 5 chez cette souche. L’inactivation au cours de l’évolution de la copie de HPA présente sur le chromosome 1 de Col a abouti à ce que, au sein de l’espèce Arabidopsis, le gène fonctionnel soit porté par un chromosome différent dans Cvi et Col. Le gène HPA codant pour une enzyme indispensable à la synthèse de l’histidine, un acide aminé essentiel, les embryons de la descendance entre ces deux souches qui héritent à la fois du gène HPA inactif porté par le chromosome 1 de Col et du chromosome 5 de Cvi ne peuvent pas se développer, étant alors dépourvus de gène HPA fonctionnel.

Preuve que l’absence de ce gène est bien la cause de l’incompatibilité chromosomique observée, les chercheurs ont constaté que ces embryons se développaient normalement si les plantes qui les portaient étaient arrosées avec une solution contenant de l’histidine.

« Le fait que la descendance de certains croisements ne soit pas toujours fertile est connu chez presque toutes les familles d’espèces végétales, précise Olivier Loudet. Mais ici, pour la première fois, nous avons mis le doigt sur un mécanisme simple qui l’explique dans une espèce. » La duplication et la dispersion de gènes essentiels au sein du génome, suivies de l’inactivation de certaines copies de ces gènes au cours de l’évolution, pourraient réduire progressivement les possibilités de croisements féconds entre différentes souches et aboutir à terme à leur séparation en espèces distinctes. Ce mécanisme simple et rapide pourrait expliquer en partie l’origine génétique des espèces.



L’article d’origine sur le site de l’INRA

http://www.inra.fr/presse/mecanisme_genetique_simple_pourrait_expliquer_origine_especes


Repost 0
20 février 2009 5 20 /02 /février /2009 13:26

Pour la première fois, l’évolution en "temps réel" de la structure moléculaire lors d’une réaction chimique a été observée par une équipe de l’ Ecole polytechnique fédérale de Lausanne (EPFL) en collaboration avec le Paul-Scherrer Institut (PSI). Voyage dans le tout petit, à la source des réactions chimiques et biologiques...

 

Une technique permettant d’observer le mouvement moléculaire à une échelle de temps encore jamais atteinte a été développée par l’EPFL et le Paul-Scherrer Institut (PSI). Cette prouesse, réalisée par une équipe de recherche dirigée par le Professeur Majed Chergui, directeur du Laboratoire de spectroscopie ultrarapide (EPFL) en collaboration avec le FEMTO group (PSI), est publiée dans la dernière édition de la revue Science.

Cette avancée technologique ouvre d’intéressantes perspectives dans l'étude des systèmes chimiques et biologiques. Elle permet notamment une meilleure compréhension de l’évolution de la structure moléculaire lors de réactions chimiques. Les chercheurs l’ont appliquée à l’étude de complexes moléculaires contenant des atomes métalliques, très étudiés en chimie. Ceci pourrait donc déboucher sur des avancées dans le domaine du stockage d’informations sous forme magnétique, ou en énergie solaire. Elle ouvre aussi des perspectives en biologie, ces molécules étant les analogues des centres actifs des hémoproteines (hémoglobine, myoglobine).

 

Structure et évolution

 

A titre de comparaison, les mouvements, insaisissables à l’œil nu, d’un chat se retournant dans sa chute et retombant sur ses pattes ne peuvent être observés qu’à l’aide d’une caméra prenant des clichés séparés de quelques dizaines de millisecondes. En faire de même avec les molécules, 100’000 millions de fois plus petites que le félidé, suppose une caméra pouvant faire des clichés séparés de quelques dizaines de femtosecondes (1 femtoseconde = 10-15 sec est à une seconde, ce qu’une seconde est à 32 millions d’années!)

 

Si certains lasers permettent une telle résolution temporelle, les méthodes optiques ne donnent pas d’informations sur la structure moléculaire. Pour résoudre cette difficulté, l’équipe du professeur Chergui a combiné des lasers délivrant des impulsions femtoseconde de lumière ultraviolette-visible avec une source d’impulsions femtoseconde de rayons X, dans une technique appelée spectroscopie d'absorption X ultrarapide. «Avec ce type de rayonnement pulsé et de très courtes longueurs d'onde, il est possible d'observer les changements de la structure moléculaire, et ainsi d'obtenir des informations précises sur la rupture, la formation ou la transformation des liaisons chimiques entre les atomes. Et tout cela en temps-réel!», explique Majed Chergui.

 

Effort conjoint avec le PSI

 

Pour obtenir une telle précision, les chercheurs avaient besoin d'une source de rayons X femtoseconde à la fois stable et accordable en longueur d’onde. Ils l’ont trouvée au PSI, grâce à une collaboration avec l’équipe de Rafael Abela. En utilisant les impulsions femtoseconde extraites de l'accélérateur Swiss Light Source, par une technique que le PSI a développée, les deux équipes sont parvenues, pour la première fois, à suivre l’évolution d’une molécule subissant un changement de structure en 150 fs!

 

Cette méthode constitue un excellent outil d'analyse des réactions dans les milieux liquides et désordonnés qui caractérisent les systèmes biologiques et la plupart des systèmes chimiques. Pour Majed Chergui, la prochaine étape sera de l'appliquer à d’autres systèmes.

 

Pour plus d’informations: Professeur Majed Chergui, majed.chergui@epfl.ch

 

Journaliste: Florence Luy

 


 

L’article sur le site de l’ Ecole polytechnique fédérale de Lausanne

http://actualites.epfl.ch/presseinfo-com?id=682

Repost 0
17 février 2009 2 17 /02 /février /2009 14:29



 

 

Premier clonage -presque-réussi d’un animal disparu


Un bouquetin des Pyrénées, dont le dernier individu a disparu en 2000, est né par clonage en Espagne. L’animal n’a pas survécu mais cette deuxième tentative laisse espérer des succès à venir. Les perspectives sont immenses (..).

 

Lire l’article de Jean Etienne sur Futura-Sciences :

 

http://www.futura-sciences.com/fr/news/t/genetique-1/d/premier-clonage-presque-reussi-dun-animal-disparu_18298/#xtor=RSS-8

 

La publication à l’origine de cette article :

 

http://www.sciencedirect.com/science?_ob=ArticleURL&_udi=B6TCM-4VFBY4W-1&_user=10&_coverDate=01%2F23%2F2009&_rdoc=22&_fmt=high&_orig=browse&_srch=doc-info(%23toc%235174%239999%23999999999%2399999%23FLA%23display%23Articles)&_cdi=5174&_sort=d&_docanchor=&_ct=41&_acct=C000050221&_version=1&_urlVersion=0&_userid=10&md5=fc4278e9ec2bdf6c3d89bfff5a00effd


Et un jour , des mamouths dans les zoos ?

 

 

Les réflexions de Louis-Marie Houdebine sur le site de l’AFIS :

 

Le clonage des animaux à partir de cellules d’adultes fait rêver et chacun imagine plus ou moins quels clones il aimerait bien pouvoir contempler ou posséder. La fiction décrite dans le livre et le film Jurassic Park a contribué à nourrir ce rêve. Le séquençage complet du génome d’un nombre croissant d’animaux rend encore plus vraisemblable la possibilité de ressusciter des espèces disparues via le clonage par transfert d’ADN de l’espèce disparue dans des ovocytes énucléés d’une espèce voisine encore vivante. Un vieux rêve est de rendre la vie aux mammouths que l’on retrouve de temps à autre congelés dans le sol de la toundra sibérienne. Ces restes exceptionnellement bien conservés permettent actuellement d’établir la séquence d’une bonne partie du génome de mammouth. Cela a poussé certains à tenir des propos bien imprudents en considérant comme tout à fait possible d’appliquer aux mammouths, en vrai grandeur, le scénario de Jurassic Park et de faire renaître ainsi cette espèce disparue au temps de la préhistoire. La réalité est infiniment plus complexe que ce qu’imaginent ceux qui pensent que la science peut (et qu’elle doit) résoudre tous les problèmes y compris techniques qu’elle se pose directement ou non (..)

http://www.pseudo-sciences.org/spip.php?page=imprimer&id_article=1083

 

 

Repost 0