Overblog Suivre ce blog
Administration Créer mon blog
26 janvier 2009 1 26 /01 /janvier /2009 17:55

La première carte génétique de l'obésité sévère vient d'être obtenue grâce aux puces à ADN. Ce résultat est publié le 18 Janvier 2009 dans Nature Genetics par l'équipe de Philippe Froguel et David Meyre, respectivement directeur de recherche CNRS et chercheur Inserm au laboratoire "Génomique et physiologie moléculaire des maladies métaboliques"(1), associée à leurs collègues britanniques de l'Imperial College. Menée en collaboration avec des chercheurs français, finlandais, suisses, canadiens et allemands, cette étude a permis la découverte de trois nouveaux gènes qui augmentent le risque d'obésité sévère mais aussi la banale prise de poids au sein de la population. Elle souligne qu'il n'y a pas de différence de nature entre le surpoids et les différentes formes d'obésité (modérée, sévère ou massive).

L'obésité progresse partout dans le monde de façon épidémique. Les complications de santé qui y sont liées (diabète de type 2(2), maladies cardio-vasculaires, cancer) pourraient, pour la première fois dans l'histoire, amener à une espérance de vie de nos enfants plus faible de plusieurs années que celle de leurs parents. Même si l'augmentation du nombre de personnes obèses depuis deux décennies comporte des causes sociétales bien identifiées (sédentarité, "malbouffe"…), l'hérédité joue un rôle important dans la détermination du poids (70% héréditaire) et dans la survenue de l'obésité, d'autant plus lorsqu'elle est sévère et apparaît précocement.

Première carte génétique de l'obésité

L'équipe de Philippe Froguel s'attache depuis 15 ans à mieux comprendre les bases moléculaires du diabète de type 2 et de l'obésité présente chez 80% des diabétiques. Elle a mis ainsi en évidence plusieurs gènes responsables de formes monogéniques d'obésité et a montré leur rôle essentiel dans le contrôle de l'appétit. Depuis l'établissement d'une carte complète des variations génétiques humaines, il est possible d'explorer à grande échelle, via la technologie des puces à ADN, tous les gènes impliqués dans une prédisposition génétique à l'obésité. Grâce aux financements conjoints de l'ANR(3), de la Région Nord Pas-de-Calais et du Medical Research Council, les chercheurs français et britanniques ont balayé le génome entier de 2 796 volontaires français : 1 380 avaient une obésité familiale sévère, comparés à 1 416 sujets minces. Les mutations génétiques les plus susceptibles d'entraîner l'obésité ont ensuite été analysées chez 14 000 échantillons de Français, de Suisses, d'Allemands ou de Finlandais.

Les scientifiques pilotés par Philippe Froguel et David Meyre ont tout d'abord confirmé que les gènes FTO et MC4R(4) jouaient un rôle majeur dans la susceptibilité à l'obésité commune et à la prise de poids en population générale. Ces deux gènes agissent via un contrôle du comportement alimentaire.

Trois nouveaux gènes associés à l'obésité et à la prise de poids sont identifiés
Les chercheurs ont aussi trouvé des variations de l'ADN à proximité des gènes MAF et PTER (5), et directement dans la séquence codante du gène NPC1. Ces polymorphismes génétiques, largement répandus dans les populations européennes, modulent le risque d'obésité sévère et la prise de poids en population générale tout au long de la vie. Le gène NPC1 comporte plus de 200 mutations pathogéniques responsables de la maladie de Niemann-Pick type C, une atteinte neurodégénérative progressive. Les souris privées de NPC1 présentent, en plus de désordres neurologiques, une perte de poids et un manque d'appétit. La mutation associée à l'obésité pourrait donc induire une augmentation de la fonction de la protéine NPC1, celle-ci fonctionnant trop bien dès lors que le gène NPC1 est muté. Le gène MAF, lui, code pour une protéine particulière qui est impliquée dans la différenciation du tissu adipeux (tissu en charge du stockage des graisses) et dans la production d'une hormone d'origine digestive intervenant dans la satiété et la sécrétion de l'insuline . Un dernier gène (PRL) est associé à l'obésité et à la prise de poids plus spécifiquement chez l'adulte. PRL produit la prolactine, une hormone bien connue pour son effet déclencheur de la lactation chez la femme. La prolactine joue aussi un rôle dans le contrôle de la prise alimentaire.

Complétant les approches génétiques menées auprès des populations générales, ces travaux révèlent que l'étude des formes familiales d'obésité sévère est particulièrement utile pour comprendre les causes génétiques de l'obésité. Ils démontrent le rôle fondamental du comportement alimentaire dans la régulation et l'évolution de la corpulence humaine et dans la survenue des obésités sévères de l'enfant. Ces résultats devraient permettre à plus long terme l'identification précoce des enfants les plus à risque d'obésité ainsi que la mise en place de stratégies médicales préventives et thérapeutiques personnalisées.

Ces résultats ont été obtenus grâce à des familles bénévoles comportant des enfants et/ou des adultes obèses. Pour poursuivre les recherches, il est indispensable de disposer d'ADN d'un plus grand nombre de sujets français. Un numéro vert est à disposition pour tout renseignement : 0800 02 04 12 (Appel gratuit depuis une ligne fixe).




 

L’article d’origine et les références sur le site dui CNRS :

http://www2.cnrs.fr/presse/communique/1494.htm


 

Notes :

1) CNRS/ Université Lille 2 Droit et Santé/ Institut Pasteur de Lille.
2) Il s'agit d'un diabète non insulinodépendant qui survient lorsque l'organisme est incapable de fournir assez d'insuline pour répondre aux besoins ou bien incapable de répondre comme il convient même si l'insuline est produite.
3) Agence nationale de la Recherche
4) Publication par l'équipe lilloise en juin 2007 et en juin 2008 dans Nature Genetics.
5) Ce gène n'a pas de fonction connue pour l'instant.
6) Hormone synthétisée par le pancréas permettant l'absorption du glucose.

 

Repost 0
23 janvier 2009 5 23 /01 /janvier /2009 12:41

La Food Safety Commission dépendant du Cabinet ministériel japonais, a publié le 19 janvier 2009 ses conclusions concernant la sécurité alimentaire de la viande d'animaux issus de clonage de cellules somatiques. Cette viande issue de boeufs ou de porcs clonés est "aussi sûre que la viande normale" conclut la commission. Le Japon rejoint ainsi la position des agences sanitaires des Etats-Unis (Food and Drug Administration) et de l'Union Européenne (Autorité européenne de sécurité des aliments ou EFSA).

 

La Food Safety Commission s'est appuyée sur 235 publications japonaises et internationales, menant à la conclusion que la consommation de viande provenant de boeufs ou de porcs issus du clonage de cellules somatiques est "sûre", "pas spécialement dangereuse" et qu'il en est de même pour la viande des descendants de ces animaux clonés.

 

Le clonage représente la possibilité de reproduire en grand nombre des animaux ayant des caractéristiques agronomiques de haute qualité. Le Japon comptait en septembre 2008 un cheptel de 557 bovins et 335 porcins issus de clonage, tous retenus dans des stations expérimentales. Les discussions vont continuer quant à la commercialisation de cette viande mais il est certain que le Japon se rapproche de la possibilité de distribution de viande issue de clonage. L'acceptation par les consommateurs restera néanmoins un obstacle majeur à lever.

 

Rédacteur :

 Daphné OGAWA - adjoint.ing(arobase)ambafrance-jp.org - 489ENV/1600

 

Pour en savoir plus, contacts :

 Food Safety Commission - http://www.fsc.go.jp/

 Code brève

ADIT : 57437

 

Source :

 - Mainichi (en japonais) - 20/01/2009 -

http://mainichi.jp/life/food/news/20090120ddm002040065000c.html

- Nikkei (en japonais) - 19/01/2009 - http://www.nikkei.co.jp/news/shakai/20090120AT1G1902S19012009.html

 

 

 

L’article d’origine sur Bulletins électroniques :

http://www.bulletins-electroniques.com/actualites/57437.htm

       


Repost 0
8 janvier 2009 4 08 /01 /janvier /2009 12:25

Une équipe de chercheurs franco-turcs, menée par Michel Bouchon de l'Université Joseph Fourier à Grenoble et Hayrullah Karabulut de l'Université Bogaziçi à Istanbul, a récemment publié dans la revue Science une étude sur les répliques consécutives à un certain type de séismes. Cette étude s'intéresse aux séismes à super cisaillement, qui sont particulièrement violents, à l'image de celui d'Izmit qui a frappé la Turquie en 1999 et qui a fait environ 30.000 victimes.

Dans les événements de ce genre, la rupture le long de la faille principale progresse plus vite que la vitesse des ondes de cisaillement. La vitesse de la rupture initiale, qui dépasse les 20.000 km/h, crée alors une onde de choc, à l'image du bang supersonique produit par certains avions. S'appuyant sur les données relatives à plusieurs séismes de ce type, dont celui d'Izmit, l'étude a montré que les répliques ne sont pas centrées sur la principale zone de rupture, comme c'est normalement le cas pour des tremblements de terre moins rapides, mais se regroupent plutôt autour des failles secondaires ou anciennes du voisinage.

Les chercheurs pensent que cette localisation particulière des répliques signifie que la friction se trouve répartie de manière uniforme lors de la rupture. Les failles à proximité, ébranlées par l'onde de choc initiale, sont alors activées et peuvent donner lieu à des répliques sur ces zones périphériques.

 


 

Source :

- Science, 06/06/2008 - http://www.sciencemag.org

- Portail Techno-Science - http://www.techno-science.net

 

Rédacteur :

 Sami Karkar - sami.karkar(AT)diplomatie.gouv.fr

 


 

Origine :

 BE Turquie numéro 9 (19/08/2008) - Ambassade de France en Turquie / ADIT

http://www.bulletins-electroniques.com/actualites/55696.htm

Repost 0
29 décembre 2008 1 29 /12 /décembre /2008 18:41

Trois mille moustiques mâles stériles de type Anopheles arabiensis vibrionnent dans les filets des laboratoires de l'Agence internationale pour l'énergie atomique (AIEA) situés à Seibersdorf, dans la banlieue de Vienne (Autriche). Ces spécimens sont utilisés pour tester la technique de l'insecte stérile (TIS), déjà pratiquée depuis une trentaine d'années sur la mouche à fruits. Appliquée aux populations d'anophèles du Soudan et d'aèdes de La Réunion, elle a pour but d'éradiquer les vecteurs du paludisme et du chikungunya.

Son principe est d'une extrême simplicité : lâchés en masse, les mâles stériles ont pour mission de circonvenir les femelles locales. Leur accouplement n'engendrant aucune descendance, à l'issue d'opérations répétées, la population disparaît par extinction naturelle. La technique est d'une plus grande complexité, puisqu'il faut d'abord isoler les mâles - pas question de lâcher des femelles, responsables de la propagation des virus -, puis les stériliser. Dans les deux cas, on procède par irradiation, en recourant à l'usage du cobalt 60 ou bien des rayons X.

Les insectes de laboratoire de Seibersdorf, descendants de spécimens capturés au Soudan en 2005, n'ont encore à leur actif que deux opérations de terrain. Encore ne s'agissait-il que de lâchages expérimentaux, destinés à appréhender leur comportement et à mesurer l'ampleur de la mobilisation nécessaire le jour J. La production massive de mâles stérilisés destinés à être lâchés aux alentours de Dongola, une région agricole de la vallée du Nil très peuplée et affectée par un paludisme endémique, aura lieu à Khartoum. Le site a été choisi en raison de sa proximité avec un gisement d'uranium permettant l'irradiation au cobalt 60. Les entomologistes de Seibersdorf espèrent parvenir, en 2010, à une production quotidienne d'un million d'individus. Ce qui, à raison d'un lâcher par jour durant plusieurs mois, devrait conduire à l'extinction des anophèles locaux.

L'île de La Réunion, victime d'une terrible épidémie de chikungunya en 2005 et 2006, présente, par son isolement géographique, des conditions d'expérimentation idéales pour l'application de la TIS. L'AIEA et l'Institut de recherche pour le développement (IRD) ont signé un accord de coopération le 30 septembre. Il prévoit d'associer l'expertise des entomologistes de l'institut français, qui étudient depuis, plusieurs années, les populations d'Aedes albopictus, vecteurs du chikungunya et de la dengue, et d'Anopheles arabiensis, propagateurs du paludisme, aux techniques de séparation des sexes et de stérilisation développées par l'AIEA.

Dans un premier temps, il s'agira de tester l'applicabilité de la TIS à La Réunion où la lutte a été menée jusqu'à présent à coups de bombardement d'insecticide. "La TIS permet de s'affranchir des insecticides, souligne Didier Fontenille, responsable à l'IRD du projet réunionnais. Le moustique oeuvre lui-même à son extinction, l'environnement n'est pas agressé."

La phase expérimentale, dont le coût est évalué à 3 millions d'euros, devrait être menée sur quatre ans et financée par le ministère français de la santé, en partenariat avec le conseil régional de La Réunion et les organismes de recherche. Si la TIS s'avère compétitive, La Réunion se lancera dans la production d'anophèles et d'aèdes stériles à l'horizon 2015. "Encore faut-il s'assurer de l'acceptabilité du projet par les habitants", prévient Didier Fontenille. Un des volets du projet réunionnais est consacré à la communication.

Laurence Monnot

 

Le monde - 27/12/2008


L’article sur son site d’origine

http://abonnes.lemonde.fr/planete/article/2008/12/27/la-technique-de-l-insecte-sterile-va-etre-testee-pour-lutter-contre-le-paludisme-et-le-chikungunya_1135695_3244.html


Note : Concernant la lutte contre le paludisme , un groupe de chercheurs de l’Université John Hopkins de Baltimore a réussi récemment à créer un moustique génétiquement modifié capable de détruire le parasite responsable du paludisme chez la souris. A ma connaissance, l’étape suivante , consistant à conférer au moustique une résitance au parasite responsable du paludisme humain n’a pas été encore franchie.

 

Lire notamment : http://www.futura-sciences.com/fr/news/t/recherche/d/un-moustique-genetiquement-modifie-pour-lutter-contre-le-paludisme_10551/

 

L’avantage évident d’un moustique génétiquement modifié serait d’éviter l’éradication complète des anpohèles et donc limiter l’impact sur la chaine alimentaire dont les moustiques font partie. Précisons tout de même pour les âmes sensibles que s’il faut dans la mesure du possible prendre en compte cette dimension, le fléau que représente le paludisme qui cause de 1 à 3 millions de décès par an , « grâce » au glorieux combat écologiste contre le DDT qui a abouti à la résurgence d’une maladie meurtrière presque éradiquée dans les années 60 dans de nombreux pays pauvres, justifie la « légitime défense ».  

 Anton


Repost 0
18 décembre 2008 4 18 /12 /décembre /2008 17:40

Une équipe internationale, coordonnée par Philippe Paillou de l'Observatoire Aquitain des Sciences de l'Univers (INSU-CNRS, Université sciences et technologie Bordeaux), vient de découvrir les traces d'un ancien fleuve, comparable en taille au Nil égyptien, dans l'Est de la Libye. A partir de données acquises par le radar imageur PALSAR du satellite ALOS de la JAXA (agence spatiale japonaise) et grâce à un soutien du CNES, les chercheurs ont pu mettre en évidence un vaste réseau hydrographique fossile, long de plus de 1200 km, qui reliait, il y a plusieurs millions d'années le bassin de Kufrah à la mer Méditerranée.

Les systèmes imageurs radar en orbite autour de la Terre permettent, dans certaines conditions, d'explorer le sous-sol des régions arides jusqu'à quelques mètres de profondeur. C'est en assemblant et en analysant plusieurs centaines d'images radar du satellite japonais ALOS que les chercheurs de l'OASU ont mis en évidence le lit d'un ancien fleuve, caché sous quelques mètres de dépôts éoliens, qui entaillait les grès de l'est de la Libye sur plus d'un millier de kilomètres.


Cet ancien système était constitué par la réunification de trois affluents : un issu du flanc est du massif du Tibesti, l'autre venant du massif de l'Uweinat, et le dernier provenant du massif du Gilf Kebir. Les trois affluents traversaient le bassin de l'oasis de Kufrah dans le sud-est de la Libye, pour se rejoindre à hauteur de l'oasis en un lit unique, se dirigeant ensuite vers la côte Méditerranéenne. Avant d'atteindre la mer Méditerranée, l'ancien fleuve s'élargit dans la région du Sarir Dalmah en un vaste delta, qui fut peut-être temporairement continental, à l'image de celui de l'Okavango au Botswana. Ce delta se situe au beau milieu des grandes dunes de sable du désert libyque : c'est là certainement la source de cette énorme quantité de sable qui couvre de vastes étendues en Libye et en Egypte. Le système radar PALSAR perd ensuite le cours du fleuve, masqué par des dunes trop épaisses pour que le radar puisse les traverser. Cependant, un vaste chenal qui incise profondément la côte libyenne, et qui se connecte à la mer Méditerranée, est à nouveau détecté par le radar à quelques centaines de kilomètres au nord-ouest du delta du Sarir Dalmah.

Aucune datation n'a été effectuée à ce jour pour connaître l'âge de cet ancien fleuve, mais il a été mis en place postérieurement à la surrection du massif du Tibesti, et a certainement été très actif lors de la crise du Messinien, il y a 5 à 6 millions d'années. Des analyses géochimiques récentes montrent par ailleurs que des transferts de grandes quantités d'eau douce ont eu lieu entre le bassin de Kufrah et la mer Méditerranée il y a 125000 ans. Cet ancien fleuve a donc très certainement été actif du milieu du Miocène jusque récemment durant l'Holocène. L'étude et la prise en compte d'un système hydrographique aussi important permettront de mieux comprendre l'histoire climatique récente du Sahara, ainsi que son impact sur la faune, la flore, et la dispersion des hominidés dans la région.

L’article d’origine sur le site de l’Institut national des sciences de l’Univers -CNRS


 

 

http://www.insu.cnrs.fr/a2777,decouverte-un-ancien-fleuve-taille-nil-libye-orientale.html

Repost 0
20 novembre 2008 4 20 /11 /novembre /2008 15:02

La fonte accélérée des glaces continentales explique en grande majorité la hausse du niveau marin au cours de la période 2003-2008, c'est ce que vient de découvrir des chercheurs du Laboratoire d'études en Géophysique et océanographie spatiales (1) (CNRS/Université Toulouse 3/CNES/IRD) et d'une filiale du CNES (CLS) (2), minimisant l'effet de la dilatation thermique des eaux des océans. Cette question a pu être résolue grâce aux données du satellite franco-américain Jason-1, des deux satellites de la mission spatiale gravimétrique GRACE et des bouées du système Argo. Ces résultats déjà en ligne sont publiés sur le site de la revue Global and Planetary Change.

Entre 1993 et 2003, le niveau moyen global de la mer, mesuré de façon très précise par les satellites franco-américains Topex/Poséidon et son successeur Jason-1, était monté à un rythme relativement constant de 3 mm/an. Le dernier rapport du GIEC, publié en 2007, avait montré que plus de la moitié de cette hausse (environ 1.5 mm/an) était due à la dilatation des eaux océaniques qui se réchauffent (contribution stérique), alors que 1.2 mm/an provenait des pertes de masse des calottes polaires et des glaciers de montagne. Renversement de situation : depuis 2003, on constate toujours une hausse assez rapide (2.5 mm/an) du niveau marin. Mais pendant cette même période le réchauffement de l'océan semble faire une pause, sa contribution à la hausse du niveau des mers n'étant que de 0.4 mm/an.

La dilatation thermique a pu être calculée par deux méthodes indépendantes :
- Le réseau de bouées Argo transmet des profils de température et de salinité à travers l'ensemble de l'océan mondial. Depuis 2003, l'intégration de toutes les données valides dans les 900 premiers mètres de l'océan conduit à une contribution stérique d'environ 0.4 mm/an.
- Cette valeur a pu être confirmée indépendamment par les mesures spatiales en faisant la différence entre la montée du niveau des mers observée par les altimètres de Topex/Poséidon et Jason-1 et l'augmentation du stock d'eau dans les océans vue par GRACE. Les satellites indiquent une contribution stérique de 0.3 mm/an très proche de la valeur déduite des flotteurs Argo.

Ainsi c'est surtout l'accroissement de la masse d'eau de l'océan plutôt que de son contenu thermique qui est à l'origine de la hausse de son niveau observée depuis 2003. L'augmentation de masse de l'océan est équivalente à une hausse de 1.9 mm/an du niveau moyen des mers. D'où provient cette masse d'eau supplémentaire dans les océans ? De la fonte des glaces continentales : les données GRACE ont permis aussi de mesurer les variations de masse des deux calottes polaires antarctique et groenlandaise. Celles-ci contribuent pour 1 mm/an à la hausse du niveau des mers (soit 2 fois plus qu'au cours de la décennie précédente). Pour les glaciers de montagne, les plus récentes estimations des glaciologues indiquent une contribution de 1.1 mm/an (elle aussi plus importante qu'au cours des années antérieures).

Ainsi, les pertes de masses glaciaires expliquent bien que la masse d'eau océanique augmente et sont responsables de 80 % de la hausse du niveau moyen des mers des dernières années. Compte tenu de cette fonte accélérée des glaciers et des calottes, si la contribution stérique revenait aux valeurs des années 1990, une hausse du niveau marin de l'ordre de 4 mm/an ne serait pas à exclure.


Notes :

(1) LEGOS
(2) Collecte Localisation Satellite.

Références :

Cazenave, A., K. DoMinh, S. Guinehut, E. Berthier, W. Llovel, G. Ramillien, M. Ablain, and G. Larnicol (in press), Sea level budget over 2003-2008: a reevaluation from GRACE space gravimetry, satellite altimetry and Argo, Global and Planetary Change. doi:10.1016/j.gloplacha.2008.10.004


 

CNRS le 18/11/2008

http://www2.cnrs.fr/presse/communique/1457.htm

 

Repost 0
12 octobre 2008 7 12 /10 /octobre /2008 12:10
 

INRA Communiqué de presse du 02/10/2008


Une équipe internationale menée par des chercheurs de l'INRA de Clermont-Ferrand, Toulouse et Versailles, vient de réaliser la première carte physique d'un chromosome du blé. Ceci constitue un exploit sans précédent : en effet, le blé est une espèce dont le séquençage et l'exploration moléculaire à large échelle étaient considérés jusqu’à présent comme impossibles à cause de la taille et la complexité de son génome. Ces travaux, qui ouvrent la voie au séquençage total du génome du blé, ont été publiés dans la revue « SCIENCE » du 3 octobre 2008.

 

Le blé (Triticum aestivum L.), aliment de base pour 35% de la population mondiale, a une importance économique majeure. Cependant, les outils d'exploration de son génome sont très en retard par rapport à d'autres céréales comme le maïs, le riz ou le sorgho. De ce fait, l'amélioration du blé reste aujourd'hui trop lente au regard des défis que l’agriculture doit affronter. Ce retard est dû à la difficulté d'accès à un génome très particulier: d'une très grande taille (17 milliards de paires de bases, soit 5 fois le génome humain et 40 fois le génome du riz) et composé à 80% de séquences répétées.Les cartes physiques sont le premier pas indispensable au séquençage des génomes. Les chercheurs de l’INRA et leurs collègues se sont focalisés sur le plus grand des chromosomes du blé, le chromosome 3B, qui compte près d'un milliard de paires de bases. La carte physique qu'ils ont réalisée de ce chromosome est composée d'une série de 1036 groupes de séquences d'ADN appelées contigs. Ces contigs, dont l'ordre a été établi grâce à 1443 marqueurs génétiques, permettent de reconstruire l'essentiel du chromosome 3B. Avant de venir à bout de cette tâche, les chercheurs ont dû faire face à de nombreuses difficultés, inhérentes au génome du blé. En effet, celui-ci est hexaploïde (6 jeux de chromosomes, 42 au total), contient un nombre élevé de séquences répétées et présente une faible variabilité génétique au sein des variétés cultivées. Les cartes physiques constituent un outil précieux pour localiser rapidement des gènes d'intérêt agronomique et pour mettre au point de nouveaux marqueurs génétiques. Elles permettent l'exploration des régions du génome responsables de caractères d’intérêt agronomique comme le rendement, la qualité et la résistance aux stress. Comme première application de leurs travaux, les chercheurs ont localisé sur la carte physique du chromosome 3B certains gènes importants comme un gène de résistance à la rouille noire, maladie provoquée par un champignon. Ces travaux ont été réalisés dans le cadre d’un projet pilote du consortium international pour le séquençage du génome de blé (1). Ils démontrent qu'il est possible de construire des cartes physiques pour des génomes complexes et de très grande taille. Ils serviront, dans un premier temps, comme modèle pour l'élaboration des cartes des autres chromosomes du blé et de support au séquençage prochain du chromosome 3B. D'un point de vue plus général, ces travaux constituent un jalon important dans l'analyse du génome d'autres espèces végétales réputées « impossibles ».




L’article d’origine et les références sur le site de l’INRA

http://www.inra.fr/presse/carte_physique_plus_grand_chromosome_ble




(1) IWGSC, www.wheatgenome.org.


Repost 0
8 octobre 2008 3 08 /10 /octobre /2008 14:25

En s’inspirant de la photosynthèse, des chercheurs américains du MIT, dirigé par Daniel Nocera, ont franchi une étape décisive vers la production d’hydrogène à partir d’énergie solaire. On sait depuis longtemps la réaliser en apportant de l’énergie sous forme électrique. C’est l’électrolyse. En plongeant deux électrodes dans l’eau et en appliquant une tension suffisante, on obtient un dégagement d’oxygène à l’anode et d’hydrogène à la cathode. Mais l’idée d’effectuer la réaction sans autre apport d’énergie que celle du soleil hante les laboratoires depuis longtemps. L’hydrogène, que l’on commence à savoir enfermer dans des réservoirs, est bien plus commode à stocker que l’électricité. On peut ensuite récupérer l’énergie ainsi mise en réserve, par exemple dans une pile à combustible où s’effectue la réaction inverse, produisant de l’eau et du courant électrique. L’hydrogène peut aussi être utilisée par d’autres moyens. L’énergie solaire pourrait alors être utilisée de manière plus souple qu’en produisant de l’électricité au gré de l’ensoleillement.

Mais il reste encore un long chemin à parcourir pour égaler l’efficacité des plantes vertes. L’électrolyse réclame énormément d’énergie alors que la photosynthèse se contente de peu. Si l’on parvient à trouver un moyen pour réaliser l’électrolyse avec une quantité d’électricité suffisamment faible, celle-ci pourrait être alors fournie par des cellules solaires. Les chercheurs sont persuadés que la solution se trouve dans le domaine de la chimie et en particulier des catalyseurs, ces molécules capables d’accélérer considérablement une réaction chimique sans être elles-mêmes altérées.

L’équipe de Daniel Nocera vient de présenter une remarquable avancée dans ce domaine en mettant au point un catalyseur à la fois efficace et bon marché. Alors que les recherches précédentes suivaient la piste d’un matériau à la structure maîtrisée, celui des chercheurs du MIT est amorphe et se forme de lui-même en s’accumulant spontanément autour de l’électrode (l’anode, en l’occurrence).

Cette dernière est constituée d’un oxyde d’étain et d’indium, plongée dans une solution contenant du phosphate de potassium et du cobalt. Sous l’action du champ électrique, ces éléments s’accumulent autour de l’anode où ils deviennent un catalyseur très efficace pour rompre la molécule d’eau et produire de l’oxygène gazeux, qui s’échappe, et des ions d’hydrogène, qui restent dans la solution.

Le soleil offre un immense potentiel comme source d’énergie propre pour l’humanité. En une heure, le soleil fournit assez d’énergie à la Terre pour couvrir une année de consommation énergétique mondiale. Pour James Barber, scientifique de renom mondial dans l’étude de la photosynthèse "Cette découverte de Nocera Kanan est un pas de géant vers l’utilisation massive et peu coûteuse de l’énergie solaire en substitution des énergies fossiles".

DansTechnology Review, la revue de MIT, Karsten Meyer professeur de chimie à l’université allemande Friedrich Alexander considère même qu’il s’agit là de l’une des plus grandes découvertes du siècle Dans une déclaration publique, les chercheurs du MIT ont indiqué qu’ils espéraient que tous les foyers soient alimentés de cette manière d’ici une dizaine d’années. L’énergie produite le jour serait stockée sous forme d’hydrogène pour la nuit.


Lire l’article d’origine sur RT Flash :

http://www.tregouet.org/article.php3?id_article=545#sommaire_7

 Sur le site du Massachusetts institute of technology

http://web.mit.edu/newsoffice/2008/oxygen-0731.html

 


 

Repost 0
2 septembre 2008 2 02 /09 /septembre /2008 12:57

 

A la fin des années 1950, des publicitaires américains prétendaient avoir accru leurs ventes en flashant à l'insu des téléspectateurs des messages subliminaux indiquant "eat pop-corn", avant d'avouer qu'il n'en était rien.  Depuis, aucune étude n'a jamais pu mettre en évidence l'effet des messages subliminaux sur les choix des individus. Pourtant, le cerveau est capable de réagir à certain nombre de stimuli inconscients.  Jusqu'à quel point ? Des travaux menés par Mathias Pessiglione au sein de l'unité Inserm 610 "Neuro-anatomie fonctionnelle du comportement et de ses troubles", en collaboration avec l'University College de Londres,  démontrent qu'il est possible, grâce à un système de récompenses, de conditionner le choix des individus pour des dessins abstraits qu'ils n'ont jamais perçus consciemment. Cette étude est publiée dans l'édition du 28 août de Neuron.
                

A ce jour, les études de perception subliminale menées chez l'homme ont montré que l'individu pouvait traiter un certain nombre de caractéristiques des stimuli (jusqu'au sens des mots par exemple) sans en avoir conscience. On parvient également chez l'homme à déclencher un apprentissage dit pavlovien en diffusant des images subliminales suivies de récompenses ou de punition. Ainsi, la projection répétée d'images subliminales associées à un choc électrique finit par induire une transpiration cutanée inconsciente avant le choc électrique. Mais il s'agit là d'une réponse automatique du système nerveux central et pas d'une action volontaire de l'individu. Aucune étude n'a montré qu'on pouvait induire un apprentissage dit  instrumental, c'est-à-dire susciter la reproduction d'une action volontaire par l'obtention d'une récompense, de manière inconsciente. De même, toutes les études sérieuses menées sur les publicités subliminales ont conclu qu'elles n'avaient pas d'influence sur les choix des sujets.
         

Les messages subliminaux sont-ils réellement en mesure d'influencer nos décisions et donc nos actions ? C'est ce qu'a tenté de démontrer Mathias Pessiglione, en croisant de manière originale les connaissances sur le conditionnement instrumental et celles sur la perception subliminale.
           

Sur 20 volontaires britanniques âgés de 18 à 39 ans, les chercheurs ont utilisé un système de récompenses/punitions monétaires pour conditionner leur choix. A chaque essai, un dessin abstrait contenant un indice caché a été flashé assez brièvement pour que les sujets n'en aient pas une perception consciente. Il leur a été demandé de presser ou non un bouton réponse. S'ils n'appuyaient pas sur le bouton ils ne gagnaient rien (réponse prudente). S'ils appuyaient sur le bouton, ils pouvaient gagner ou perdre un euro (réponse risquée). En réalité, l'un des indices flashé de manière subliminale annonçait la récompense (gain d'un euro si on appuie sur le bouton) et l'autre la punition (perte d'un euro si on appuie sur le bouton).
   
Au fil de l'épreuve les volontaires appuyaient davantage en réponse à l'indice récompensé par rapport à l'indice puni, de manière très significative. De plus, lorsque les indices leur ont été dévoilés clairement à la fin du test,  les sujets ont montré une préférence pour les indices associés aux récompenses. En conclusion, la procédure de conditionnement influence significativement les préférences des sujets pour des dessins abstraits qu'ils n'ont jamais (consciemment) vus auparavant.
       

Grâce aux techniques d'imagerie cérébrale fonctionnelle (IRM), Mathias Pessiglione et ses collègues ont identifié certains composants du circuit cérébral opérant  le conditionnement subliminal. En particulier, comme les chercheurs l'avaient montré en 2006 lors d'un conditionnement non subliminal, l'activation du striatum (un ganglion sous-cortical) permet de différencier progressivement les indices récompensés des indices punis, de façon à guider les choix des sujets sans qu'ils en aient conscience.
             

L'apprentissage instrumental fait donc partie des processus mentaux qui peuvent se produire à notre insu. Les chercheurs estiment que la technique utilisée pourrait être appliquée plus généralement pour déterminer si d'autres traitements opérés par le cerveau humain sont accessibles ou non à l'esprit conscient. Il est par ailleurs vraisemblable que ces mécanismes d'apprentissage soient perturbés dans les pathologies impliquant le striatum, comme la maladie de Parkinson ou le syndrome de Gilles de la Tourette.



Article paru le 27 Aout sur le site de l’INSERM

 

http://www.inserm.fr/fr/presse/communiques/pessiglione_270808.html

 

 

Pour en savoir plus

            
Source :

"Subliminal instrumental conditioning demonstrated in the human brain"
Mathias Pessiglione (1),(2), Predrag Petrovic (1), Jean Daunizeau (1), Stefano Palminteri (2),
Raymond J. Dolan (1) and Chris D. Frith (1)
               

(1) Wellcome Trust Centre for NeuroImaging, Institute of Neurology, University College London
12 Queen Square London WC1N 3BG, United Kingdom

(2) Unité Inserm U610, Centre de Neuroimagerie de Recherche (CENIR), Institut Fédératif de Recherche en Neurosciences, Hôpital Pitié-Salpêtrière, Université Pierre et Marie Curie/ Paris 6, 47 Boulevard de l'Hôpital 75013 Paris, France. 
Neuron,  28 août 2008


Repost 0
1 septembre 2008 1 01 /09 /septembre /2008 15:42

Les chercheurs ouverts sur la société sont aussi les plus actifs académiquement ! C'est ce que vient de montrer une équipe pluridisciplinaire menée par Pablo Jensen, directeur de recherches au CNRS. Leur étude statistique montre que les chercheurs qui participent à la diffusion de leurs recherches sont ceux qui publient le plus d'articles. Et contrairement aux idées reçues, ces activités ne sont pas pénalisantes pour leur carrière.

Aujourd'hui, une des priorités des institutions scientifiques mondiales est d'ouvrir leur « tour d'ivoire » au public et de diffuser leurs connaissances ou débattre de leurs recherches. Mais les pratiques réelles de diffusion de connaissances par les chercheurs ou les caractéristiques de ceux qui s'y impliquent sont mal connues.

L'étude de l'équipe menée par Pablo Jensen, publiée le 20 août dans la revue Science and Public Policy, présente la caractérisation la plus complète jamais menée sur des chercheurs actifs en diffusion selon trois modalités : la vulgarisation, l'obtention de contrats et l'enseignement. Ce travail a été rendu possible par la centralisation, au niveau de la Direction des Ressources Humaines du CNRS, des rapports d'activité des 11 000 chercheurs du CNRS dans toutes les disciplines sur trois ans. La moitié des chercheurs pratique des activités de diffusion de leurs recherches, cette proportion étant très variable selon la discipline. Pour la vulgarisation, les Sciences Humaines et Sociales arrivent en tête, suivies de près par l'Astrophysique.

Cette étude statistique dément deux croyances largement répandues. Tout d'abord, celle qui prétend que les chercheurs qui vulgarisent sont peu actifs au niveau académique. En effet, l'étude montre que les scientifiques ouverts sur la société publient plus d'articles et que ceux-ci ont plus d'impact en termes de citations. Ensuite, elle montre également que l'implication dans des activités de diffusion n'est pas pénalisante pour la carrière. En effet, les chercheurs qui pratiquent la vulgarisation sont promus au grade de directeur de recherche au même âge que les autres.

 


 

L’article d’origine sur le site du CNRS :

http://www2.cnrs.fr/presse/communique/1398.htm


Repost 0
28 août 2008 4 28 /08 /août /2008 12:44

La marche quadrupède chez l'Homme (syndrome Unertan) est un phénotype rare associé à un déficit de langage, à un retard mental et à différents degrés d'atrophie cérébro-cérébelleuse.

L'analyse du génome des membres de quatre familles consanguines turques présentant ce phénotype a permis d'identifier deux mutations responsables du phénotype dans deux des quatre familles. Les mutations identifiées portent sur le gène codant pour le récepteur aux VLDL (very low density lipoprotein receptor, lipoprotéines de très basse densité). Si le rôle du récepteur aux VLDL dans l'organisation des neurones embryonnaires au niveau du cortex cérébral est connue depuis plusieurs années, la présente découverte révèle son implication dans les mécanismes de développement sous-tendant la démarche bipède chez l'Homme.

Karine Demuth-Labouze



Paru dans bulletins électroniques

http://www.bulletins-electroniques.com/actualites/54687.htm

 


Pour en savoir plus : Dr Tayfun Ozcelik (Department of Molecular Biology and Genetics, Faculty of Science and Institute of Material Science and Nanotechnology, Bilkent University, Ankara, Turkey)- email: tozcelik(AT)fen.bilkent.edu.tr

Source :Mutations in the very low-density lipoprotein receptor VLDLR cause cerebellar hypoplasia and quadrupeal locomotion in humans. Proc. Natl. Acad. Sci. USA, Vol. 105, pp. 4232-4236, 2008


Repost 0
21 août 2008 4 21 /08 /août /2008 13:06

Les joueurs compulsifs sont surtout des hommes issus de milieux modestes.

 

 

Quand on dit addiction, on pense tabac, alcool, drogue. Récemment, un groupe d’experts de l’Institut national de la santé et de la recherche médicale (Inserm), sollicité en 2006 par la Direction générale de la santé (DGS) pour plancher sur l’évolution des addictions aux jeux d’argent et aux jeux vidéo, a rendu son rapport et ses recommandations.

 

 

Multi-dépendants. La notion de «joueur pathologique» (voir l’Idiot de Dostoïevski, qui raconte déjà cet enfer-là) n’est pas nouvelle : décrite dès 1929, elle apparaît dans la littérature scientifique vers la fin des années 1980. Qui est ce joueur excessif ? Même si le groupe d’experts ne dresse pas de profil à proprement parler, sociologues, psychologues, addictologues s’entendent quand même à définir ce - relativement faible - pourcentage de joueurs dans des milieux sociaux plutôt défavorisés et d’un bas niveau économique. En grande majorité, ce sont des hommes, sans emploi, assez jeunes, peu intégrés sur le plan socioculturel, qui, à 60 %, présentent, en plus de l’addiction au jeu, une dépendance au tabac et à 50 % une dépendance à l’alcool. Les joueurs pathologiques présentent des niveaux d’impulsivité plus élevés que les participants témoins des études. L’état ou le comportement du joueur pathologique, expliquent les chercheurs, répond à certains critères cliniques - notamment une incapacité à contrôler son comportement - et la poursuite de ce comportement malgré ses conséquences négatives : endettement, problèmes familiaux et professionnels…

L’addiction au jeu est-elle comparable aux troubles addictifs à l’alcool ou aux drogues ? La réponse n’est pas évidente, expliquent les experts de l’Inserm, car la très grande majorité des joueurs pathologiques souffrent de troubles associés. Ces troubles, mélangés au tabac et à l’alcool, peuvent rendre vulnérable le «sujet». Et le jeu pathologique n’est alors pas l’origine de l’addiction, mais l’une de ses expressions. Cela étant, certains joueurs n’ayant aucun autre trouble associé, il n’est pas exclu que le simple fait de s’adonner au jeu puisse, comme le ferait une drogue, entraîner des modifications du fonctionnement du système nerveux central. On parlera donc d’addiction sans drogue.

Enquêtes.
On y met évidemment l’addiction aux jeux vidéo et à Internet, mais le peu d’études en France à l’heure actuelle ne permet pas d’estimer l’ampleur du phénomène : les experts se basent sur quelque 200 études internationales et recommandent de lancer des enquêtes de grande ampleur, pour déterminer les caractéristiques des populations les plus touchées.

Les études menées sur les jeux de hasard et d’argent sur Internet rapportent que l’anonymat, l’accessibilité, la désinhibition et le confort sont susceptibles de favoriser les pratiques d’abus. Et évidemment, tous les jeux ne comportent pas le même risque d’addiction. Plusieurs études montrent que plus le délai entre la mise et le gain attendu est court, plus la possibilité de répétition du jeu est élevée, plus le risque d’installation du jeu pathologique est grand. Et tout ça a un coût, et pas que financier : paupérisation accrue, surendettements, suicides, problèmes familiaux et divorces liés au jeu, co-addictions à des substances. Ce constat touche davantage les populations les plus démunies car le pourcentage de dépenses ludiques y est plus important, même si les sommes consacrées au jeu sont plus faibles. Au Canada, une enquête au sein d’une population de joueurs révèle environ 25 % à 30 % de pertes d’emploi et de faillites personnelles liées au jeu. Que faire, quand on sait que seuls 10 % de ces joueurs demandent de l’aide dans les consultations spécialisées ? Etudier, analyser, prévenir, répondent les experts : une enquête devrait démarrer à l’automne sur un échantillon de 25 000 personnes pour tenter de faire face à cette inquiétante évolution.


 

EMMANUÈLE PEYRET

 

 

article paru dans Libération le 16 Aout 2008

http://www.liberation.fr/actualite/societe/345515.FR.php


 

Repost 0
18 août 2008 1 18 /08 /août /2008 10:39

 

Des chercheurs annoncent avoir identifié un gène chez la mouche, appelé sleepless, requis pour que le sommeil ait lieu normalement. Sleepless est le second gène à être directement impliqué dans la régulation du sommeil. Cette découverte élargit nos connaissances sur les déterminants de l'apparition du sommeil, vital pour tout les animaux, et pourrait un jour aider à améliorer la qualité du sommeil chez l'homme. Kyunghee Koh et ses collègues ont trouvé que des souris mutantes sans la protéine codée par le gène sleepless présentaient une très forte réduction de leur sommeil quotidien, jusqu'à 85 %, certaines même ne dormant plus du tout. Les mouches ayant des niveaux moins faibles de la protéine sleepless n'étaient pas aussi affectées mais avaient un sommeil de récupération plus court après une période de veille. Les chercheurs suggèrent que la protéine sleepless est libérée dans le cerveau pour créer le besoin de dormir et agit pour cela en réduisant l'excitabilité de la membrane des cellules nerveuses.




L’article d’origine et les références sur :

 

http://www.eurekalert.org/pub_releases_ml/2008-07/aaft-q071408.php


Repost 0
1 août 2008 5 01 /08 /août /2008 15:36

 

La sonde américaine Cassini révèle, pour la première fois, l'existence d'une étendue liquide ailleurs que sur la Terre.

Le Figaro : 01/08/2008

Le lac Ontario possède désormais son jumeau extraterrestre. Dans un article publié jeudi dans la revue britannique Nature, des chercheurs du Jet Propulsion Laboratory (JPL) de la Nasa annoncent que la sonde américaine Cassini a découvert l'existence d'une étendue liquide à peine plus grande (20 000 km²) que ce lac d'Amérique du Nord, près du pôle Sud de Titan, la plus grosse «lune» de Saturne. Mais la ressemblance s'arrête là. Car cette vaste dépression cernée de plages sombres et baptisée Ontario Lacus ne contient pas… la moindre goutte d'eau.

Vu l'énorme distance qui la sépare du Soleil (1,4 milliard de kilomètres en moyenne), la surface de Titan est en effet soumise à des températures extrêmement basses, de l'ordre de -185 °C, où l'eau n'existe que sous forme de glace. En revanche, ce froid plus que sibérien a pour effet de liquéfier de petits hydrocarbures, comme le méthane (CH4) ou l'éthane (C2 H6) qui, eux, sont présents sur Terre à l'état gazeux. Or c'est bien de l'éthane liquide que VIMS, le spectromètre à infrarouges de Cassini, a «formellement identifié» en survolant Ontario Lacus, en décembre dernier, se félicitent les scientifiques du JPL. Selon eux, cette grande découverte «fait de Titan le seul corps de notre système solaire, à part la Terre, dans lequel on a détecté du liquide en surface». C'est aussi l'aboutissement d'une longue quête.

Avant que Cassini ne commence à survoler Saturne et ses nombreuses lunes en 2004, les astronomes pensaient que les grandes taches sombres visibles à proximité de l'équateur de Titan étaient des océans de méthane ou d'éthane liquides. L'atmosphère très dense (1,5 bar) de Titan, composée essentiellement d'azote (95 %) et d'hydrocarbures légers comme le méthane, militait en faveur de cette hypothèse. Mais il s'est avéré, en mai 2006, que les fameuses taches n'étaient en fait que d'immenses déserts recouverts d'étranges champs de dunes comparables à ceux que l'on trouve en Namibie ou dans la péninsule Arabique. Titan était-elle plus «sèche» que les scientifiques ne l'avaient prédit ? Comment expliquer alors les traces de ravinement photographiées un an et demi plus tôt par la sonde européenne Huygens lors de sa descente historique vers la surface de Titan ?

Il faudra attendre janvier 2007 pour que le radar de l'orbiteur ne détecte, sur le pôle Nord de la lune saturnienne, plusieurs dizaines de taches sombres de 3 à 70 kilomètres de long parfaitement lisses et susceptibles, pour cette raison, de contenir un corps liquide. Mais l'hémisphère boréal de Titan étant plongé dans la nuit d'un hiver interminable, l'hypothèse n'a pu encore être vérifiée.

«Aujourd'hui nous avons la preuve indiscutable qu'0ntario Lacus est bel et bien rempli d'éthane liquide et probablement aussi de méthane», se réjouit le Pr François Raulin, du laboratoire interuniversitaire des systèmes atmosphériques (Lisa), à Paris, qui signe un commentaire dans le même numéro de Nature.

«Un cycle du méthane»

Selon ce chercheur, «la mission américano-européenne Cassini-Huygens a démontré l'existence d'un cycle complexe du méthane sur Titan comparable à celui de l'eau sur la Terre». En clair, le méthane et l'éthane atmosphériques se condensent sous forme de pluie, creusent des ravins et finissent par se déverser dans des lacs comme Ontario Lacus d'où ils s'évaporent et ainsi de suite.

L'étape ultérieure consiste à déterminer si une chimie organique complexe est à l'œuvre dans ces réservoirs liquides, sur le modèle de ce qui a prévalu sur Terre il y a des milliards d'années avec l'eau.

Le projet TSSM (Titan-Saturn System Mission) de la Nasa et de l'Agence spatiale européenne (ESA) prévoit d'envoyer, vers 2017-2018, un atterrisseur voire un petit submersible bourré d'instruments de mesure dans l'un de ces lacs pour le moins exotiques. Titan n'a pas fini de nous étonner.

 Marc Mennessier

Repost 0
1 août 2008 5 01 /08 /août /2008 15:34

Un groupe de chercheurs de l'Institut de Biologie Moléculaire et Cellulaire (IBMC) a mis au point un rat transgénique capable de reproduire la polyneuropathie amyloïde familiale qui n'avait jamais été auparavant identifiée dans les modèles biologiques disponibles, selon l'article publié dans la revue internationale Neurobiology of Aging.

Selon l'IBMC, les modèles de rat jusqu'alors utilisés pour l'étude de l'amyloïdose étaient porteurs du gène humain qui cause la maladie mais la caractéristique principale de la maladie ne se développait pas, à savoir, le dépôt de fibres sur le système nerveux périphérique. "Ce qui a été vérifié pour la première fois est le dépôt d'agrégats et de fibres dans le système nerveux périphérique" a ajouté l'IBMC. L'amyloïdose est une maladie qui se manifeste après 20 ans et est caractérisée par des douleurs, des paralysies et des faiblesses musculaires.

L’article d’origine et les références sur :

http://www.bulletins-electroniques.com/actualites/55523.htm


Repost 0