mercredi 31 août 2011

visualisation et confusion

cliquez sur l'image

Il y a un petit débat en cours sur le blog Flowing Data, sur la question de savoir s'il est acceptable, voire souhaitable, de rendre une représentation graphique plus confuse que ne l'est nécessaire dans certains cas, pour faire passer le message que la situation porte à confusion.

Le débat a démarré à cause des deux représentations suivantes des relations de brevets et de procès concernant des brevets, entre sociétés informatiques (cliquez dessus pour voir en plus grand sur les sites d'origine) :



Suivant le conseil de Kek, je vais demander : et vous, qu'en pensez-vous ?


lundi 29 août 2011

ArXiv, une idée qui n'aurait pas du marcher fête ses 20 ans

cliquez sur l'image (ou commencez par le début des 5 épisodes : début ici)
Il y a 20 ans, Paul Ginsparg lançait ArXiv, une archive internet pour les manuscripts d'articles de physique non encore publiés. Ceci avant le Web, donc avant le mouvement de publication Open Access, avant les moteurs de recherche dans les publications, etc.

A l'occasion de ces 20 ans, il a été invité à écrire un article dans Nature. Il raconte qu'ayant pour la première fois un ordinateur sur son bureau, il a lancé un service email automatisé de stockage et de partage de manuscrits, pour ses collègues en physique des hautes énergies. Sa motivation de départ est intéressante dans le cadre de la révolution d'accès à l'information qu'est internet : il voulait rendre son domaine plus égalitaire, en donnant à tous les collègues le même accès à la même information. Avant cela, les manuscrits étaient passés (par la poste, sur du papier d'arbres morts) entre collègues qui se connaissaient, donc en général toujours les mêmes personnes bien connectées dans de bons instituts.

Hors sujet : dans son autobiographie, Bob Dylan raconte comment dans sa jeunesse il squattait chez les fans de musique folk pour écouter leurs disques, comment il a découvert tel ou tel artiste ou style qu'on ne trouvait pas dans son patelin, etc. A l'époque de iTunes et autres solutions moins légales, je ne pense plus qu'il existe de jeunes artistes frustrés par qu'ils ne peuvent pas accéder à la musique qu'ils aiment. C'est bien de se rappeler ce rôle d'internet, qui rend tout accessible à tous (ceux qui ont un ordi et internet). Paul Ginsparg insiste sur ce coté très démocratiseur (tiens mon correcteur d'orthographe ne connaît pas ce mot - il faut le créer) de l'internet.

Revenons à nos moutons (sans distinction de couleur). Paul Ginsparg pensait héberger quelques centaines de textes pendant quelques mois. Vingt ans plus tard, ils sont bien sûr sur le web, ils reçoivent 75 000 textes / an, et ont 1 million de téléchargements (légaux !) / semaine, par 400 000 utilisateurs. Ils ont des soumissions de tous les domaines de la physique, et pas mal de maths et d'informatique. Il précise qu'il a aussi de la biologie faite par des physiciens. Dans mon expérience, c'est correct, mais j'ai été surpris de voir que certains bioinformaticiens, biologistes non physiciens, soumettent beaucoup de papiers à arXiv. Par exemple, le bioinformaticien probablement le plus cité et qui publie le plus, Eugene Koonin.

ArXiv a été un pionnier dans plein de techniques de publication internet et de partage que nous prenons pour acquises, comme de proposer un résumé de l'article avec des liens vers la version PDF et vers les autres papiers des mêmes auteurs.

Dans ses réflexions à l'occasion des 20 ans, Paul Ginsparg s'étonne que finalement on soit toujours au milieu du gué pour ce qui est de la transformation de la publication scientifique, due au web :
There is no consensus on the best way to implement quality control (top-down or crowd-sourced, or at what stage), how to fund it or how to integrate data and other tools needed for scientific reproducibility.
My hope is that rather than merely using electronic infrastructure as a more efficient means of distribution, the revolution-in-waiting will ultimately lead to a more powerful knowledge structure, fundamentally transforming the ways in which we process and organize scientific data.
Il espère que la révolution électronique ne va pas simplement nous permettre de distribuer le courrier plus  efficacement, mais changer la manière donc on organise la connaissance, dont on traite et on organise les données et le savoir scientifiques. Il revient également plus loin sur le problème du trop plein d'information (voir cette note).

ArXiv n'est pas un journal scientifique, il n'y a pas de jugement expert par les pairs. Mais il y a un filtrage pour ne mettre que des articles pertinents. Ce qui fait qu'ils se retrouvent parfois dans la position, à laquelle ils ne s'attendaient pas, de devoir poser les limites de la science. Plus arXiv est connu et reconnu, plus des pseudoscientifiques et des gens bizarres vont vouloir y déposer leurs idées fumeuses.

Les commentaires de cet article, fait notable et extra-ordinaire pour le journal Nature (très lu, mais normalement zéro commentaires), sont informatifs. J'adore le premier commentaire : Il note que le fondateur d'ArXiv a été évalué comme "un programmeur strictement moyen, sans compétences particulières, facilement remplaçable et trop payé", ce qui l'a amené à quitter Los Alamos pour Cornell, dont le directeur du département de physique aurait dit "ils n'avaient visiblement pas une case à cocher pour 'a complètement transformé la nature et la portée de l'information scientifique en physique et d'autres domaines'".

PS : pour comprendre la BD ci-dessus, quelques liens Wikipedia : Richard Stallman, Lawrence Lessig, Donald Knuth. Et wonderful dread pirate.

vendredi 26 août 2011

des fois les algorithmes sont utiles

cliquez sur l'image

J'ai parlé récemment de la valeur ajoutée de la curation humaine, qui permet souvent une meilleure qualité que la classification automatique. Alors je me dois de signaler une nouvelle étude, trouvée via techdirt.com,  qui montre que les humains sont très mauvais pour distinguer des critiques authentiques de critiques falsifiées, mais qu'un algorithme peut y arriver très bien.

Les auteurs ont payé plein de gens une petite somme pour écrire une revue très positive d'un hôtel où ils ne sont jamais allés. D'autres personnes sont incapables de distinguer ces revues de revues authentiques. Par contre le programme écrit par les auteurs de l'étude les repère à 90%. Il semble y avoir une façon d'écrire différente (plus centrée sur les personnes pour les fausses revues, sur les lieux pour les vraies revues), qui n'est pas intuitive pour nous, mais est significative.

La conclusion de ceci est double : d'une part, ça montre qu'il vaut la peine d'essayer de trouver des solutions automatiques à des problèmes difficiles, même intuitivement impossibles ; d'autre part, les tricheurs professionnels (payés pour améliorer les revues sur Tripadvisor, Amazon, etc) vont améliorer leurs fausses revues...

PS : gag au second degré concernant la BD. L'auteur, Scott Adams, a été attrapé en train d'écrire sous de fausses identités à sa propre gloire.

PPS : une utilisation intéressante de la curation ici.

lundi 22 août 2011

le reductionisme est vrai, pourtant il y a encore des zoologues (et des philosophes)

cliquez sur l'image
Le réductionisme, c'est l'idée que les systèmes complexes peuvent être entièrement décrits par leurs composants plus simples. Donc in fine on peut décrire l'histoire de l'empire romain par la description de toutes les positions et mouvements de toutes les particules élémentaires y ayant participé. Ceci pose la question (surtout posée par les physiciens) de l'utilité des diverses sciences et disciplines académiques se spécialisant dans l'étude de différents domaines complexes, puisqu'avec le progrès de la connaissance en physique, tout cela se réduira à de la physique.

Sur le blog "Evolving Thoughts" de John Wilkins, philosophe de la biologie au chômage (en Australie, pas au Groenland), il y a une intéressante discussion [lien corrigé] de ce concept et de ses conséquences pour l'étude de la biologie.

Son argument tel que je le comprends est le suivant.

D'une part, on a un cadre philosophique pour comprendre le monde, aussi appelé physicalisme ou matérialisme philosophique, qui fait l'hypothèse que, jusque preuve du contraire, les propriétés de tout objet du monde peuvent être décrits comme résultant de ses composants, de leurs positions, mouvements, et interactions. Le mot "interactions" est important. C'est un cliché de dire qu'une pile de briques n'est pas une maison. Mais la description détaillée des briques, de leurs positions, et de leurs interactions, oui ça peut être une maison (bon d'habitude il faut aussi du mortier, du bois, etc – alors disons des pierres et une cabanne). Le point de vue opposé suppose qu'il existe de réelles propriétés émergentes dans un système complexe, qui ne peuvent en aucun cas être comprises par une compréhension, aussi complète soit-elle, des parties. A part le problème de créer des catégories supplémentaires a priori inutiles, il y a le fait qu'avec le progrès de notre compréhension du monde, cette approche se retrouve régulièrement battue en brèche. L'exemple le plus clair est le vitalisme. Pendant longtemps il y a eu débat entre les biologistes qui pensaient que le vivant était réductible à la physique et à la chimie, et ceux qui pensaient qu'il existait un élan vital caractéristique du vivant. En discutant avec des collègues moins jeunes (hum), j'ai appris que de nombreux biologistes partageaient encore de telles vues dans les années 1950. La biologie moléculaire a sonné le triomphe du réductionnisme en biologie, d'une certaine manière.

Ce qui nous conduit à l'autre aspect du réductionnisme, qui est en tant qu'approche méthodologique. La biologie moléculaire est exemplaire : pour comprendre le vivant, on le découpe en petits morceaux, et on comprend chacun en isolation. Quand ça sera fait, on comprendra le tout.

Sauf que ça ne marche pas.

Ce qui nous conduit à son tour à la suite de l'argument de John Wilkins : le réductionnisme ne marche pas en pratique comme seule façon de faire de la science, parce que nous ne sommes pas capables de connaître et comprendre tous les éléments composant un système complexe. On pourrait peut-être décrire l'élection de Nicolas Sarkozy en termes d'atomes, en principe, mais on ne peut ni obtenir ces données, ni les stocker, ni les traiter pour les comprendre. La façon la plus efficace de comprendre l'élection de Sarko, c'est en traitant les atomes au niveau agrégat à forme humaine, avec motivation et comportements humains. Ensuite il y a les cas, comme les gaz parfaits, où une analyse statistique des composant permet de prédire pas mal du tout le comportement du tout, et les cas où pour des raisons de non linéarité ou autres, nous ne sommes pas capables de faire cela.

Donc les différentes sciences sont différents niveaux qui nous sont nécessaires pour comprendre le monde, à cause de nos limitations mentales. Je ne serais pas surpris qu'une telle limitation soit inévitable à tout organisme ou machine pouvant réfléchir et calculer, vu la taille et la complexité de l'univers.

Une conséquence à mon sens rigolote, c'est que certaines questions de délimitation de domaines perdent de leur importance. Si on peut dire que le vivant n'est pas une propriété essentielle de certains objets, mais un niveau de complexité que nous ne savons pas analyser hors du cadre de la biologie, alors les sempiternelles questions pour savoir ce qui est vivant et ce qui ne l'est pas relèvent de la sodomie de diptères. Les virus, même s'ils dépendent de cellules vivantes pour se reproduire, ne peuvent pas être comprises sans référence à des concepts biologiques tels que parasitisme, compétition, mutation, etc., alors que le feu ou un virus informatique, même s'il peuvent se reproduire d'une certaine manière, peuvent être compris complètement avec des concepts et des outils de chimiste ou d'informaticien.

Curieusement, il semble que certains chercheurs en biologie des systèmes [Wikipedia minable en françaisbien mieux en anglais] soient anti-réductionnistes philosophiques, alors qu'il me semble que la biologie des systèmes, c'est bien décrire les interactions des parties déjà décrites par la biologie moléculaire, donc que c'est bien cohérent avec un réductionnisme non naïf.

(En regardant Wikipedia en anglais, je vois que cette discussion n'a rien d'original - mais j'aime bien faire profiter de mon ignorance. Par contre l'article dans Wikipedia en français est un bel exemple de jargon philosophique incompréhensible.)

vendredi 19 août 2011

plus de fraude scientifique, ou plus de détection ?

cliquez sur l'image


De l'avantage des données ouvertes et disponibles à tous, combiné avec des geeks curieux. Un bioinformaticienNeil Saunders, a écrit un programme qui recherche systématiquement les articles scientifiques rétractés dans PubMed, la base de données bibliographique de la littérature scientifique biologique et médicale (vu via le blog Sandwalk). Cela montre curieusement une augmentation considérable des articles rétractés au cours du temps. D'où la question : d'avantage davantage de rétractions parce qu'il y a d'avantage davantage d'erreurs ou de triche, ou d'avantage davantage de rétractions parce qu'il y a d'avantage davantage de détection ?


Les commentateurs sur le blog Sandwalk tendent à penser que c'est d'avantage davantage de détection. Franchement, je n'en sais rien, mais c'est intéressant à suivre. Dans l'absolu, et parce qu'on revient à la question d'un usage pertinent des données abondantes disponibles.

lundi 15 août 2011

Cherche trouveurs d'aiguilles dans des bottes de foin

Cliquez sur l'image

Remarquons encore une fois la similarité entre la bioinformatique / génomique, et d'autres domaines liés à l'informatique et aux nouvelles technologies, similarité liée au gros tas de données.

J'ai vu plusieurs notes récentes soulignant l'importance du nettoyage des données sur internet. Ce qui m'a donné l'idée d'en parler ici est un article sur le blog O'Reilly (qui a mystérieusement disparu du site, mais je laisse le lien au cas où) concernant le fait que l'abondance de données correspondant en même temps à une pauvreté en données de qualité, fiables et utilisables. Puis j'ai vu (via le Lab des Usage) que Pierre Pisani abordait un sujet similaire sur son blog. Enfin je vois que le problème est re-traité, sous un angle différent, sur le blog O'Reilly, à propos du choix des données à préserver (sur ce billet, allez en bas à la section "When data disappears")

A la base il y a l'observation que lorsque les données disponibles augmentent énormément (vous n'en avez pas marre, vous, d'écrire et lire "exponentiellement" tout le temps ?), il faut trouver un moyen de distinguer l'utile de l'inutile, le bon du mauvais, bref, annoter de la qualité à toutes ces données. Cela peut être automatique, Google est le champion, mais il semble de plus en plus qu'une part expertisée manuellement ait une forte valeur ajoutée.

Et là où j'en viens, c'est que c'est pareil en biologie. On génère des quantités monstrueuses de données, et l'on voit l'importance de vérifier, annoter, organiser ces données, manuellement. L'exemple historique est Swissprot, où chaque information sur chaque protéine est vérifiée par un expert. D'où la création relativement récente de la Société internationale de biocuration, pour mettre en avant, valoriser, et coordonner ces activités. Je remarque d'ailleurs que les sociétés privées qui arrivent à vivre de la bioinformatique ont généralement une activité de curation (même si Pisani n'aime pas ce mot), parce que les clients sont prêts à payer pour une information fiable et de qualité, en ces temps où l'information brute, elle, est gratuite.

A propos de Swissprot, elle est maintenant incluse dans Uniprot, qui contient aussi 99% d'information organisées automatiquement. Il n'y a donc pas forcément opposition entre l'approche automatique à la Google et l'approche curation manuelle, si c'est bien géré.


vendredi 12 août 2011

L'arsenic pour les bactéries : non. Les blogs pour la science : oui

Cliquez sur l'image
Ces derniers mois s'est joué un petit drame comme il arrive parfois en science. Je vous raconte un peu, parce que ça inclut de la biologie, des blogs, la NASA, le prestigieux journal Science, des questions sur la revue par les pairs, le rôle des débats et de l'autocorrection en science, des pirates et des cannibales.

Tout a commencé avec une conférence de presse sponsorisée par la NASA, où des microbiologistes eux aussi sponsorisés par la NASA ont affirmé avoir isolé une bactérie qui peut utiliser l'arsenic à la place du phosphore pour fabriquer de l'ADN.

Pour comprendre l'impact d'une telle découverte, un peu de contexte : l'ADN est la molécule qui porte le matériel génétique, et est indispensable au fonctionnement de toute cellule vivante (jusqu'à preuve du contraire). Elle est formée d'une chaîne de nucléotides A, C, G, T, qui sont liés entre eux par des liaisons phosphate. Ergo, il y a un atome de phosphate qui est lié chimiquement aux deux nucléotides qui se suivent. Sans phosphate, pas d'ADN (ni ARN, mais bref). Or l'arsenic a des propriétés chimiques très semblables au phosphate. C'est justement pour cela qu'il est très toxique : il prend la place du phosphate dans des réactions chimiques indispensables au bon fonctionnement de la cellule (humaine ou bactérienne, on est tous égaux à ce niveau de chimie), mais il n'est pas du phosphate, donc ça ne marche pas comme il faut, et catastrophe. Et je suis resté simple, le phosphate est indispensable à beaucoup de fonctions essentielles de toute cellule vivante (ouais y a pas beaucoup de fonctions dans une cellule morte).

Ce qu'affirmaient les chercheurs sponsorisés par la NASA, c'est qu'une bactérie isolée d'un environnement riche en arsenic pouvait, en laboratoire, se passer de phosphate et le remplacer par de l'arsenic dans son ADN, tout en survivant et en se reproduisant.

Là où les choses ont pris un tour intéressant, et très Web 2.0, c'est que l'article, accepté dans le journal Science (un des deux plus prestigieux qui existent, avec Nature – Nature c'est anglais, Science c'est américain), a été mis en ligne sur le site web du journal immédiatement, même s'il n'allait apparaître dans la version imprimée que plusieurs mois plus tard. Intrigués par le ramdam médiatique et l'importance potentielle de la découverte, un bon nombre de microbiologistes et de biochimistes, et non des moindres, sont allés lire le papier. Et ont souvent été très déçus. D'après la plupart d'entre eux, il manquait des contrôles basiques dans les expériences, les résultats n'étaient pas concluants du tout, et la présentation des résultats à la conférence de presse avait été limite mensongère.

Ca c'est très grave. On peut faire de la science de plein de manières, on peut être sympa ou méchant, on peut être révolutionnaire ou conservateur, on peut aimer les maths ou les bottes en caoutchouc, on peut sauver le monde ou rester dans sa tour d'ivoire, mais parmi les valeurs non négociables il y a l'honnêteté et l'importance des contrôles.

L'honnêteté c'est facile à comprendre : mentir quand le but c'est de trouver la vérité collectivement, c'est clairement à l'encontre de l'objectif. Avant de me dire que ça n'est pas spécifique aux scientifiques, pensez qu'un vendeur qui ment bien et atteint ses objectifs, un militaire qui ment (on appelle cela ruser des fois) et gagne, un politicien qui ment et bref, dans beaucoup de professions la vérité est un plus joli si on peut, mais pas la valeur fondamentale. En science, si.

Pour les contrôles, c'est un peu plus technique. Disons que dans beaucoup de cas, le résultat d'une expérience pourrait être du à une variété de facteurs, et peut être interprété de différentes manières. Ce chien peut aboyer tous les soirs parce qu'il voit passer un camion, parce qu'il a faim, parce qu'il a entendu un autre chien aboyer dans le loin (il oie un chien qui aboie le soir au fond des bois). On pourrait contrôler en lui donnant à manger plus tôt, en lui cachant les camions, en lui bouchant les oreilles, etc. Les bactéries peuvent pousser parce qu'elles utilisent l'arsenic, ou parce qu'il reste du phosphate dans le milieu de culture. Elles peuvent avoir intégré l'arsenic dans leur ADN, ou l'avoir pompé et isolé dans un compartiment poubelle spécial (appelé vacuole).

En l'occurrence, plusieurs autres chercheurs ont suggéré qu'il manquait une expérience clé, à savoir isoler l'ADN des bactéries et vérifier s'il contenait directement de l'arsenic. Oui parce qu'ils n'ont pas fait ça les chercheurs à conférence de presse.

Parmi les critiques, plusieurs avaient des blogs. Plusieurs ont été interviewés par un journaliste qui a un blog très lu, Carl Zimmer. Et donc la blogosphère s'est retrouvée pleine de critiques informelles mais très bien informées du papier, même pas encore officiellement publié. Un excellent résumé en anglais sur le blog de Carl Zimmer ici.

Les auteurs de l'article pas encore publié ont répondu qu'ils ne répondraient qu'à des critiques publiées dans un journal scientifique en bonne et due forme. Ce qui est pas mal de culot pour des gens qui prétendaient juste avant révolutionner la science par conférence de presse.

La controverse ne s'est pas arrêtée là. L'article a été évalué très positivement par certains microbiologistes dans le forum (élitiste) pour scientifiques Faculty of 1000, et d'autres scientifiques ont descendu le papier en flammes au même endroit, y compris en citant les blogs.

Je vais citer une partie d'une évaluation sur Faculty of 1000, paBen Busby et Michael Galperin :


Contrairement aux auteurs et à l'évaluateur [celui qui aimait le papier dans le forum], je pense qu'il est important de noter que cet article ne démontre pas son affirmation principale, selon laquelle la bactérie étudiée, Halomonas sp. GFAJ-1, "peut pousser en utilisant de l'arsenic au lieu de phosphore". Toutefois, malgré ses nombreux problèmes, cet article est important parce qu'il démontre la capacité qu'à une espèce de bactérie à tolérer de très haut niveaux environnementaux d'arsenic de phosphate.

L'article a été officiellement publié dans Science le 3 juin 2011. Fait rarissime, dans le même numéro du magasine, il y avait 8 commentaires techniques critiques publiés à la suite de l'article, ainsi qu'une réponse des auteurs de l'article. Je pense que cela vaut la peine de citer la fin de l'éditorial de ce numéro de Science, consacré bien sûr à cet article :

Les procédures pour les Technical Comments and Responses sont telles que les auteurs de départ ont le dernier mot, et nous reconnaissons que des questions restent sans réponse. Toutefois, la discussion publiée aujourd'hui n'est qu'une étape dans un processus bien plus long. Wolfe-Simon et al. rendent leur lignée bactérienne GFAJ-1 disponibles aux autres [chercheurs] pour tester leurs hypothèses, dans le cadre normal de l'avancement de la science.

En d'autres termes, l'éditeur en chef de Science pense que les critiques ont raison, et l'article est erroné, même s'il le dit diplomatiquement. A la suite de l'éditorial, il y a des liens vers les commentaires et l'article, mais je pense que c'est tout limité d'accès aux institutions ayant des abonnements, à savoir les universités etc. De l'intérêt de la publication Open Access pour le débat scientifique.

OK, j'admet, il n'y avait pas de pirates et de cannibales finalement. Désolé.


lundi 8 août 2011

Je m'en vais breveter une feuille de chêne, tiens

cliquez sur l'image
J'apprends en lisant TechDirt qu'une cours d'appel américaine a décidé que oui, un gène peut être breveté. En l'occurrence, deux gènes très importants pour leur rôle dans le cancer du sein, BRCA1 et BRCA2. Normalement on n'a pas le droit de breveter des produits naturels. La compagnie Myriad Genetics dit qu'ils se sont embêtés à séparer les gènes du reste du chromosome. J'aime bien l'argument du juge minoritaire, selon lequel c'est comme dire qu'en séparant la feuille de l'arbre, on peut breveter la feuille.

Heureusement, les joies de la justice américaine nous réservent encore des rebondissements, ça ira surement en Cours Suprême. Malheureusement ladite cours semble largement au service des entreprises. A suivre ici aussi donc.

cliquez sur l'image

vendredi 5 août 2011

C'est quoi le RNAi, en plus ça sert à rien

cliquez sur l'image
Le blog du journal Nature m'apprends que Merk (une grosse compagnie pharmaceutique) ferme son centre de recherches sur le RNAi à San Francisco. Apparemment c'est une tendance, les autres grosses compagnies pharmaceutiques (que l'on appelle élégamment Big Pharma) ont fait de même.

Le RNAi, autrement dit RNA interference, est un mécanisme qui fait partie du contrôle des gènes dans les animaux et les plantes. Quand un gène est actif, il est transcrit. C'est-à-dire que l'ADN qui définit le gène est copié de nombreuses fois en un messager ARN (une molécule proche de l'ADN, mais à courte vie et pas de double hélice) (RNA en anglais = ARN en français). C'est le messager ARN qui est traduit en protéine, et c'est la protéine qui se tape tout le boulot. Donc plus il y a d'ARN traduit, plus le gène est actif finalement. Le RNAi fonctionne via de petits ARN pas messagers pour un sou, qui reconnaissent l'ARN messager et le marquent pour un destin fatal. Soit ils recrutent des enzymes (lesquelles sont des protéines, vous suivez ?) qui détruisent l'ARN messager, alors plus de protéine, forcément. Soit, plus sioux, ils empêchent la traduction, et ça fait moins de protéine. Donc au final, moins de produit actif du gène.

Ca paraît intéressant du point de vue médical, parce que les petits ARN peuvent être très précis, et donc juste empêcher un petit nombre de gènes de fonctionner, en laissant le reste de la cellule tranquille. Alors si votre maladie est liée à l'activité de ces gènes, gagné ! Mais il semble que l'on arrive pas à résoudre les problèmes liés à la fragilité de l'ARN. Au départ, ça n'est pas un bug, c'est une fonction : les ARN doivent être traduits puis détruits, pour que la cellule puisse régler dynamiquement l'activité de ses gènes. Si tous les ARN produits dans l'embryon trainaient encore chez l'adulte, ça ne serait pas propre. Sans compter que les ARN de la digestion, 6h après un repas ça n'est plus la peine de les trimballer. Mais bref, ça fait aussi que c'est difficile d'envoyer les ARN où vous voulez dans le corps sans qu'ils y passent en chemin.

Ceci dit, le blog de Nature note qu'il a y des essais cliniques en cours, donc il y aura peut-être un grand retour en fanfare. A suivre.

mardi 2 août 2011

vaccins, risque et visualisation

cliquez sur l'image
Un petit post rapide pour attirer votre attention sur une très jolie visualisation des risques associés à la vaccination contre le HPV. Cliquez sur l'image pour votre la visualisation complète.