Sciences et techniques

Pour le commun des mortels, les avancées de la science apparaissent souvent bien déroutantes. Ainsi en aura-t-il été lorsque l'on a annoncé, début janvier, qu'une équipe italo-allemande du Cern (Laboratoire européen pour la physique des particules), à Genève, menée par le professeur Walter Oelert, a réussi pour la première fois au monde, en septembre 1995, à créer et à détecter des atomes d'antimatière. Très précisément : neuf atomes d'antihydrogène, obtenus chacun pendant 40 milliardièmes de seconde ! Décrite pour la première fois en 1931 par le Britannique Paul Dirac, l'antimatière ne se distingue de la matière que par des charges électriques opposées. Au contact l'une de l'autre, matière et antimatière s'annihilent, en libérant une formidable quantité d'énergie, quelque 1 000 fois supérieure à celle que libèrent les réactions nucléaires de fission ou de fusion. Cette propriété, chère aux auteurs de science-fiction, pourrait être utilisée dans l'avenir pour la fabrication de bombes ou la propulsion de vaisseaux spatiaux interplanétaires. Pour l'instant, les recherches des physiciens visent surtout à vérifier s'il existe bien une symétrie parfaite entre la matière et l'antimatière, et à comprendre les raisons pour lesquelles l'Univers n'est fait que de matière, alors que le big-bang a dû engendrer autant de l'une que de l'autre. Depuis l'observation de l'antiélectron en 1932, puis de l'antiproton en 1955, diverses antiparticules ont été mises en évidence. Mais jamais encore on n'était parvenu à lier des antiélectrons et des antiprotons, avant qu'ils ne s'annihilent au contact de leurs homologues de matière, pour engendrer des antiatomes. Le résultat obtenu au Cern représente une prouesse technologique et la première étape d'une longue quête qui conduira demain à la création d'antiatomes plus complexes que ceux d'hydrogène.

Un nouvel élément chimique artificiel

Pour percer les secrets de la matière, d'autres physiciens se sont spécialisés dans la fabrication d'atomes « superlourds », trop instables pour exister à l'état naturel sur la Terre. Le 21 février, le Gesellschaft für Schwerlonen Forschung (GSI) de Darmstadt (Allemagne) annonce que l'une de ses équipes, conduite par Peter Armbruster et Sigurd Hofman, a pu synthétiser durant une infime fraction de seconde l'élément de numéro atomique 112 (c'est-à-dire dont le noyau atomique renferme 112 protons). La même équipe s'était déjà signalée en identifiant, à la fin de 1994, l'élément 110, obtenu par collision entre du plomb et du nickel, puis l'élément 111, à partir de bismuth et de nickel.

Depuis la découverte de la fission nucléaire, en 1939, 20 éléments plus lourds que l'uranium – instables et dont la durée de vie est d'autant plus brève qu'ils sont plus lourds – ont ainsi été créés et sont venus garnir les cases de la table de Mendeleïev au-delà de ce que produit la nature. Les spécialistes caressent l'espoir d'atteindre un jour l'un des îlots de stabilité prévus par la théorie, notamment vers le numéro atomique 126, où la durée de vie des atomes serait à nouveau nettement plus longue, de l'ordre de une ou de plusieurs secondes.

La première carte complète du génome humain

L'exploration de l'infiniment petit n'est plus aujourd'hui l'apanage des physiciens. D'année en année, les biologistes pénètrent plus avant dans l'intimité du vivant. Particulièrement spectaculaires sont les avancées de la génétique. Créé en 1990 par le professeur Daniel Cohen et financé grâce aux dons récoltés lors du « Téléthon » qu'organise chaque année l'Association française contre les myopathies, le Généthon avait annoncé, dès 1993, avoir établi une première cartographie du génome humain. Mais il ne s'agissait encore que d'un repérage grossier, donnant la position approximative de quelque 2 000 « balises » sur l'ensemble de l'ADN (acide désoxyribonucléique) qui compose notre patrimoine génétique. Affiné et complété, le nouvel atlas que publie l'équipe du professeur Jean Weissenbach dans la revue britannique Nature, le 14 mars, comporte désormais 5 264 « marqueurs », soit un marqueur toutes les 700 000 bases (les maillons élémentaires de l'ADN). Une « puissance de résolution » bien supérieure à celle espérée à l'origine du projet international Génome humain (lancé en 1988 par les États-Unis), qui aidera considérablement à localiser et à identifier les quelque 100 000 gènes associés à nos 23 paires tic chromosomes. Déjà, depuis 1992, les travaux des chercheurs du Généthon ont permis de localiser 223 gènes impliqués dans plus de 200 maladies. Le nouvel objectif de l'équipe-phare de la génétique française, dans le cadre du projet « Généthon 2 », est désormais, en collaboration avec plusieurs laboratoires anglo-saxons, de fusionner l'ensemble des données actuellement disponibles sur le génome humain, autrement dit de positionner l'ensemble des séquences génétiques déjà répertoriées. La carte qui en résultera accélérera encore l'identification des quelque 3 000 gènes que l'on sait impliqués, d'une manière ou d'une autre, dans une maladie héréditaire.

La maladie de la « vache folle »

Malgré les avancées considérables de la médecine, l'épidémiologie recèle encore bien des énigmes. Face à l'épidémie britannique d'encéphalopathie spongiforme bovine (ESB, couramment désignée sous le nom de maladie de la « vache folle »), révélée en mars, puis à l'hypothèse d'une transmission de l'agent de cette maladie à d'autres espèces animales et à l'homme, chez, qui cet agent déclencherait une forme de la maladie de Creutzfeldt-Jakob, les spécialistes n'ont pu que reconnaître les limites de leur savoir. L'ampleur des enjeux sanitaires et économiques attachés à l'ESB a conduit les autorités nationales et européennes à prendre brutalement conscience de l'importance de recherches qui, jusqu'alors, étaient considérées comme marginales. Des crédits ont été débloqués pour favoriser la recherche fondamentale dans le domaine des maladies à prions, dont l'ESB est un spécimen. Sous l'appellation de « prion » (acronyme forgé à partir de l'expression anglaise protinaceous infectious particle, particule infectieuse protéinée), on désigne un agent infectieux transmissible, distinct des parasites, des bactéries et des virus, dont la présence dans un organisme humain ou animal se révèle, au terme d'une longue période d'incubation, capable de détruire les structures du système nerveux central, et ainsi de tuer son hôte. Par ses caractères spécifiques et par la menace majeure qu'il fait peser sur la santé publique (aucun test de diagnostic ni aucune thérapeutique n'existent encore), le prion constitue l'un des plus grands défis lancés à la biologie et à la médecine de cette fin du xxe siècle.

Sida : des lueurs d'espoir

Autre grand défi pour la médecine d'aujourd'hui : celui que représente la lutte contre le sida. Depuis quinze ans, ce fléau ne cesse de s'étendre. Au 30 juin 1996, on recensait 1 393 649 cas déclarés dans le monde depuis le début de l'épidémie, en 1981. Cependant, nombre de cas ne sont pas déclarés, et, selon les spécialistes, la maladie aurait, en fait, déjà frappé près de 8 millions de personnes. Au total, depuis 1981, on estime que près de 28 millions de personnes ont contracté le virus, dont 90 % dans les pays en voie de développement, et qu'il y a désormais quelque 8 500 infections nouvelles chaque jour. Malgré tous les efforts en matière de recherche menés depuis l'identification du virus (VIH) en 1983, la médecine reste encore désarmée face à ce fléau mondial. Cependant, la 11e conférence internationale sur le Sida, qui s'est tenue en juillet à Vancouver (Canada), a fait état de progrès encourageants pour l'avenir. Les essais de traitement associant deux ou trois médicaments antiviraux et mettant en œuvre de nouvelles molécules antivirales très actives, les antiprotéases, ont permis de constater, à court terme, une amélioration sensible de l'état des patients. Par ailleurs, la mise au point de nouveaux outils de mesure de l'infection, et notamment le dosage de la charge virale, qui permet de déterminer avec précision la quantité de virus présente dans le sang, autorise désormais une évaluation de l'efficacité des médicaments et une surveillance du traitement bien meilleures qu'auparavant.

Datation au carbone 14 : une révision nécessaire

Une caractéristique du savoir scientifique est de n'être jamais définitif. Des connaissances qui semblent bien établies sont susceptibles d'être révisées lorsque de nouvelles données expérimentales l'exigent. C'est ainsi, par exemple, que des travaux effectués au Centre des faibles radioactivités de Gif-sur-Yvette (Essonne) et présentés lors d'un colloque de l'American Geophysical Union à San Francisco (États-Unis) ont montré qu'il fallait corriger les datations fondées sur la désintégration radioactive du carbone 14. En effet, la production de carbone 14 dans l'atmosphère est liée au flux de rayonnement cosmique, lui-même modulé par l'intensité du champ magnétique terrestre (ce dernier se comportant comme un bouclier face aux particules venues de l'espace) : plus le champ magnétique est faible, plus la quantité de carbone 14 fabriquée par les rayons cosmiques – et donc absorbée par les organismes vivants – est importante. Or, il s'avère qu'il y a plusieurs dizaines de milliers d'années, le champ magnétique terrestre était plus faible qu'aujourd'hui. Les datations effectuées en supposant que le taux de carbone 14 n'a pas varié sont donc erronées. Il faut les modifier dans le sens d'un vieillissement. Les corrections les plus importantes touchent la période comprise entre – 20 000 et – 40 000 ans, où les datations devront être vieillies de 2 000 à 3 000 ans. Les écarts par rapport aux anciennes mesures auront des répercussions importantes en préhistoire. Mais, depuis son invention en 1947 par le chimiste américain William Libby, la datation au carbone 14 n'en est pas à son premier réajustement, et elle en subira probablement encore d'autres.

La révolution numérique

Au plan technique, l'année 1996 a vu s'amplifier une tendance amorcée au cours des années précédentes : la convergence croissante de l'informatique, des télécommunications et de l'audiovisuel, liée au développement de la technologie numérique. Vingt-cinq ans après l'invention du microprocesseur, le microordinateur poursuit son irrésistible avancée dans les entreprises et dans les foyers : au cours de l'année, il s'en est vendu plus de 70 millions dans le monde. Ses performances en font de plus en plus un outil multimédia et « communiquant ». Mais, devant l'engouement suscité par le réseau Internet, les constructeurs se préparent à gagner de nouveaux clients avec l'ordinateur de réseau, un ordinateur simplifié, peu coûteux et très simple à utiliser (voir « Les chantiers de la découverte »).