nanotechnologie

Nanotubes
Nanotubes

Domaine de la science dont la vocation est l'étude et la fabrication de structures (appelées nano-objets) dont les dimensions sont comprises entre 1 et 1 000 nanomètres (nm).

Introduction

La nanotechnologie peut être considérée comme une évolution logique de la microélectronique dont l'objectif est la fabrication de circuits intégrés, familièrement appelés « puces électroniques ». Ce secteur d'activité à haute valeur ajoutée est communément appelé « industrie du semi-conducteur » en référence aux matériaux de base de la microélectronique tels que le silicium. Dans ce domaine, l'évolution des performances en terme de miniaturisation est programmée jusqu'à l'horizon 2014. Les techniques de fabrication de circuits intégrés appartiennent d'ores et déjà au domaine de la nanotechnologie dans la mesure où les méthodes de lithographie qui « impriment » les motifs de transistors sur le substrat semi-conducteur atteignent une résolution de 180 nm en 2000.

Cependant, il est à noter qu'une centaine de nanomètres reste une dimension considérable à l'échelle atomique puisqu'elle correspond, par exemple, à une chaîne de 333 atomes dans le cas du silicium (en considérant une distance interatomique moyenne de 0,3 nm).

Il convient donc de marquer la distinction entre les domaines de la nanoélectronique industrielle et de la nanotechnologie moléculaire. Le but de cette dernière discipline est de pouvoir assurer un contrôle parfait sur la structure de la matière et de pouvoir construire des objets complexes avec une précision à l'échelle de l'atome ou de la molécule.

La nanotechnologie dans l'industrie du semi-conducteur

Évolutions techniques : l'horizon 2014

Parmi les travaux pionniers qui ont marqué la naissance des composants semi-conducteurs, l'une des étapes essentielles a été l'intégration du premier circuit sur substrat de silicium en 1959.

Développements pionniers de composants semi-conducteurs

 

Développements pionniers de composants semi-conducteurs

Année

Auteur de l’invention ou entreprise

Invention ou première apparition sur le marché

1902

J.C. Bose

Rectificateur

1925

E. Presser

Rectificateur au sélénium

1926

J.E. Lilienfield

Dispositif amplificateur

1947

J. Bardeen, W.H. Brattain

Transistor germanium

1948

W. Shockley

Transistor à jonction

1954

 

Transistor à silicium commercial

1958

J.S. Kirby

Circuit intégré sur germanium

1959

K.N. Noyce

Circuit intégré sur silicium

1960

D. Kahng, M.M. Attala

Transistor MOS

1968

 

Circuit mémoire 256 bits

1970

 

Calculatrice de poche

1974

Firme américaine Intel

Microprocesseur

 

Les travaux de J. Bardeen, W.H. Brattain et W. Shockley ont été récompensés par le prix Nobel de physique en 1956.

Durant les trente dernières années, le nombre de transistors sur une puce de silicium a été multiplié par plus d'un million, suivant une croissance exponentielle régulière. Dès la fin des années 1960, cette tendance prédisant le taux et le rythme d'intégration a été analysée par l'Américain Gordon Moore, membre fondateur de Fairchild Semiconductor puis d'Intel. Les règles de la « loi de Moore » peuvent être formulées de manière extrêmement simple :
– accroissement de la vitesse des circuits d'un facteur 1,25/an
– réduction de la dimension minimale caractéristique d'un facteur 1,15/an
– accroissement de la densité d'intégration de 1,31/an
– accroissement de la complexité des circuits d'un facteur 1,4/an.

En extrapolant la loi de Moore, on peut aussi prévoir l'évolution des densités d'intégration et des performances jusqu'en 2014. La capacité des mémoires DRAM (Dynamic Random Access Memory, mémoire vive dynamique [couramment utilisée dans les micro-ordinateurs]) atteindra alors un million de mégabits pour une taille minimum de motif (longueur de grille d'un transistor) de 35 nm. Cette projection fondée sur une extrapolation de la loi de Moore pour les années à venir constitue la base d'évolution suivie par les industriels du semi-conducteur dans le cadre de la SIA (Semiconductor Industry Association).

Prévisions jusqu'en 2014 des performances de circuits

PRÉVISIONS JUSQU’EN 2014 DES PERFORMANCES DE CIRCUITS TELS QUE CEUX UTILISÉS DANS LES MICRO-ORDINATEURS

Caractéristique

Unité

1997

1999

2002

2005

2008

2011

2014

Plus petit motif lithographique

nanomètre
(nm)

250

180

130

100

70

50

35

Capacité d’un circuit mémoire de type DRAM

mégabit
(Mbit)

256

1 000

4 000

16 000

64 000

256 000

1 000 000

Surface d’un circuit mémoire de type DRAM

millimètre carré (mm2)

280

400

560

790

1 120

1 580

2 240

Fréquence d’opération des microprocesseurs

Mégahertz
(MHz)

400

600

800

1 100

1 400

1 800

2 300

Évolution économique

Une des conséquences de la loi de Moore est également la tendance anti-inflationniste de l'industrie des semi-conducteurs en terme de productivité. À titre d'exemple, le passage d'une génération de mémoire DRAM à la suivante (de 256 Mbits en 1997 à 1 000 Mbits [soit 1 gigabit (Gbit)] en 1999) entraîne une évolution du coût de fabrication par circuit d'un facteur 1,8 alors que la capacité mémoire d'une puce est quadruplée, soit une réduction d'un facteur 2,2 du coût par bit.

La complexité d'un circuit est, au premier ordre, proportionnelle au rapport de sa surface totale à la surface occupée par un seul transistor. Ainsi, l'accroissement annuel de l'ordre de 40 % en complexité est la conséquence d'une réduction annuelle de 15 % de la dimension minimale de lithographie et d'une augmentation de l'ordre de 15 % de la surface des puces. Cette évolution exponentielle des volumes de production doit cependant s'accompagner d'une amélioration drastique de la qualité des matériaux et procédés de fabrication. Ainsi, le saut technologique engendré par le passage d'une génération à la suivante sur 3 ans se traduit également par un saut des exigences en qualité d'un facteur 4 à 5 et d'une augmentation abrupte des investissements en équipements et en recherche/développement.

Cette conséquence de la loi de Moore peut être illustrée par une figure qui compare l'évolution des montants d'investissements liés à l'installation de lignes de fabrication et la croissance du marché des semi-conducteurs. Ainsi, l'an 2005 laisse peut-être entrevoir un point de rupture économique pour lequel seulement une dizaine d'unités de production suffiraient à couvrir les besoins du marché.

Du point de vue technologique, il est maintenant généralement admis que l'objectif industriel vers 2014 tel que planifié par la SIA devrait être atteint sans blocage majeur avec l'appui d'un effort soutenu en recherche, particulièrement en sciences des matériaux. Une vision de l'évolution et des solutions technologiques à plus long terme constitue un exercice beaucoup plus difficile. Néanmoins, la recherche fondamentale se poursuivant dans le domaine de la nanotechnologie moléculaire devrait ouvrir de nouvelles perspectives.

La nanotechnologie moléculaire

Un défi technologique

Le défi de la nanotechnologie moléculaire réside dans le contrôle de la matière à l'échelle de l'atome. Les propriétés de toute matière (mécaniques, électriques, thermiques, etc.) dépendent de la manière dont les atomes sont agencés afin de former un édifice macroscopique pouvant être perceptible par l'œil humain. À l'échelle de l'atome, les techniques de fabrication macroscopiques (moulage, découpage, abrasion, soudure, etc.) restent grossières et imprécises. Même les techniques industrielles de lithographie qui permettent la fabrication de circuits comportant des millions de transistors sur quelques millimètres carrés mettent en jeu un nombre considérable d'atomes dont l'arrangement et la position ne peuvent être parfaitement contrôlés. Une discipline scientifique fait cependant exception : la chimie. Il est en effet possible d'obtenir des cristaux de dimensions importantes dont l'arrangement cristallographique est parfaitement ordonnancé. Par exemple, les tranches de silicium qui constituent la matière première des composants électroniques atteignent un diamètre de 20 cm. De même, il est possible de synthétiser de longues chaînes de polymères ou des protéines comportant des centaines de groupements atomiques dont le nombre et la position sont parfaitement déterminés. Enfin, dans le domaine de la biochimie, l'A.D.N. (acide désoxyribonucléique), dont l'arrangement moléculaire offre des millions de combinaisons, peut être copié à la perfection.

Aussi précise que soit l'élaboration de cristaux ou de molécules complexes, la chimie n'offre cependant que des méthodes collectives de fabrication ne permettant pas d'isoler, de manipuler et de placer individuellement un atome ou une molécule. Il existe donc aujourd'hui un décalage entre la chimie, qui permet la synthèse très précise de molécules complexes en grande quantité, et la technologie, qui devrait pouvoir en assurer la manipulation aisée afin de construire des nano-objets avec une précision à l'échelle du nanomètre. Néanmoins, il est important de noter que les efforts de recherche développés depuis vingt ans ne cessent de faire progresser les trois objectifs majeurs de la nanotechnologie moléculaire : contrôler parfaitement le placement des atomes ou des molécules ; concevoir et fabriquer à l'échelle du nanomètre des structures qui demeurent des édifices stables, c'est-à-dire compatibles avec les lois de la physique et de la chimie ; enfin, rendre le coût de fabrication de tels nano-objets proche de celui de la matière première.

Les outils de la nanotechnologie moléculaire

Les outils de manipulation moléculaire existent mais ne sont accessibles que dans le domaine de la recherche fondamentale mettant en jeu une instrumentation complexe telle que les microscopes à effet tunnel ou à force atomique.

Le microscope à effet tunnel

Le microscope à effet tunnel est à l'origine un instrument permettant la visualisation (l'imagerie) d'une surface de matériau avec une précision atomique. Cet instrument fut développé au début des années 1980 dans les laboratoires de recherche de la firme IBM par deux physiciens, l'Allemand Gerd Binning (né en 1947) et le Suisse Heinrich Rohrer (né en 1933), qui ont obtenu le prix Nobel de physique en 1986 pour leurs travaux. Son principe de fonctionnement est étonnamment simple. L'élément le plus important est une pointe métallique positionnée au-dessus de l'échantillon à analyser. Le mouvement de cette pointe est commandé par des tubes piézoélectriques permettant un déplacement très précis dans les trois dimensions de l'espace. Une tension électrique est appliquée entre la pointe et l'échantillon. Lorsque la pointe est suffisamment proche de la surface de l'échantillon sans toutefois être en contact avec elle, un courant d'électrons s'établit par effet tunnel (mécanisme de conduction électrique pouvant être interprété par la mécanique quantique). L'amplitude du courant tunnel varie très fortement en fonction de la distance séparant la pointe de la surface du matériau à analyser. Typiquement, cette distance est de l'ordre de 0,1 à 1 nm. La pointe effectue un balayage dans le plan X-Y parallèle à la surface. Durant ce balayage, la position de l'échantillon selon l'axe Z (altitude) est ajustée afin de maintenir constant le courant tunnel. En enregistrant l'altitude de la pointe pour chaque position balayée dans le plan X-Y, il est possible d'établir une cartographie de surface de l'échantillon.

Au-delà de son utilité pour observer la structure atomique de la matière, le microscope à effet tunnel peut également être utilisé pour la manipulation d'atomes. Par exemple, en modulant la tension entre la pointe et l'échantillon, il est possible d'extraire un seul atome, de le déposer sur la pointe, puis de le replacer sur la surface à un emplacement choisi. Afin d'illustrer le potentiel d'une telle technique, une comparaison s'impose avec le cédérom. Celui-ci permet de stocker en moyenne 650 millions de caractères (lettres d'imprimerie) sur environ 10 cm2. En supposant que chaque caractère peut être « imprimé » sur une surface de silicium à l'aide de la pointe d'un microscope à effet tunnel, le même volume d'information occuperait une surface 28 fois plus petite que la surface d'un timbre-poste, soit 0,187 cm2. Actuellement, le rendement d'un tel procédé de fabrication reste très faible et son utilisation ne peut pas encore être envisagée pour la production d'objets manufacturés à faible coût. En particulier, ce type d'expérience nécessite un contrôle très strict de l'environnement en utilisant une enceinte dans laquelle règne un vide poussé. D'autres expériences permettant d'atteindre une résolution de quelques nanomètres ont été menées à l'air libre en utilisant un microscope à force atomique.

Le microscope à force atomique

Le microscope à force atomique opère sur un mode sensiblement différent de celui du microscope à effet tunnel. Une pointe très fine est usinée à l'extrémité d'une poutre de 2 à 3 mm de longueur. La pointe est positionnée au contact intime de la surface à observer. Comme dans le cas du microscope à effet tunnel, la pointe effectue un balayage dans le plan X-Y parallèle à l'échantillon. En recueillant les mouve-ments de déflexion de la poutre à l'aide d'un faisceau laser, une cartographie de surface de l'échantillon à caractériser peut être établie avec une résolution de l'ordre du nanomètre. Il est à noter que le microscope à force atomique permet d'obtenir l'image d'une surface non conductrice, à l'inverse du microscope à effet tunnel, qui requiert le passage d'un courant électrique. Grâce à la pointe située à l'extrémité de la poutre, qui joue le rôle d'une nanosonde locale, le microscope à force atomique constitue également un outil puissant permettant la génération de motifs nanométriques sur une surface de matériau. La résolution atteinte par ce type de technique est de l'ordre de 10 nm lorsque l'expérience est conduite à l'air libre. Cette performance est à comparer avec la résolution des outils de lithographie utilisés dans l'industrie du semi-conducteur qui est aujourd'hui de 180 nm, soit une amélioration d'un facteur 18 en termes de miniaturisation.

Perspectives

Une vision claire des perspectives qu'offre la nanotechnologie n'est possible aujourd'hui que dans le secteur de l'industrie du semi-conducteur sur une période d'environ quinze ans. Sous cet éclairage, le mot « nanotechnologie » désigne une extrapolation vers le domaine nanométrique des techniques utilisées pour la production de circuits intégrés. La nanotechnologie moléculaire, quant à elle, devrait ouvrir théoriquement la voie vers de véritables innovations dans de nombreux domaines :
– en médecine, des nanosondes pourraient intervenir dans l'organisme humain pour détecter des cellules malades, éliminer des virus ou encore effectuer une nanochirurgie sur des séquences d'A.D.N. qui déterminent notre patrimoine génétique ;
– dans l'industrie manufacturière, l'utilisation de nanomachines « intelligentes » fournirait des outils d'assemblage permettant un haut degré de qualité des produits ainsi qu'une économie stricte de la matière ;
– en informatique, les composants actifs (transistors) utilisés dans les microprocesseurs pourraient être remplacés par des dispositifs de commutation composés de quelques molécules seulement.

Ces trois exemples d'applications révolutionnaires, parmi tant d'autres, ne restent pour l'instant qu'au stade de projets à très long terme (vingt à trente ans) puisque la nanotechnologie moléculaire n'en est qu'à sa genèse. Il y a fort à parier qu'une évolution rapide dans ce domaine viendra d'un brassage entre plusieurs communautés scientifiques telles que celles des physiciens, des chimistes et des biologistes.