IMPACT DU DEVELOPPEMENT FUTUR DES NANOTECHNOLOGIES
SUR L'ECONOMIE, LA SOCIETE, LA CULTURE
ET LES CONDITIONS DE LA PAIX MONDIALE

Projet de mission

Jean-Pierre Dupuy
Conseil Général des Mines
Été 2002
COMPLEMENTS
" Matter will become software "
Business Week, January 2000

___________________________________________________________

1. Dans quelle mesure le développement des nanotechnologies est-il lié à celui des biotechnologies ? Freeman Dyson pensait que " si nous arrivons un jour à construire des nanomachines, ce sera probablement grâce aux biotechnologies. " La plupart des experts en nanotechnologies ne sont pas d'accord. L'arrivée des nanotechnologies modifiera le concept même de biotechnologie, pensent-ils. En effet, les biotechnologies prennent les produits de l'évolution biologique pour donnés et se contentent de les utiliser ou de les reproduire pour les mettre au service des fins humaines. Le projet nanotechnologique est beaucoup plus radical. Il part du constat que l'évolution est un piètre ingénieur, qui a fait son travail de conception plus ou moins au hasard, se reposant sur ce qui marchait à peu près pour échafauder de nouvelles constructions plus ou moins branlantes - bref, en bricolant. L'esprit humain, relayé par les technologies de l'information et de la computaion qui le dépasseront bientôt en capacités d'intelligence et d'imagination, fera beaucoup mieux.

2. Le principal argument de " vente " des nanotechnologies, qui explique que, s'il est conceptuellement, physiquement, industriellement et économiquement viable, leur développement paraît inéluctable, est que ces nouvelles techniques sont les seules qui puissent résoudre, en les contournant, les difficultés immenses qui se trouvent sur la route des sociétés industrielles et post-industrielles. Les problèmes liés à l'épuisement prévisible des ressources naturelles, à commencer par les sources d'énergie fossile, mais aussi les ressources minières, les problèmes d'environnement (réchauffement climatique, pollution de l'air et de l'eau, encombrements de toutes sortes liés à l'urbanisation effrénée, etc.), les problèmes liés à la tiers-mondialisation de la planète et à la misère d'une proportion croissante de celle-ci, tous ces problèmes et bien d'autres seront en principe non pas résolus par l'avènement des nanotechnologies, mais ils deviendront caducs, obsolètes. On fera tout simplement les choses autrement, d'une manière radicalement différente. Ce que l'argument de vente omet de dire, bien entendu, c'est que de nouveaux problèmes émergeront, en comparaison desquels les difficultés actuelles apparaîtont comme du gâteau.

3. Concevoir les nanomachines comme des sytèmes auto-organisés et capables d'autoreproduction est une nécessité technique, économique et philosophique. Le couplage de ces nanomachines ne peut lui-même se faire que par auto-organisation. Mais il y a des degrés dans l'auto-organisation. Celle-ci peut être aidée, sinon guidée, par des programmes, eux-mêmes auto-organisés, c'est-à-dire capables de se programmer eux-mêmes. L'organisation de la cellule vivante nous fournit un modèle, si l'on veut bien renoncer à la métaphore dominante en biologie moléculaire, celle qui fait du génome un programme d'ordinateur, pour la remplacer par une théorie qui voit le " programme " (auto-organisé) dans le fonctionnement métabolique tout entier, les informations contenues dans le génome apparaissant alors comme les données sur lesquelles opère le programme .

4. Le discours nanotechnologique souffre d'une contradiction centrale, sur laquelle il conviendra de faire la lumière. D'un côté, il mobilise toutes les ressources conceptuelles de la la théorie des systèmes complexes à auto-organisation. Seuls des processus complexes, comme ceux de la sélection naturelle, sont capables de produire du complexe et de toujours le complexifier. Mais si l'esprit humain et son projet technologique prend le relais, au motif que ce qui a été sélectionné n'est pas satisfaisant, où puisera-t-il la capacité d'engendrer du complexe ? On trouve une contradiction similaire au cœur de la philosophie du plus grand penseur de la complexité sociale du vingtième siècle, Friedrich Hayek. Il s'agit du statut de la démonstration qui établit la supériorité absolue du marché. Seuls les " ordres sociaux spontanés " qui passent au travers du filtre de l'évolution culturelle peuvent acquérir une complexité suffisante. Jamais en particulier l'esprit humain ou la raison ne pourront concevoir des ordres aussi complexes que ceux qui sont sélectionnés par l'évolution. Le problème est évidemment que Hayek peut difficilement prétendre que le marché a passé le test avec succès puisque son œuvre se présente tout entière comme une critique radicale et "rationnelle" de la civilisation moderne, coupable de s'être laissée séduire par les sirènes de ce que Hayek appelle le " constructivisme " (État-Providence bureaucratique, auto-investi de la mission de rendre la société bonne et juste, etc.). De deux choses l'une, donc, conclut la critique. Ou bien Hayek doit renoncer à sa théorie de l'évolution culturelle et fonder la supériorité du marché sur des arguments rationalistes, ou, s'il la maintient, il faut qu'il admette que l'ordre étendu du marché n'est pas le meilleur. La critique nanotechnologique de l'évolution naturelle et biologique souffre apparemment du même défaut structurel majeur.

1. Objet
Devant ce qu'il est convenu d'appeler les "nouveaux risques" liés au développement scientifique, technique et économique de l'humanité, la prudence, le droit et l'éthique tentent de forger des instruments inédits de régulation. Le "principe de précaution" tend à y occuper un quasi monopole alors même que ses fondements sont loin d'être assurés. La réflexion sur l'impact sociétal et, au-delà, culturel, des nanotechnologies peut constituer une étude de cas riche d'enseignements dans la mesure où elles nous présentent une configuration inédite qui exige, semble-t-il, un effort d'imagination et de rigueur qui aille bien au-delà de ce qui a pu être pensé jusqu'à présent. Deux traits au moins illustrent le défi qu'elles nous posent: 1) Il s'agit de technologies qui, pour l'essentiel, n'existent pas encore mais dont il est quasi certain qu'elles vont venir à l'existence dans un avenir rapproché; 2) Leur développement aura des effets qu'on peut d'ores et déjà anticiper et ces effets sont considérables, tant du côté des avantages que de celui des dangers. A un certain niveau d'analyse, l'incertitude n'est donc pas le problème, cette incertitude qui est au cœur même de la problématique de la précaution. Le problème est celui de la taille des enjeux et des bouleversements attendus, couplé à l'existence d'une dynamique dont la force et le caractère de quasi nécessité dépassent ce que l'on a connu jusqu'ici en matière de développement scientifique et technique. L'avenir des nanotechnologies est bien réel et, s'il y a une incertitude, elle réside dans la façon dont les peuples et leurs gouvernements réagiront aux changements majeurs qu'elles produiront.

2. Sources historiques
L'étude de l'impact du développement à venir des nanotechnologies a pour prérequis la bonne compréhension de leurs sources historiques et philosophiques même lointaines. On devrait pouvoir montrer, en effet, que c'est dans leur projet même, tel qu'il est esquissé depuis déjà de nombreuses années, que se situent les risques, plutôt que dans les contingences de leur venue à l'existence matérielle. Voici sans doute un domaine où, paradoxalement, la thèse matérialiste en philosophie et en sociologie des sciences et des techniques se révèlera fausse, alors que le domaine lui-même est tout entier dominé par le matérialisme: les idées ont un pouvoir causal et ce sont elles qui constituent l'"infrastructure". On se contentera ici d'esquisser quatre moments. L'étude projetée devrait permettre d'aller beaucoup plus loin dans l'analyse historique.

En 1948, au cours d'un colloque organisé par la Fondation Hixon au California Institute of Technology (CalTech), et qui apparaît rétrospectivement comme l'un des moments fondateurs des sciences cognitives, John von Neumann proposa, en critique du projet cybernétique, une conjecture sur la complexité. On peut concevoir, affirma-t-il, que des automates complexes soient non seulement capables de s'autoreproduire, mais aussi de produire des automates plus complexes qu'eux. Von Neumann s'opposait ainsi au projet de la cybernétique, lequel consistait à réaliser (au moins sur le papier), pour chaque fonction classiquement attribuée à l'esprit humain, une machine (de Turing) capable de la reproduire ou de la simuler. Mais quid, objectait von Neumann, si la manière la plus simple de caractériser la fonction est de présenter la machine elle-même? Il serait dans ces conditions dépourvu de sens de découvrir que tel comportement peut être incarné dans une certaine structure puisqu'il ne serait pas possible de définir le comportement autrement qu'en décrivant la structure. Von Neumann mettait ainsi en lumière les limites de la démarche descendante (top-down) qui est classiquement celle de l'ingénieur. Dans le cas des systèmes complexes, seule a du sens la démarche ascendante (bottom-up), qui consiste à explorer ce dont est capable un automate donné. Bientôt, prophétisait von Neumann, le constructeur d'automate serait aussi désarmé devant sa création que le scientifique l'est devant les phénomènes naturels complexes.

Un physicien des phénomènes complexes, précisément, conjectura en 1959, dans le cadre du même CalTech, qu'il serait bientôt possible d'envisager la manipulation de la matière au service des fins humaines à l'échelle de la molécule, en opérant atome par atome. Ce physicien était Richard Feynman et sa causerie, intitulée "There's Plenty of Room at the Bottom" devait avoir une influence notable.

L'un de ceux qui furent influencés par les idées de Feynman était Eric Drexler, alors étudiant de doctorat au MIT sous la direction de Marvin Minsky, l'un des fondateurs de l'intelligence artificielle. C'est Drexler qui devait lancer, comme on lance un produit de marketing, le projet nanotechnologique. Lancement idéologique, d'abord, avec la publication de deux livres programmes, Engines of Creation (1986) , puis Nanosystems: Molecular Machinery, Manufacturing, and Computation (1992). C'est avec beaucoup de scepticisme et même d'ironie que la communauté scientifique, et encore plus le monde des affaires et de l'industrie, accueillirent d'abord les utopies visionnaires de Drexler. Les choses devaient changer du tout au tout en l'espace de quelques années. Désormais établi à Palo Alto, en Californie, à proximité de l'Université Stanford, au sein d'un Foresight Institute qui se consacre énergiquement à la promotion des nanotechnologies, Drexler organise chaque année des congrès mondiaux qui obtiennent un succès rapidement croissant.
C'est qu'entre temps, des découvertes scientifiques et des percées technologiques prodigieuses ont vu le jour, qui semblent montrer que les projections apparemment aventureuses de Drexler sont à la portée des scientifiques et des ingénieurs. L'étude devrait en faire le recensement et l'historique d'une façon raisonnée et synthétique. Citons ici pour mémoire et sans souci d'ordre: la mise au point du microscope à effet tunnel par deux physiciens du centre de recherche d'IBM de Zurich, lequel microscope permet de "voir" à l'échelle atomique et de "jouer" avec les atomes (1982); la découverte, qui devait lui valoir le prix Nobel en 1996, que le chimiste Richard Smalley fit des fullerènes , structures composées d'atomes de carbone disposés en treillis sur une sphère de la taille du nanomètre ; structures qui à leur tour se composent pour donner des nanotubes de carbone, sortes d'éléments d'échafaudage qui permettent d'envisager de construire à l'échelle nanométrique des matériaux extrêmement résistants, légers et bon marché; les premières réalisations en computation quantique, laquelle va révolutionner la puissance de calcul des ordinateurs en jouant, contrairement aux circuits électroniques actuels, sur l'indétermination des phénomènes quantiques (2002); la découverte qu'il est possible d'enrichir l'alphabet du code génétique de nouvelles bases, ce qui permet à la machinerie cellulaire productrice d'amino-acides de fabriquer des protéines que la Nature à elle seule n'aurait jamais pu produire (2002); etc.

Le temps des nanotechnologies ne viendra cependant que lorsque les nanopuces, les nanorobots, les nano-assembleurs et les nanomachines mus par des nanomoteurs envisagés par Drexler, seront mis au point, ce qui, selon certaines estimations, ne devrait prendre que quelques décennies. Les nanopuces révolutionneront l'informatique, en faisant des molécules elles-mêmes les éléments de base de circuits électroniques. Leur conception exigera la maîtrise des effets quantiques qui jouent pleinement à ce niveau. Les nanorobots et autres nano-assembleurs, en revanche, traitent les molécules comme des objets ordinaires (non quantiques), dotés de masse, taille, forme, propriétés de contact et de friction. Leur mise au point devrait être plus aisée. Cependant, la condition sine qua non pour que le projet soit à la fois réalisable industriellement et conforme à la philosophie première qui pousse la dynamique de la recherche, est que ces micromachines soient des automates autoreproducteurs, donc capables d'autoréplication et même d'autocomplexification. Ce point est essentiel. Que ce projet soit désormais considéré comme réalisable et tenu pour absolument prioritaire apparaît à l'évidence dans les budgets considérables qui lui sont consacrés. En 2002, les Etats-Unis auront dépensé plus de 500 millions de dollars à cette fin et le "reste du monde", encore plus. Le sixième PCRD de la Commission européenne a fait des nanotechnologies l'un de ses thèmes prioritaires, au même titre que la génomique, les biotechnologies, l'aéronautique et la recherche spatiale, tous domaines, soit dit en passant, que les nanotechnologies devraient révolutionner. En France, une coordination s'est mise en place entre le Ministère de la Recherche, le CNRS et le CEA et une action concertée multidisciplinaire d'un montant de 10 millions d'euros a été lancée. En janvier 2002, à l'initiative du CEA, a été installé à Grenoble un pôle d'innovation en micro- et nanotechnologies (Minatec), qui, selon ses promoteurs, "a vocation à devenir le 'centre européen' dans ce domaine d'ici à 2002". L'étude devra faire un recensement des principaux centres dans le monde (outre les Etats-Unis, le Japon, la Chine et Taïwan consentent des efforts importants), et apprécier les forces et les faiblesses de l'effort français et européen.

Les nanotechnologies devraient avoir des applications dans à peu près tous les secteurs de la vie privée, économique, industrielle et sociale. La médecine et la pharmacie, l'environnement, l'agriculture, l'industrie manufacturière et minière, les transports, l'énergie, la conquête spatiale, les armements, la computation, l'information et la communication devraient s'en trouver bouleversés. L'étude devra proposer un tableau synoptique de ces applications, mettant en évidence les liens qui les unissent. On ne citera ici que trois illustrations: la mise au point de superordinateurs de poche; la fabrication d'objets macroscopiques sur la base de nanotubes de carbone: une voiture pourra alors avoir une masse de vingt-cinq kilos et un satellite d'observation la masse d'une voiture actuelle, tout en étant considérablement plus résistants que les objets actuels et en coûtant l'équivalent du prix du bois de chauffage; les interventions médicales ou chirurgicales à l'échelle nanométrique, qui permettront par exemple de délivrer de l'insuline au patient diabétique au moyen de nanopompes intelligentes, de redonner des forces à un système immunitaire défaillant ou même de vaincre le cancer et le SIDA.

3. Le projet philosophique
On peut distinguer trois dimensions principales dans ce qu'on appelle ici le "projet philosophique" qui sous-tend les nanotechnologies, étant entendu que, bien que constitué d'idées, ce projet a une réelle efficacité causale sur la dynamique de la recherche, et que les effets positifs et négatifs des nanotechnologies reflètent (reflèteront) dans une large mesure les composantes de ce projet. Telle est du moins l'hypothèse que l'étude devra mettre à l'épreuve.

3.1. Inhérente aux présupposés des sciences cognitives est l'idée que tout dans l'univers, donc la nature, la vie et l'esprit, est machine informationnelle, dite encore algorithme. Chronologiquement, et contrairement peut-être à certaines idées reçues, c'est d'abord l'esprit (mind) qui a été assimilé à un algorithme (machine de Turing: modèle de Warren McCulloch, 1943); puis ce fut le tour de la vie, avec la naissance de la biologie moléculaire (Max Delbrück et le groupe du phage, 1949); et, seulement plus tard, la thèse que les lois de la physique sont récursives (ou Turing-computables). Une fois admise une telle vision du monde, il n'y a qu'un pas pour en arriver à former le projet de se rendre maître de ces machines, d'abord en les simulant et en les reproduisant (naissance de l'intelligence, puis de la vie artificielles), ensuite en intervenant sur elles à la manière de l'ingénieur (biotechnologies, technologies cognitives, etc.).

3.2. L'ingéniérie de ces machines est prise dans une tension entre deux démarches opposées. La première est la conception classique: L'ingéniérie consiste à concevoir et à fabriquer des structures dont le comportement reproduira les fonctionnalités que l'on juge désirables. Cependant, comme exposé ci-dessus, dès 1948 et la critique du projet cybernétique par John von Neumann, une autre conception, opposée, s'est mise en place, pour devenir aujourd'hui la conception dominante. Il s'agit cette fois de "se donner" des structures complexes (éventuellement en les puisant dans le réservoir que nous offrent la nature et la vie, par exemple un cerveau humain, ou bien en les reproduisant artificiellement, par exemple sous la forme d'un réseau de neurones formels) et d'explorer les fonctionnalités dont elles sont capables, en essayant de dégager le rapport structure/fonction: démarche ascendante, donc, et non pas descendante. De manière plus imagée, on peut dire que l'ingénieur, ici, loin de souhaiter la maîtrise, joue sciemment et délibérément à l'apprenti - sorcier: il estimera que son entreprise est d'autant plus couronnée de succès que la machine qu'il aura mise au point le surprendra. On observe déjà une telle attitude dans la recherche sur les algorithmes génétiques. Il s'agit de simuler les capacités évolutives d'une "soupe" primitive constituée de programmes d'ordinateur, les plus performants se reproduisant d'avantage que les autres. On obtient ainsi des algorithmes très performants en effet, puisqu'ils ont été "sélectionnés" selon ce critère, mais on est dans l'incapacité de comprendre pourquoi ils ont ces propriétés. Celui qui veut fabriquer - en fait, créer - de la vie ne peut pas ne pas ambitionner de reproduire sa capacité essentielle, qui est de créer à son tour du radicalement nouveau.

Un concept important est ici celui de "reverse engineering", ou ingéniérie inverse, autre nom donné à la démarche bottom-up. Ce point est essentiel pour aborder la question des risques. Malheureusement, il semble que les promoteurs étatiques des nanotechnologies en France ne l'aient absolument pas compris, ce qui peut expliquer une certaine naïveté dans leur abord de la question. Les documents officiels que l'on a consultés insistent en effet sur la distinction entre démarche ascendante (bottom-up) et démarche descendante (top-down), mais c'est pour affecter exclusivement la première aux nanosciences et la seconde aux nanotechnologies - comme si seuls les scientifiques pouvaient se permettre d'assumer les risques de la première, dans les confins bien protégés de leur laboratoire. C'est là se méprendre fondamentalement sur le projet nanotechnologique, et l'étude devra mettre ce point spécialement en évidence.

3.3. La remarque que l'on vient de faire sur les algorithmes génétiques introduit la troisième composante du projet philosophique qui sous-tend les nanotechnologies. L'évolution elle-même est vue comme un processus algorithmique, même si ou lorsque l'homme en prend le relais, ce qui lui fait perdre alors ses traits néo-darwiniens (avec, par exemple, l'évolution technologique). Or un processus de ce genre peut se bloquer dans des sentiers indésirables (lock-in). L'homme a en quelque sorte le devoir d'aider l'évolution à sortir des impasses où elle a pu s'enfermer. L'illustration la plus récente (et la plus troublante) de cette attitude ou de cette prétention nous est donnée par les commentaires des biologistes qui ont enrichi l'alphabet du code génétique, comme mentionné ci-dessus. On retrouve indéniablement dans le projet nanotechnologique le reflet de l'ambition consistant à se vouloir l'ingénieur des processus évolutifs.

4. Problématique de l'étude d'impact
La première donnée à noter est que ce sont aux Etats-Unis les mêmes personnes et les mêmes groupes qui poussent au développement des nanotechnologies et qui mettent en garde contre les dangers, peut-être extrêmes, qui s'attachent à ce développement. Le Foresight Institute reste le lieu privilégié où se pensent et se discutent les prophéties de malheur aussi bien que les prophéties de bonheur. Ici aussi, la configuration est singulière et mérite d'être analysée. Une explication possible est d'ordre, non pas économique, mais idéologique: ces groupes, comme expliqué ci-dessus, n'hésitent pas à se prendre et à se faire passer pour les relais de la Providence, pour ne pas dire de Dieu. Insister sur les risques considérables inhérents à leur mission ne fait que rehausser le prestige de celle-ci, sans remettre en cause la nécessité de l'accomplir .

On doit par ailleurs réfléchir au fait que les seules parties prenantes au débat américain qui ne croient pas aux dangers graves ou gravissimes qui s'attacheraient aux nanotechnologies sont celles qui ne croient pas non plus que celles-ci verront le jour .

Le contraste avec la situation française est saisissant. Tandis qu'aux Etats-Unis, donc, ce sont les intérêts privés qui lancent les mises en garde tout en assurant le dynamisme de la recherche, en France, comme il se doit, la puissance publique se croit investie de la mission d'impulser le dynamisme de la recherche et elle reste désespérément muette sur les dangers afférents . Là aussi, l'étude projetée devra fournir les éclaircissements et les explications nécessaires.

Dans les documents du Foresight Institute, on trouve abordée la question méthodologique de savoir ce qu'il en est de la pertinence de jugements d'évaluation portant sur des techniques qui n'existent pas encore. Il y est montré que l'argument fameux de Karl Popper sur l'impossibilité logique de prévoir l'état futur du savoir - car si une telle prévision était possible, le savoir en question perdrait son statut de savoir futur -, donc l'impossibilité de prévoir l'état futur de toute variable causalement liée à l'état du savoir, n'est pas pertinent dans le cas de l'état de la technique. De là la possibilité d'une exploratory engineering ("ingéniérie exploratoire") et l'existence d'un niveau d'analyse de l'ingéniérie future qui autorise la prévision certaine ou quasi certaine, du fait en particulier de propriétés d'équifinalité dans l'évolution technique. L'étude devra analyser avec soin la pertinence de cette argumentation et donc la possibilité et les conditions de cette ingéniérie exploratoire .

La littérature américaine met en avant sept grands types de risques, en associant aux nanotechnologies le génie génétique et la robotique, deux domaines qui leur sont étroitement apparentés. L'étude devra analyser avec soin cette typologie qui n'est peut-être pas exhaustive et évaluer la pertinence des arguments avancés.

4.1. Le risque qui est toujours mentionné en premier est celui d'une autoréplication sauvage des nanomachines à la suite d'un accident de programmation. Ce serait là la contrepartie presque inévitable de l'accent mis sur les propriétés auto-organisatrices des nanorobots et autres nano-assembleurs et de la démarche bottom-up en technologie (reverse engineering). Ce risque a reçu un nom technique: écophagie globale, c'est-à-dire la destruction de toute ou partie de la biosphère par épuisement du carbone nécessaire à l'autoreproduction des nano-engins en question . Des études très poussées, qu'il faudra soigneusement analyser et évaluer, concluent que ce risque, sans être nul, est très faible .

4.2. En revanche, le risque qu'une telle écophagie soit provoquée à dessein par des intentions malignes apparaît considérable. Le continent à explorer, ici, est immense et d'une grande complexité: c'est le bouleversement que le développement des nanotechnologies entraînera dans la conception des armements, donc dans les conditions des guerres futures, donc de la défense, et donc dans la géopolitique. Il ne faut pas se cacher que les sommes gigantesques aujourd'hui englouties dans les recherches constituent déjà un nouveau chapitre de la course aux armements. Cette course a déjà démarré très fort, et nul ne voit comment elle pourrait être régulée, encore moins arrêtée.

La configuration, ici aussi, est absolument inédite et requiert de nouveaux outils de réflexion et d'analyse. Les armes basées sur les nanotechnologies seront des armes de destruction massive à une échelle que le nucléaire, le chimique et le biologique (NCB) ne peuvent prétendre atteindre. Et cependant: 1) Contrairement aux armes NBC, les armes basées sur les nanotechnologies seront très facilement accessibles à de petites puissances ou des groupes terroristes puisque les techniques seront répandues partout, présentes dans tous les secteurs de la vie économique et sociale. Même si le nucléaire civil et le nucléaire militaire ont entretenu des rapports étroits, il y a incommensurabilité entre les deux configurations. La dissémination sera donc la donnée de base. 2) Les armes basées sur les nanotechnologies rendront inopérante la logique de la dissuasion et un "équilibre de la terreur" sera tout simplement impensable. Dans la configuration dite de "destruction mutuelle assurée" (MAD), ou, mieux, de "vulnérabilité mutuelle" propre à la dissuasion nucléaire, chaque nation offre aux possibles représailles de l'autre sa propre population en holocauste. La sécurité y est fille de la terreur. Si l'une des deux nations se protégeait, l'autre pourrait croire que la première se croit invulnérable et, pour prévenir une première frappe, frapperait la première. Les sociétés nucléaires se présentent comme à la fois vulnérables et invulnérables. Vulnérables, puisqu'elles peuvent mourir de l'agression d'un autre; invulnérables, car elles ne mourront pas avant d'avoir fait mourir leur agresseur, ce dont elles seront toujours capables, quelle que soit la puissance de la frappe qui les fait s'effondrer. Toute première frappe est donc suicidaire. Or c'est cette configuration que la mise au point des armes basées sur les nanotechnologies va profondément bouleverser. La possibilité d'une première frappe qui détruise entièrement l'ennemi sans se retourner contre soi devient concevable, en particulier parce qu'il est possible d'ajuster l'attaque "écophage" aux caractéristiques génétiques de l'ennemi. Par ailleurs, les matériaux nanotechnologiques devraient permettre de concevoir des boucliers enfin efficaces. Ces deux traits suffiraient à établir que la course aux armements de destruction massive basés sur les nanotechnologies sera sans limite .Ici aussi, l'étude devra soigneusement analyser et évaluer la pertinence de ces arguments.

4.3. Le troisième type de risques est l'exacte contrepartie des avantages considérables que l'on attend du développement des nanotechnologies. Ici aussi, le continent à explorer est immense, car il s'agit d'anticiper les bouleversements que ce développement entraînera sur l'organisation sociale, économique et politique. En forçant à peine le trait, ce qui est anticipé est la fin de la rareté, la fin du travail et la fin du commerce - donc la fin du libéralisme et du capitalisme, et, peut-être, celle de la démocratie. Fin de la rareté, dans la mesure où il ne sera plus nécessaire d'exploiter les ressources fossiles ou minières pour assurer l'approvisionnement en énergie et en matières premières; fin du travail, dans la mesure où la robotique et la nanorobotique nous dispenseront, nous humains, de dépenser notre énergie métabolique et, peut-être, mentale; fin du commerce dans la mesure où les régions, même actuellement les plus déshéritées, pourront devenir autarciques. Cette mutation, si elle doit avoir lieu, constituera un défi extraordinaire pour la préservation de la paix civile, la sauvegarde des idéaux démocratiques et le maintien de la paix mondiale (au-delà même, pour ce dernier, des éléments cités à la section précédente). Que feront les populations de leur temps libre? La polarité entre une élite technocratique maîtresse des technologies et des masses oisives et ignorantes ne conduira-t-elle pas à de nouvelles formes de totalitarisme? Sans commerce, l'idée d'un monde commun peut-elle survivre? Telles sont certaines des interrogations qui sont suscitées par la perspective d'un monde où les nanotechnologies prendraient une place prépondérante. Selon un mécanisme psychologique que l'on peut comprendre, l'énormité même des enjeux fait que l'on a du mal à prendre au sérieux la posture catastrophiste que certains analystes adoptent en la matière. C'est peut-être là un réflexe lui-même risqué, voire coupable. Car de deux choses l'une: ou bien les attentes qui justifient actuellement les efforts considérables faits dans ce domaine sont satisfaites, et nul ne peut nier que les bouleversements économiques, sociaux et politiques seront, par hypothèse, également considérables; ou bien le projet se révèle un échec gigantesque et il faudra se demander ce qui nous a conduits à le former. Ce qui paraît franchement irrationnel, en tout état de cause, c'est, comme le rapport de l'Académie des technologies, hélas, en donne l'exemple, de mettre en exergue l'"immensité" des avantages à espérer en faisant complètement l'impasse sur les défis et les dangers induits par de tels bouleversements. L'étude devra se prononcer fermement sur ce point.

4.4. Le quatrième type de risques concerne notre rapport à la connaissance. C'est, peut-on dire, un risque épistémologique.
A l'aube des temps modernes, Jean-Baptiste Vico formula dans les termes célèbres le postulat de la " nouvelle science ": "Verum et factum convertuntur" (Ce qui est vrai et ce que l'on fait sont convertibles). Nous ne pouvons connaître rationnellement que ce dont nous sommes la cause, que ce que nous avons fabriqué. A l'origine, le principe du verum factum s'entendit sur le mode du manque : nous ne pourrons jamais connaître la nature comme Dieu, car celui-ci l'a créée et nous ne pouvons que l'observer. Bientôt cependant, le principe acquit une valeur positive, plus en conformité avec l'affirmation croissante du subjectivisme moderne. Ce que l'homme fait, il peut le connaître rationnellement, de façon démonstrative et déductive, malgré la finitude de son entendement. Par ordre décroissant de perfection de la connaissance, les mathématiques, selon ce critère, étaient classées en premier, suivies cependant non par les sciences de la nature, mais par les sciences morales et politiques. " L'Histoire [était] la seule et unique sphère où l'homme pourrait obtenir la connaissance certaine puisqu'il n'y aurait affaire qu'aux produits de l'activité humaine" . Cependant , la science de la nature elle-même devait être dès les commencements orientée par la conviction qu'on ne peut connaître qu'en faisant, ou plutôt qu'en re-faisant. "Dès le début (...) le savant aborda la nature du point de vue de Celui qui l'a créée" . L'insistance sur le comment des processus plutôt que sur l'être des choses s'explique ainsi, mais aussi et surtout le rôle considérable dévolu à l'expérimentation et à la modélisation par la science. "Pour utiliser l'expérimentation afin de connaître, il fallait déjà être convaincu que l'on ne peut connaître que ce que l'on a fait, car cette conviction signifiait que l'on peut s'informer des choses que l'homme n'a point faites en se représentant et en imitant les processus qui les ont amenées à l'existence" .

Avec les nanotechnologies, cependant, le verum factum devrait trouver son aboutissement ultime. Ce n'est plus seulement en faisant des expériences sur elle, ce n'est plus seulement en la modélisant, que les hommes désormais connaîtront la nature. C'est en la re-faisant. Mais, du coup, ce n'est plus la nature qu'ils connaîtront, mais ce qu'ils auront fait. Ou plutôt, c'est l'idée même de nature qui apparaîtra comme dépassée. La distinction même entre connaître et faire perdra, avec les nanotechnologies, tout son sens, de même que celle qui distingue encore aujourd'hui le savant de l'ingénieur. Le pays de Descartes n'est certes pas encore prêt à accepter cette révolution épistémologique. En témoigne le fait que les textes français insistent encore, comme on l'a vu, sur la distinction entre nanosciences et nanotechnologies. Pour combien de temps ? Les textes américains n'ont pas cette pudeur, même si une certaine déférence s'y rencontre encore vis-à-vis des lois de la physique .


4.5. Intimement lié à ce risque épistémologique se trouve le risque éthique. Nous entendons par là le risque que cette redéfinition de la nature comme ce qui résulte du faire de l'homme fait courir à l'éthique.

En traitant la nature comme un artefact, l'homme se donne le pouvoir d'agir sur la nature à un degré qu'aucune technoscience jusqu'ici n'a jamais rêvé d'atteindre. Cette nature artificielle, l'homme peut espérer non seulement la manipuler à volonté, mais même la fabriquer selon ses désirs et ses fins. Les nanotechnologies ouvrent un continent immense que l'homme va devoir normer s'il veut leur donner sens et finalité. Il faudra alors que le sujet humain recoure à un surcroît de volonté et de conscience pour déterminer, non pas ce qu'il peut faire, mais bien ce qu'il doit faire. Il y faudra toute une éthique, infiniment plus exigeante que celle qui, aujourd'hui, se met lentement en place pour contenir le rythme et les dérives des biotechnologies. Qui dit "éthique", "conscience", "volonté" dit le triomphe du sujet. Mais que signifie ce triomphe dans une conception du monde qui traite la nature, y compris l'homme, comme une machine computationnelle ? Cet homme qui s'est ainsi fait machine, au nom de quoi ou de qui va-t-il exercer son immense pouvoir sur la nature et sur lui-même? Au nom du mécanisme aveugle auquel il s'identifie? Au nom d'un sens dont il prétend qu'il n'est qu'apparence ou phénomène? Sa volonté et ses choix ne peuvent qu'être suspendus dans le vide. L'élargissement sans limites du champ de l'éthique se traduit par la négation de l'éthique, de la même manière que la connaissance d'une nature devenue tout entière l'objet du faire humain se traduit par la négation, et de la nature, et de la connaissance .

4.6. Le sixième type de risques envisagés est le plus difficile à cerner, ce qui ne veut pas dire que c'est le moins préoccupant. Le succès attendu des nanotechnologies, mais aussi de l'intelligence artificielle, de la robotique, de la vie artificielle, des algorithmes génétiques et de la bio-informatique brouillera de plus en plus les frontières qui, séparant le monde de la nature et de la vie de celui des machines, le monde de l'esprit de celui des mécanismes, nous servent, aujourd'hui encore, à donner sens à la condition humaine. Comme on l'a déjà noté, la principale réponse apportée par les champions des nanotechnologies aux critiques qui conjecturent que ces dernières ne sont pas réalisables, est que la nature et la vie ont bien été capables, elles, de les faire venir à l'existence. Pourquoi l'esprit humain et l'intelligence sur-humaine qui en prendra le relais ne seraient-ils pas capables du même exploit ? Suit en général une description de l'évolution qui a conduit de l'origine de la vie à la complexité présente de la biosphère en des termes purement technologiques. Ainsi : " [Au départ], des algorithmes génétiques en nombre astronomique se déplaçaient en titubant à la surface de la terre et dans les profondeurs sous-marines […] Finalement, l'écologie tout entière du monde vivant sur la planète a accumulé, et représente aujourd'hui, sous forme comprimée et schématique, une quantité colossale d'information. " Si les nanotechnologies ambitionnent de prendre le relais de la nature et de la vie, ce n'est que parce qu'elles ont auparavant complètement redéfinies ces dernières en termes … nanotechnologiques.

Avec le biophysicien et philosophe Henri Atlan, on peut tout à la fois considérer que les métaphores mécanistes et informationnelles sur lesquelles se sont bâties tant les sciences cognitives que la biologie moléculaire sont scientifiquement et philosophiquement fausses et concéder qu'elles nous donnent une puissance d'agir et une maîtrise radicalement inédites sur le donné naturel et vivant . Si tel est le cas, les succès mêmes que remporteront ces nouvelles technologies rendront les représentations mécanistes et informationnelles de la nature et de la vie incontestables et nul ne pourra plus voir qu'elles sont illusoires. Il n'est pas exagéré de parler de risques métaphysiques.

4.7. Le dernier type de risques est en fait un "méta-risque": c'est la très grande difficulté, pour ne pas dire l'impossibilité, d'imaginer des procédures, des normes ou des règles qui permettraient de faire face aux six catégories de risques que l'on a énumérées. Ici aussi, la configuration inédite induite par les nanotechnologies est responsable de cet état de choses. La dynamique qui les porte à l'existence met en synergie deux puissances dont chacune, même seule, est irrésistible: la concurrence économique à l'échelle mondiale et la course aux armements. Sur la première, on peut redire au sujet des nanotechnologies ce qu'Yves Martin dit des mécanismes responsables du réchauffement climatique de la planète: "Si chacun de nous et chacune de nos entreprises sacrifie le long terme au court terme, c'est moins par une indifférence coupable à l'égard de nos petits-enfants que parce que nous y sommes poussés par la concurrence qui se joue dans le commerce mondial" De la seconde puissance, on a déjà parlé à la section 4.2. Ce qui est radicalement inédit, c'est la conjonction et la synergie entre les deux. Dans le cas du nucléaire, on a (avait?) la dynamique de la course aux armements, régulée cependant par la configuration de vulnérabilité mutuelle, mais on n'a pas la force des intérêts privés et commerciaux à laquelle on s'attend avec les nanotechnologies. Dans le cas des biotechnologies, on a certes la force des intérêts privés (brevetabilité du vivant, etc.), mais on n'a pas, du moins pas encore, une course aux armements. Cela pourra changer, mais ce seront précisément les nanotechnologies qui modifieront la donne.

Ce sera le défi principal de l'étude projetée que de proposer néanmoins des idées et des principes pour avancer dans la voie d'une régulation qu'on n'imagine pas à une autre échelle que mondiale, mais dans laquelle notre pays pourrait jouer un rôle d'exemple, peut-être décisif.