Les Editions Jean Paul Bayol
Contact
Publications
annexes

 

Pour un principe matérialiste fort

Compléments du livre
“L'Europe et le vide de puissance"

 

L'Europe et le vide de puissance

Essais sur le gouvernement de l'Europe au siècle des Super-États

Éditions Jean Paul Bayol – sortie mai 2008

 

Annexe 10.

La relance de la recherche scientifique en Europe

 

 

Nous avons dans cet essai proposé un certain nombre de grands programmes s’inscrivant dans les perspectives stratégiques de l’Europe pour les prochaines décennies. Tous ces programmes, s’ils étaient décidés, entraîneraient des conséquences importantes sur les capacités de la recherche/développement en Europe, aussi bien au niveau des Etats-membres qu’à celui de l’Union Européenne. Ils auraient d’abord des conséquences sur les allocations budgétaires ou crédits publics mis à la disposition de la recherche. Mais ils impliqueraient aussi les capacités de financement des entreprises. Ils se traduiraient enfin par un renforcement considérable des potentiels industriels européens et la définition de politiques industrielles ambitieuses. Mais il ne faut pas se faire d’illusion. A supposer que ces programmes soient un jour décidés par les Etats Européens membres de l’Union ou par les institutions de celle-ci, ils n’entreraient pas en application rapidement.

Or la situation désastreuse de la recherche européenne, que nous avons déjà évoquée, ne saurait attendre. Des remèdes immédiats s’imposent. Dans l’ordre des priorités, ils devraient venir bien avant la réforme des institutions européennes prévues par le Traité intermédiaire, même si le renforcement d’une autorité commune ne pouvait que faciliter leur prise en compte.

Que pourrait être une politique de relance et de développement de la recherche en Europe ?

Elle devrait satisfaire en priorité l’exigence de retrouver la parité avec les Etats-Unis dans les cinq ou dix années qui viennent, et définir le cheminement pour y arriver. Il s’agira d’aborder les questions budgétaires (que nous retrouverons ici, inévitablement), les problèmes d’organisation de la recherche et de ses liens avec la compétitivité des entreprises, les questions enfin de la formation et de la qualification des jeunes scientifiques et techniciens.

On objectera qu’il est politiquement difficile d’afficher l’objectif de retrouver la parité avec les Etats-Unis. On se souvient que Nikita Kroutchev avait fait rire le monde entier dans les années soixante quand il avait prétendu rattraper le niveau de vie des Etats-Unis en quelques années. Mais à l’époque, les Etats-Unis représentaient une sorte d’idéal pour le développement. Aujourd’hui, ils sont devenus des contre-exemples par leurs gaspillages, leur mépris des faibles et leur refus systématique de contracter des obligations de résultat, notamment en matière de protection de l’environnement et du climat.

De plus, l’Europe se trouve confrontée à une autre gageure, qui sera plus difficile encore que celle consistant à rattraper les Etats-Unis. Elle devra éviter de se faire rattraper par de nouvelles superpuissances comme la Chine et l’Inde. Celles-ci disposent d’une pépinière d’étudiants pratiquement inépuisable, d’un dynamisme économique sans faille et de la volonté politique affirmée de prendre la tête en tout. On peut penser cependant que l’Europe, aussi affaiblie soit-elle, conserve de bons atouts, mais encore faudrait-il qu’elle sache les exploiter et en ait le désir.

En simplifiant beaucoup, nous proposerons ici des méthodes d’organisation différentes de celles tant des Etats-Unis que de la Chine et de l’Inde, visant notamment à lutter contre les défauts structurels européens : dispersion, bureaucratie, nationalismes.

Respecter puis dépasser les objectifs dits de Lisbonne en matière de part du PNB consacrée à la recherche/développement

L’objectif en était, vers 2010, d’affecter 3 % des PNB à la recherche (1). Ces 3 % concernaient d’abord le budget européen de recherche développement, mais il était entendu que les Etats, dont les budgets de recherche sont largement supérieurs en valeur absolue et globalement, au total du budget européen, devaient faire de même. Or aujourd’hui, nous l’avons vu, le chiffre européen atteindra à peine 2,2 % en 2010. Dans les grands Etats, il ne sera guère meilleur.

Nous estimons que, pour frapper l’opinion, et quelles que soient les difficultés à résoudre pour atteindre cet objectif, l’Europe doit se fixer pour 2012/2015, comme les Etats-membres en ce qui les concerne, l’objectif de dépenser au moins 4 % des PNB en recherches et développements. Ce chiffre comprendrait les ressources publiques, à hauteur d’environ 60 %, complétées des financements privés. Il n’a rien d’extravagant, puisqu’il est celui, semble-t-il, de certains pays en pleine ascension technologique, par exemple le Japon. Il exigera des sacrifices sur de nombreux autres postes, mais c’est bien ce que nous voudrions voir décider.
On dira : « est-il réaliste de parler de 4 % du PNB alors que l’Europe atteint à peine les 2 % ? » Nous répondrons que c’est justement pour imposer aux procédures de financement de la recherche un saut qualitatif qu’il faut monter la barre beaucoup plus haut que le niveau accepté aujourd’hui par mollesse politique.

Fédéraliser une large partie des crédits de Recherche des Etats-membres

Nous voulons dire par là que l’Europe, en tant que superpuissance, devrait devenir capable, au plan institutionnel et constitutionnel, de prendre à son compte et de coordonner au moins 50 % des crédits de recherche des Etats et des grandes régions européennes. Il s’agirait d’un changement majeur puisque aujourd’hui le budget de recherche communautaire n’atteindra pas 10 % du budget de l’Union en 2010 (2). Le régime actuel dit de subsidiarité qui laisse l’initiative aux Etats en matière de recherche/développement, est généralement source de gaspillage et doubles emplois.
Mais il ne servirait à rien de transférer sous compétence communautaire des sommes aussi importantes si le mode d’emploi actuel de ces crédits n’était pas profondément modifié. Aujourd’hui, l’Union n’a pratiquement pas de compétences en matière de recherche fondamentale. Par ailleurs, les financements qu’elle accorde, notamment dans les programmes-cadres communautaires, ne permettent pas en général la réalisation de projets et produits précis. Dans le souci de favoriser la compétition entre pays et entreprises, ils se dispersent dans de nombreux contrats dont peu atteignent la taille critique. De plus, le libéralisme très ouvert aux influences extérieures qui inspire la Commission depuis quelques années prohibe l’hypothèse même que des politiques industrielles soient élaborées à partir de ces contrats, ou que ceux-ci soient réservés à des industriels européens. On a constaté de multiple fois le caractère néfaste de ce libéralisme. La Commission finance des recherches non protégées qui se retrouvent, sous forme d’innovations brevetées, dans des offres industrielles – provenant d’ailleurs généralement de concurrents des industriels européens.

Il est évident que la fédéralisation des budgets de recherche nationaux, envisagée ici, ne sera viable que si les Etats mettent en place, au niveau de Bruxelles, un exécutif commun autrement plus efficace et plus interventionniste que ne l’est l’actuelle Commission. Il faudra accroître les pouvoirs du Parlement, créer un Conseil des Chefs d’Etat et un véritable ministre européen de la recherche. Celui-ci devrait être doté de pouvoirs incitatifs forts, analogues à ceux du département de la défense américain. On ne peut pas envisager, en Europe, de mettre comme aux Etats-Unis la quasi-totalité des programmes de R/D sous le contrôle des militaires, mais il faudra trouver des solutions apportant globalement la même efficacité (3).

Une remarque complémentaire importante s’impose. Parler de recherche est trop restrictif. Les administrations européennes de la recherche sont actuellement focalisées sur la recherche scientifique, sinon universitaire. D’autres administrations, très diverses, relevant des ministères de l’industrie, de l’agriculture ou de l’environnement, interviennent. Le tout est timide, fermé sur de multiples divers prés carrés, soumis aux intérêts électoraux immédiats et par conséquent incapable de vues à long terme. C’est normal mais les enjeux pour l’Europe sont beaucoup plus larges. Il s’agit de définir des objectifs stratégiques globaux, intéressant les industries et la société, c’est-à-dire en fait, comme aux Etats-Unis, la Sécurité Nationale (européenne). D’où la nécessité de placer les organes décisionnaires au niveau des chefs d’Etat d’une part et du sommet le plus élevé des institutions européennes, d’autre part. La dimension de la communication avec le public européen ne sera pas sous-estimée.

Encourager la recherche fondamentale

Ceci ne veut pas dire que, dans le schéma proposé ici, l’Europe devrait se désintéresser de la recherche fondamentale. Au contraire. Le Conseil Européen de la Recherche, ERC (4), qui cherche péniblement ses marques actuellement, devrait avoir pour rôle de fixer des objectifs à long terme en matière de recherche fondamentale désintéressée. La configuration et les moyens de ce Conseil ont été précisés par plusieurs études dont notamment le rapport Mayor établi en 2003 sous la présidence danoise (5). Ces rapports sont à actualiser, car ils sont trop timides. Le Conseil devrait être l’autorité suprême en matière de définition des orientations de la recherche fondamentale européenne. Il devrait être composé uniquement de scientifiques reconnus et devrait disposer d’une large autonomie à l'égard tant des gouvernements que des institutions européennes (Commission, Parlement) . Le modèle de ce que fait aux Etats-Unis la National Science Foundation est souvent évoqué. Nous ne sommes pas aussi convaincus que certains de son indépendance vis-à-vis des pouvoirs et de la science dite « main stream ». Mais sans doute l’ambition d’une réelle indépendance de tels Conseils est une illusion. Il est utile de les mettre en concurrence avec des instances d’encouragment à la recherche fondamentale plus réparties, au plan des disciplines et des pays.

Ceci étant, on constate de plus en plus que recherche fondamentale, recherche appliquée, développement et industrialisation s’organisent dans des chaînes ininterrompues, au moins quand les projets sont bien choisis. Il ne devrait donc pas y avoir de monopole dans la responsabilité de proposer à l’Europe des objectifs scientifiques à long terme

Installer des Conseils scientifiques spécialisés

Ceux-ci, en relation avec les Académies, Comités et sociétés savantes existant dans les Etats-membres, devraient être dotés de certains pouvoirs décisionnaires et être largement représentatifs. On pensera aux exemples américains. Les Conseils y sont nombreux et variés, avec il est vrai, dans la tradition anglo-saxonne, une forte présence de fondations qui ne sont peut être pas à encourager en Europe car dans l’état actuel des rapports de force, elles permettraient aux intérêts politiques, financiers ou religieux non européens de renforcer leur présence.

Les scientifiques européens souhaitent également donner plus d’importance au Forum européen stratégique des infrastructures scientifiques (ESFRI) qui doit définir les grands équipements nécessaires à l’indépendance de la science et de la technologie européenne. Une réflexion menée dans ce cadre aurait par exemple pu éviter les dissensions entre Européens et les années perdues au sujet de Galiléo et de Iter.

Doter l’Europe des grands équipements scientifiques indispensables à son indépendance

La science d’aujourd'hui est très largement le produit du travail interdisciplinaire d'équipes multinationales travaillant sur de grands équipements. Ces équipes doivent être interconnectées au plan mondial grâce à des réseaux modernes d'échange. Mais l'autonomie scientifique ne peut être garantie si on dépend des ressources que les concurrents accepteront de dégager sur leurs propres équipements. Ceux-ci donneront toujours la priorité à leurs propres équipes. Un effort européen spécifique est indispensable.

A première vue, mais ceci devra être discuté avec les scientifiques, notamment au sein du Forum européen stratégique des infrastructures scientifiques (ESFRI) précité, les priorités d'équipement devraient intéresser, à égalité, les grands domaines suivants :

La fusion nucléaire

Il convient de ne pas limiter les ambitions européennes à la mise en place d’un premier réacteur expérimental. L’Europe doit absolument accompagner la montée en puissance progressive du programme international Iter. Comme on le sait, suite à un sursaut inattendu des Européens, provoqué en grande partie par la France, il a été décidé en 2005 d’implanter conjointement à Cadarache un futur réacteur expérimental et au Japon des facilités destinées à tester la résistance des matériaux aux neutrons et les logiciels de gestion des plasmas. Mais comme il s’agit de points essentiels, non seulement à la réalisation de réacteurs opérationnels mais aussi à celle des centrales à fission dites de 4e génération, l’Europe doit aussi se doter de tels équipements. Ils seront également associés au retraitement des déchets. Nous reviendrons sur ces points dans l’annexe consacrée à la politique énergétique européenne

Les accélérateurs

L’Europe devra veiller à renforcer les ressources en accélérateurs synchrotrons actuellement disponibles ou en construction, qui paraissent déjà très inférieures en capacité aux besoins potentiels.
Dans le domaine des collisionneurs, elle veillera à maintenir son rôle éminent dans les travaux et équipements d’accompagnement qui suivront la mise en service vers 2008/2010 du Grand collisionneur à protons (LHC) du Cern, puis le développement ultérieurs de tels équipements, dont la contribution, non seulement à la connaissance de l'univers mais à la solution de problèmes physiques plus immédiats est fondamentale.

Les physiciens préparent par ailleurs la réalisation de grands collisionneurs linéaires de particules. Il s’agira notamment du GLC, Global Liner Collier. Cet accélérateur permettra, s’il est décidé, de voir ce qui s'est produit quelques instants après le Big-Bang. Contrairement à ses prédécesseurs qui étaient circulaires il sera construit en ligne droite. Il permettra d'explorer de nouvelles plages d'énergie où les physiciens des particules espèrent mettre en évidence des particules jusqu'à présent inconnues et en déduire de nouvelles théories décrivant le fonctionnement des particules les plus petites de notre univers. Cependant il reste de nombreux défis technologiques à relever avant de pouvoir commencer la construction du GLC. Les physiciens des particules espèrent pouvoir analyser les premières données produites par le GLC aux environs de l'année 2015. L’Europe, en bonne logique, ayant déjà le LHC, ne pourra pas espérer voir construire chez elle ce GLC, mais elle devra se doter des équipements d’accompagnement en réseaux lui permettant de jouer toute sa part dans les recherches.

Les observatoires célestes

On ignore généralement que l’Europe est la première puissance scientifique, derrière les Etats-Unis et souvent à égalité avec eux, dans l’exploration du ciel. Pour les télescopes en orbite, elle travaille en partenaire dépendant de la Nasa dans l’exploitation du télescope Hubble. Elle a par ailleurs ses propres programmes et envisage un successeur à Hubble en propre dans quelques années. Mais la compétence de l’Europe se marque aujourd’hui principalement dans le domaine des grands observatoires terrestres, que ce soit sous la responsabilité de l’Européen Southen Observatory (ESO) ou plus généralement de divers observatoires européens. Après les télescopes couplés utilisant l’interférométrie optique, comme le Very Large Télescope européen implanté au Chili, on envisage maintenant les hyper télescopes regroupant des centaines ou milliers de miroirs très espacés par rapport à leur diamètre. D’ores et déjà l’ESO a programmé à échéance relativement proche un successeur au VLT. Il s’agira du projet E.ELT de 43m de diamètre, pouvant entrer en service vers 2018. De tels télescopes devaient permettre de voir de la Terre des planètes de type terrestre situées dans des systèmes solaires proches (10 millions d’années lumière), avec une résolution permettant de distinguer d’éventuels océans ou taches de végétation. On imagine les bouleversements scientifiques et philosophiques en résultant. Ultérieurement, un OWL de 100m de diamètre pourrait voir le jour vers 2050.

L’astronomie européenne entraîne dans ce sillage d’excellence de nombreuse entreprises de hautes technologies travaillant dans les diverses gammes d’observation : optiques ou électromagnétiques. Les observatoires terrestres ne sont pas remplaçables par les observatoires satellitaires, contrairement à ce que l’on croit souvent. Ils sont complémentaires. A eux tous, ils offrent la possibilité, non seulement d’observer l’univers profond, mais de faire vérifier instrumentalement les hypothèses les plus avancées intéressant l’histoire et le devenir du cosmos. Il s’agit d’un point essentiel aux progrès de la physique fondamentale ainsi qu’à ceux de nombreuses applications. L’Europe doit continuer à être un leader dans ces domaines.

Equipements d’imagerie et de calcul intéressant la biologie

L’Europe, si elle ne veut pas décrocher dans le domaine des biotechnologies et des sciences du vivant évoquées dans la section précédente, devra se doter d’un réseau d'équipements permettant de caractériser et de visualiser par imagerie les machines moléculaires opérant dans les cellules, à partir des résultats fournis par les biotechnologies. Ultérieurement l'analyse des protéomes entiers (résultant de l'activité des gènes) permettra de comprendre la façon dont les bactéries s'adaptent au changement grâce à des mobilisations à la demande de leur potentiel protéomique.

De même, elle devra pouvoir compter sur un réseau d'équipements permettant l'identification, la production et le marquage des protéines, indispensables pour le développement des bio-technologies. On se situe là en amont des cellules mentionnées ci-dessus. L'objectif sera de produire en masse des dizaines de milliers de protéines par an, définir des étiquettes permettant de les identifier et mettre les résultats de ces travaux à la disposition de l'ensemble des chercheurs européens.

Un ou plusieurs simulateurs de la Terre

Nous avons indiqué que l’Europe se devait de jouer un rôle pilote dans les sciences et politiques de l’environnement. Pour cela, les laboratoires s’en occupant ne pourront pas continuer à mendier des ressources de calcul à divers pays mieux équipés. La mise en place d'un Simulateur de la Terre sur le modèle japonais s’impose. Il s'agira d'un super-ordinateur ou plutôt de réseaux ou clusters de super-ordinateurs et d’ordinateurs du commerce, organisés en grids. Ce simulateur permettra de tirer parti de toutes les observations de l'environnement où l'Europe détient une expertise non négligeable. Un tel simulateur est indispensable pour la définition de politiques de développement durable et de conservation.

Les grands calculateurs (le calcul de haute performance)

Les Etats qui domineront le développement des sciences et des technologies dans la prochaine décennie devront disposer de supercalculateurs dits de haute performance ou “petascale”. Ce sera le cas des Etats-Unis mais probablement pas de l'Europe.

Le public s'imagine volontiers que les calculateurs de cette puissance n'ont plus grande utilité, puisqu'il est théoriquement possible de mettre en réseau des milliers de micro-ordinateurs permettant d'aligner des capacités apparemment équivalentes. Mais il existe de grandes différences entre les performances de tels réseaux, à qui font défaut des connexions efficaces et un système d'exploitation centralisé performant. Les supercalculateurs restent donc indispensables à tout Etat ou groupe d'Etats désirant réaliser rapidement et à moindre coût des calculs indispensables à sa sécurité comme au développement des sciences dont il a besoin tant dans la concurrence internationale que dans la coopération.

L'Europe s'en est aperçu, un peu tardivement (6). Elle dépend cruellement de matériels qu'elle ne produit pas ou n'assemble pas (sauf marginalement, en ce qui concerne la France, où le CEA s'équipe actuellement d'un supercalculateur Bull principalement dédié à la défense). C'est comme l'on devine aux Etats-Unis et au Japon que se trouvent les industriels et les grands centres de calcul capables de fournir les prestations attendues tant par les scientifiques que par les militaires. Aux Etats-Unis, on se prépare maintenant la nouvelle génération de machines, dont l'augmentation considérable de puissance va faire faire un bond en avant considérable aux recherches scientifiques.

Aujourd'hui, le calculateur le plus puissant du monde est l'IBM BlueGene/L installé au Lawrence Livermore National Laboratory qui dépend du département de l'Energie des Etats-Unis. Il réalise en pointe 596 trillions d'opérations par seconde. Les nouvelles machines, de l'ordre du pétaflops (7) équivaudront à la puissance installée de 100.000 PC. Selon les experts, un calcul qui demanderait 80 ans pour l'un de ces PC pourrait être réalisé en 5h sur un calculateur de la taille du Blue Gene/L et en moins de 2h sur une machine de la taille supérieure.
NB. Fin 2007, la décision a été prise d’installer un calculateur de grande taille au CNRS. Il est regrettable que cette machine ait été commandée à IBM alors que Bull pouvait offrir un matériel de performance voisine, comme le montre l’équipement fourni par cette société au CEA- Directions des applications militaires.

La réalisation de ces monstres oblige à faire face à de nombreux défis, dont le moindre n'est pas la consommation électrique et la dissipation de chaleur. Le successeur de Blue Gene/L déjà baptisé du nom de “Roadrunner” sera développé par IBM en partenariat avec le Laboratoire national de Los Alamos dépendant lui aussi du département de l'Energie. Il consommera 4 megawatts de puissance électrique. Mais il permettra aussi d'éclairer, si l'on peut dire, des questions scientifiques demeurées encore obscures et aussi diverses que le changement climatique, les évolutions géologiques, les nouvelles molécules thérapeutiques et la matière noire.

La véritable difficulté, cependant, n'est pas directement liée à l'environnement de la machine ni même à la rapidité des composants électroniques qu'elle utilise. Elle se trouve, comme l'on sait, dans l'aptitude des logiciels et des architectures programmatiques permettant de faire travailler ensemble des centaines de milliers de sous-ensembles multiples en les regroupant au mieux des problèmes complexes à résoudre. L'ingénierie logicielle apporte beaucoup de solutions standard mais ne peut remplacer entièrement le flair des programmeurs et ingénieurs systèmes travaillant en liaison avec ceux qui leur posent les « bonnes questions ».

L’intérêt des nouveaux calculateurs consiste à faire tourner des modèles numériques ou analogiques simulant des phénomènes de la nature inobservables directement, faute de temps, d'argent ou d'instruments adéquats. Le processus traditionnel de la recherche scientifique, supposant un échelonnement dans le temps de la théorie à l'hypothèse puis à l'expérimentation se trouve modifié. Plus exactement, l'expérimentation n'a plus besoin d'être conduite en vraie grandeur. Elle peut être remplacée par une simulation.

Les récentes prédictions scientifiques concernant le changement climatique qui ont servi d'argument pour la mise en place du protocole de Kyoto et de ses suites n'ont été rendues possibles que parce que la puissance de calcul affectée à leur production a été multipliée plus de 10.000 fois en quelques années. Alors que pendant longtemps les données satellitaires climatologiques et géophysiques ne pouvaient pas être traitées en temps utile par les laboratoires terrestres, aujourd'hui l'inverse se produit. Les satellites ayant vieilli ne fournissent plus assez de données ni assez rapidement pour répondre à la soif d'informations des modèles computationnels.

A l'opposé, les flots de données qui seront produites par le futur accélérateur LHC du CERN pourront en principe être traitées en temps réel, ce qui serait impossible actuellement. Encore faudrait-il que les scientifiques y travaillant puissent accéder à des calculateurs assez puissants, ce qui n'est pas garanti compte tenu du peu d'enthousiasme manifesté par les Etats-Unis pour fournir du temps de calcul dans des conditions satisfaisantes.

Dans le domaine tout différent de l'armement nucléaire, on sait depuis longtemps que les essais simulés ont rendu inutiles les tests en vraie grandeur. A cet égard, il n'était pas question pour la France de dépendre de la bonne volonté américaine. D'où l'acquisition du calculateur Bull de la direction des applications militaires du CEA précité (lequel offre aussi du temps à des équipes civiles).

La question de la disponibilité en puissance de calcul se posera également déjà dans la perspective du traitement des myriades de données qui seront nécessaires à la simulation des phénomènes se déroulant dans le cœur du futur réacteur à fusion ITER de Cadarache ou de ses enceintes. Il serait prudent de prévoir dès maintenant les ressources nécessaires.

Un autre domaine qui pourra se révéler encore plus vital, concernera la préparation d'un vaccin contre la grippe aviaire « hominisée » dès que celle-ci se déclarera (éventualité considérée comme inévitable). Les ressources d'un supercalculateur permettront de gagner de précieuses semaines dans l'analyse du virus et la mise au point de réponses adaptées.

Terminons cette présentation par un regard sur la prochaine décennie. On ne doit pas croire que la limite du pétaflops tiendra longtemps. D'ores et déjà les ingénieurs étudient une machine mille fois plus puissante, capable d'un million de trilliards d'opération par seconde. Elle est prévue vers 2018. Il n'est pas risqué de parier qu'elle sera américaine. L'Europe n'en verra malheureusement sans doute pas la couleur....A moins que par miracle le programme PACE cité ci-dessus prenne rapidement un grand développement.

 

Créer autant d’Agences Européennes que nécessaire

Ces Agences se verraient confier la plus grande partie de la gestion opérationnelle des projets et des budgets, hors recherche fondamentale universitaire. Elles auraient aussi la capacité d’exprimer pour leur compte des besoins et proposer des objectifs. De telles Agences sont soumises à la tutelle des ministres des Etats ayant accepté d’en être membres, mais elles doivent disposer d’une autonomie indispensable. Les exemples déjà anciens de l’Agence spatiale européenne ESA, du Centre européen de recherche nucléaire CERN ou de l’European Southern Observatory ESO montrent que de telles structures, qui peuvent faire peur à des gestionnaires orthodoxes des crédits publics par d’éventuels risques de non transparence, militent au contraire pour la généralisation de telles solutions. Avec bien moins d’argent et d’effectifs, l’ESA s’est révélée au moins aussi efficace que la NASA, réputée grande gaspilleuse. Même Eurocontrol, dans le domaine difficile du contrôle de l’espace aérien européen, bien que critiquée, n’offre pas un contre-exemple.

Les Agences doivent pouvoir assurer en général la maîtrise d’ouvrage, c’est-à-dire la direction continue, des projets dont elles ont la charge. Dans beaucoup de cas, elles devront aussi avoir de véritables compétences en matière de suivi industriel. Ce devrait être le cas, notamment, de l’Agence Européenne de l’Armement, en cours de mise en place, dont les compétences pour protéger les industries européennes de l’armement des convoitises extérieures et pour impulser de nouvelles recherches et développements technologiques seront décisives.

La solution consistant à créer des Agences est pratiquement la seule possible, puisque l’on ne pourra pas dans l’immédiat créer au niveau de l’exécutif européen de véritables structures ministérielles analogues par exemple à celles du département de l’énergie aux Etats-Unis. Même si de tels ministères européens étaient décidés, ils auraient intérêt à s’appuyer sur des agences opérationnelles. Certes, ces agences tendront tout naturellement à s’enfermer dans leurs spécificités au lieu de privilégier les programmes transdisciplinaires. Mais on pourra éviter cela en juxtaposant des Agences à compétences sectorielles définies assez largement (Environnement, Energie, Biotechnologies, Nanotechnologies, Calcul haute performances, etc. ) et des Agences de développement généralistes sur le modèle des deux agences françaises récemment crées, dont l’efficacité reste à juger, l’Agence Nationale pour la Recherche et l’Agence pour l’innovation industrielle (8). De telles Agences, transposées au niveau européen, auraient un rôle très important en matière de politique industrielle. On n’oubliera pas, dans un domaine plus spécialisé mais indispensables, une Agence capable de coordonner l’intelligence économique.

Créer des plates-formes technologiques

La création de nouvelles Agences n’exclurait pas, mais au contraire renouvellerait la nécessité de mettre en place les projets et réseaux intégrés qui permettront aux financements nationaux d’entrer en symbiose plutôt que s’ignorer. Parmi ces projets et réseaux, il faudra réaliser avec les industriels européens et les universités ou organismes de recherche publique des plates-formes technologiques de développement sur le modèle de ce qui a été fait pour l’aéronautique et la microélectronique, couvrant l’essentiel des filières émergentes. On parle dorénavant en France de pôles de compétitivité. Ces pôles n’auront d’intérêt que si les conditions précédentes destinées à la relance de la recherche européenne sont remplies. Sinon ce seront de simples lieux de rencontre autour de notables locaux ou bien des portes ouvertes au pillage des compétences.

L’exemple des bégaiements du pôle de compétitivité Minatec/Crolles 2 destiné à encourager les investissements d’entreprises de pointe dans le secteur essentiel des nanotechnologies montre ce qu’il ne faut pas faire. Le cas mérite quelques lignes ici.

Eric Drexler, le père américain des nanotechnologies, vient de publier (décembre 2007) sur son site personnel une ambitieuse “feuille de route” (le mot est à la mode) pour la réalisation à grande échelle de nanosystèmes destinés à opérer dans tous les domaines de la production. C'est la “Technology Roadmap for Productive Nanosystems” (9). L’objectif poursuivi vise à explorer la façon dont les techniques courantes de laboratoires peuvent être utilisées pour construire pas à pas des produits et fonctions de plus en plus sophistiqués.

L’étude a été conduite par le Battelle Memorial Institute, une organisation non-profit rassemblant un ensemble de grands laboratoires américains, dont Pacific Northwest, Oak Ridge et Brookhaven. Elle a rassemblé 70 experts, scientifiques et ingénieurs, provenant de l’université, de l’industrie et des laboratoires nationaux. Une série de groupes de travail avait été lancée en 2005, dont est issu le rapport final de 400 pages. Ce rapport présente un l’état de l’art de la nano-ingénierie et formule des propositions intéressant aussi bien des réalisations à court terme que des projets de recherche à long terme.

Eric Drexler estime que le rapport arrive à point nommé. Le Conseil National de la Recherche (U.S. National Research Council) avait validé les orientations qu’il avait proposées dans sa propre étude ( Nanosystems: Molecular Machinery, Manufacturing, and Computation) laquelle se terminait par un appel à des recherches expérimentales concernant l’ingénierie moléculaire. A la suite de quoi la Darpa (Pentagone) avait lancé un appel à propositions pour la réalisation de nanoobjets précis à l’atome près. Le gouvernement britannique, de son côté, avait offert des crédits de recherche à des équipes capable de fabriquer des matériaux molécule par molécule.

En dehors des perspectives et directions qu’elle propose, la Feuille de route recommande des techniques permettant d’évaluer les projets les plus aptes à faire émerger le domaine encore trop expérimental de la nano-ingénierie atomique. Une des directions les plus prometteuses sera la possibilité d’intégrer divers approches dans des systèmes fonctionnels exploitant les découvertes récentes en matière de structures génétiques (DNA) auto-organisatrices à l’échelle de l’atome. On voit l’intérêt pour l’avenir de telles recherches. Eric Drexler se dit persuadé qu’en dehors des applications qui seront données à ces propositions aux Etats-Unis, les pays asiatiques à la recherche de perspectives à long terme ne manqueront pas de s’y intéresser.

Pour ce qui concerne l’Europe et la France en particulier, des crédits publics de recherche existent. Mais comme toujours en pareil cas, les industriels susceptibles d’utiliser ces crédits localement (sans se délocaliser) ne se présentent pas ou ne parviennent pas à s’entendre. C’est ainsi qu’au sein du pôle Minatec, le site de Crolles2 inauguré par Jacques Chirac en mars 2003 et présenté comme un «accord historique » entre Freescale (Motorola), Philips et STMicroelectronics pour la fabrication de composants électroniques avancés a vu les fondateurs se dissocier progressivement. Il ne doit sa survie temporaire qu’à la participation de fonds d’investissement américains dont le principal objectif est le pillage technologique (10). Ce sort menace nombre d’autres pôles technologiques. Rien n’y interdit la participation de partenaires « bidons » venus uniquement, soit pour acquérir des entreprises intéressantes en se les appropriant, soit simplement pour drainer des hommes et de bonnes idées, avant de se retirer.

Créer dans les domaines stratégiques des Conseils des Chefs d’Etat et de gouvernement spécialisés

Dans des domaines spécifiques à haute portée stratégique, comme le scientifique militaire et le spatial, l’existence d’Agences (l’ESA et l’Agence européenne de l’armement en cours de mise en place), ne rendra pas inutile la création de Conseils de Chefs d’Etats ou de conseils des ministres spécialisés. Ils travailleront dans le cadre de l’exécutif européen élargi, devront être capables de prendre rapidement les décisions importantes s’ajoutant à celles des Conseils des ministres en charge de la recherche, auxquels nous avons fait allusion.

Revoir les modalités d’appels d’offre et d’attribution de contrats

Dans la plupart des secteurs, il faudra revoir les procédures d’appels à proposition et d’attribution de contrats qui sont celles depuis 30 ans des Programmes cadres de recherche dits pré-compétitifs. Ceux-ci sont d’une lourdeur et souvent d’un manque de transparence devenus insupportables. La plupart des appels d’offre devront se faire sous la responsabilité des Agences susvisées. De plus, il faudra dans les domaines sensibles, revoir à l’exemple de ce que font systématiquement les administrations fédérales américaines, les modalités de choix des attributaires. Celles-ci, actuellement, ne permettent aucune politique préférentielle suivie (ou préférence communautaire) au profit des acteurs européens ou implantés durablement en Europe. Lorsque les gouvernements interviennent, c’est pour faire favoriser, souvent à la limite de toute efficacité, leurs propres entreprises (11). La mise en place, qui va sans doute se généraliser, de pôles de compétitivité s’étendant en réseau à plusieurs Etats européens, permettra de mieux connaître à qui l’on s’adressera et de favoriser les laboratoires et acteurs économiques ayant fait montre de résultats et de continuité. L’exemple du programme non communautaire Eureka, qui favorise les regroupements ou clusters, sera sans doute à étudier. Mais il faudra certainement aller plus loin. Nous ne nous prononcerons pas ici sur le détail des mesures à prendre, car le sujet est complexe.

Moderniser la prise en compte des ressources humaines

Nous avons déjà évoqué la question de la modernisation des méthodes de formation, sélection et gestion professionnelle des chercheurs et ingénieurs, qu’ils appartiennent au secteur public ou au secteur privé. Il faudra aussi faciliter notamment par des bourses la mobilité interne des chercheurs. On complètera ceci, comme c’était le cas en Amérique avant les restrictions dues à la lutte anti-terroriste, de mesures encourageant l’invitation durable de chercheurs provenant du reste du monde. Ce thème est indispensable à traiter, si l’on veut que l’Europe atteigne au niveau d’excellence des Etats-Unis. Mais il exigerait un ouvrage tout entier. Nous ne le ferons donc pas ici..

Nous pensons que, pour résoudre ces problèmes et créer une véritable Europe des cerveaux, sans vider les pays du tiers monde de leur matière grise, il ne faudra pas se limiter aux échanges de personnes physiques. Il faudra faire appel beaucoup plus systématiquement qu’actuellement aux méthodes de formation et de travail à distance, grâce à des réseaux à haut débit que l’Europe pourrait parfaitement mettre en place en son sein et vers les pays alliés, notamment en Afrique et Amérique Latine.

Moderniser les instruments monétaires et financiers

Parmi les instruments de la souveraineté, il ne faut pas oublier de mentionner les multiples aides que reçoivent les acteurs économiques américains de la part de la Réserve Fédérale, qui ajuste en permanence les taux de change aux besoins des opérateurs à l’international. De même, l’extrême richesse des dispositifs permettant aux entreprises d’obtenir toutes les sortes de crédit dont elles ont besoin, depuis les Business Angels et les Capital Risqueurs jusqu’aux crédits à long terme permettant l’investissement durable. D’une façon différente, les entreprises publiques ou privées dépendant d’Etats ne se préoccupant pas de libéralisme, telle la Chine ou dans une moindre mesure l’Inde, se retrouvent face à leurs concurrentes européennes dans une situation injustement favorable, car elles sont soutenues politiquement de multiples façons.

Comme l’Europe a récusé le capitalisme d’Etat et s’est enfermé dans les contraintes dites de Maëstricht qui empêchent de financer des prêts à long terme susceptibles d’accroître la dette publique, les possibilités d’emprunt/recherche des entreprises européennes sont très limitées. Par ailleurs, le temps industriel est de moins en moins celui de la finance, qui exige des retours de 15 à 20 % en quelques mois.

Il existe pourtant des outils permettant à l’Europe de faire de l'ingénierie financière, en attendant la création d’institutions spécialisées convenablement dotées (12). L'Europe doit d'abord mieux utiliser les instruments dont elle dispose, grâce notamment à la monnaie unique. Il faudrait créer un marché unique des marchés financiers, assurer une véritable interbancarité sans frais, inventer des produits financiers standard, se doter de banques européennes véritables, associées avec l'assurance. Si cela n'est pas fait, ce seront les acteurs financiers américains qui ont commencé à s'installer en Europe et qui profiteront de l'Union élargie.

Un 2e axe consistera à faire appel à des formes originales d'épargne européenne garantie, sur le modèle du livret d'épargne français, pour financer les grands travaux structurants que la Banque européenne d'investissement ne peut ou ne veut prendre en charge.

Un 3e axe pourrait viser à financer les entreprises innovantes par la titrisation (13).

Enfin, en matière de monnaie, certains experts voudraient offrir l'euro aux nouveaux entrants dans l'Union, sans exiger d'eux le respect des conditions dites de Maëstricht. Cela créerait une dynamique favorable à la zone euro dans son ensemble et permettrait plus facilement d'imposer l'euro comme monnaie de facturation internationale.

Une intelligence économique européenne

On n’oubliera pas la question de la mise en commun des informations concernant l’intelligence économique, c’est-à-dire, pour parler simplement, la lutte contre l’espionnage économique et surtout le pillage des entreprises européennes à fort potentiel. On sait qu’aux Etats-Unis et même en Chine existent de nombreux fonds de financement dépendant directement des services de renseignement et de Sécurité Nationale. Le laxisme européen leur permet de faire tranquillement, selon l’expression, leur marché parmi les start up ou les spin up (nombreuses en Europe) disposant des compétences qui les intéressent. Il existe désormais un fort impératif de protection des entreprises avec lesquelles les Etats européens travaillent. Il faut surveiller voire empêcher les prises de contrôles, créer des fonds de capital-risque pour les entreprises sensibles, rapprocher les services d'intelligence économique, sur le modèle de ce qui va peut-être se faire au plan franco-allemand…Mais seul le niveau européen est pertinent – ce qui n’empêchera pas chaque pays le souhaitant de recueillir lui-même ses propres observations et se comporter ainsi de façon pro-active au sein d el’ensemble européen.

Autres mesures intéressant la recherche proprement dite

Entre autres mesures, citons la nécessité :

– de créer un grand pôle de publication scientifique européen pour faire face à l’écrasante domination de la publication anglo-saxonne, fut-elle en Open source comme la Public Library of Sciences

– d’organiser des programmes de sensibilisation des opinions publiques et des lieux où discuter les divergences d'appréciation.

– de rendre plus efficace le fonctionnement de l’Office européen des Brevets.


1/ voir http://europa.eu.int/comm/dgs/enterprise/pdf/concretiser_lobjectif_de_lisbonne.pdf

2/ La question est généralement mal comprise. A l’intérieur d’un budget communautaire que les Etats ont décidé en 2006 de ne pas augmenter, on distingue la part qui va à la recherche et celles qui vont à d’autres actions telles que la politique agricole commune ou les fonds structuraux. Cette part n’augmentera pas si on décide de ne rien changer à ces montants, ni en valeur absolue ni en pourcentage. Ceci signifie que la recherche sera « sacrifiée » par rapport à la PAC ou à la cohésion. Une telle perspective ne nous parait pas acceptable.
Mais il existe une autre possibilité que nous envisageons ici et qui nous parait préférable : celle de transférer sous maîtrise de l’Union européenne, dans le cadre d’une fédéralisation de la recherche, une part substantielle du budget des Etats-membres. A ce moment le budget communautaire de la recherche grossirait considérablement et celui des Etats diminuerait d’autant. Ce ne serait acceptable, notamment pour la France, que si l’Europe faisait un meilleur usage des crédits nationaux que n’en font les Etats-membres (chez nous, notamment, les grands Instituts, CNRS et Inserm ou les universités).

3/Dans le cas particulier de la recherché en matière d’énergie, nous proposons (Annexe 2 ci-desous) un mécanisme spécifique de cette nature. Ce mécanisme pourrait d’ailleurs constituer un des volets du mécanisme plus général envisagé ici.

4/European Research Council, http://erc.europa.eu/index_en.cfm

5/voir http://www.ercexpertgroup.org/documents/ercexpertgroup_final_report.pdf

6/Signalons la mise en place du programme européen PACE ou PRACE (Partnership for Advanced Computing in Europe) rassemblant 15 Etats et visant à réaliser un réseau de super-calculateurs atteignant des vitesses de calcul se situant du teraflops jusqu'au petaflops. Mais le programme commence à peine et sera vite limité faute de crédits. Par ailleurs, il reposera essentiellement sur des calculateurs on européens, avec les possibilités d’espionnage économique en découlant.

7/Gigaflops = 1 milliard 1×10 9 flops ; teraflops = 1 trilliard ou 1×10 12 flops ; petaflops = 1 quadrilliard ou 1×10 15 flops, le flops désignant 1 opération élémentaire en virgule flottante réalisée par seconde.

8/L’AII est en cours de suppression (novembre 2007) au profit d’OSEO, OSEO innovation et OSEO financement. OSEO soutient la création de PMI innovantes et provient du rapprochement de l’Anvar et de la BPME.

9/ La feuille de route http://e-drexler.com/p/07/00/1204TechnologyRoadmap.html

10/Sur Crolles2, lire l’appel, totalement objectif, du collectif « Sauvons la Recherche » http://www.sauvonslarecherche.fr/IMG/doc/ComPresseCROLLE2.doc

11/C’est pour des rivalités nationales de ce type, entre France, Allemagne, Italie et Espagne, que le programme stratégique Galileo a pris 5 ans de retard.

12/Nous n’osons pas affirmer que celles-ci devraient être conçues sur le modèle de l’actuelle BERD (Banque européenne pour la reconstruction et le développement) http://www.ebrd.com/fr/index.htm

13/Titrisation : ensemble des opérations par lesquelles une société convertit des prêts en titres négociables