Categories
Actualité

Pour en finir avec les disciplines ?


Savoir se fondre entre deux disciplines
Les systèmes complexes gomment les frontières entre domaines de recherche.

Binôme. Commençons par une évidence : les recherches en sciences complexes allient généralement plusieurs disciplines : « l’une formelle apporte des connaissances en modélisation, comme les maths ou l’informatique, l’autre appliquée, typiquement un domaine qui résistait à modélisation, comme la biologie, la santé ou l’urbanisme », détaille Pablo Jensen, physicien de formation, aujourd’hui sociologue de cœur.

Universel. Mais entre un physicien et un économiste, la communication peut s’avérer difficile. Paul Valcke navigue entre les deux au sein de l’Environmental Justice Program : « Un même mot peut vouloir dire des choses différentes. Faire la traduction est un vrai boulot. » Le langage mathématique devient alors un moyen de communiquer.

Réinventer l’eau tiède. « La physique apporte le quantitatif et les liens causals, mais les résultats ont-ils bien du sens en économie ? » En effet, les chercheurs de sciences dites “dures” sont parfois tentés de (re)créer des modèles sans prendre connaissance de l’existant dans la discipline. Une application sans recul des outils de physique qui n’est souvent ni efficace, ni respectueuse des sciences humaines (voir notre interview).

Tournure politique. Elle peut même être parfois fausse. Par exemple, le modèle de Thomas Schelling prédit une ségrégation totale entre Blancs et Noirs de l’autre… bien que chaque individu veuille plus de mixité. « A trop avoir confiance dans le modèle, on en conclut qu’il n’y a rien à faire, que le résultat est une fatalité », alerte Pablo Jensen.

La richesse du quali. Pour Pablo Jensen, il s’agit « d’un impérialisme des sciences de la matière qui s’attaquent aux sciences sociales. » Et pour s’en rendre compte, il faut se pencher au cœur de la sociologie, avec des sociologues : « au final leurs descriptions sont souvent plus riches et plus pertinentes que les modèles ».

Outils indispensables. Faut-il alors s’abstenir de modéliser ? Non, car même s’ils sont réducteurs, les modèles « mettent à l’épreuve notre manière de pensée et permettent de nous améliorer », nuance Pablo Jensen. En économie, le modèle développé par The Limits to Growth (relire notre numéro sur la croissance) a apporté un tout nouvel éclairage.

Animorphs. Reste alors à devenir un scientifique hybride, comme en témoigne Paul Valcke : « En sciences complexes, on a une connaissance approximative de tout. Dans l’idéal, il faudrait qu’on ne soit plus du tout spécialisé ni monodisciplinaire. Le champ des systèmes complexes peut d’ailleurs être vu comme une réponse à la surspécialisation de la recherche. Mais le chercheur reste en règle générale une bête spécialisée ! »
Les temples de la complexité 

Les instituts des systèmes complexes ont fleuri en France dans les années 2000 (l’ISC-PIF à Paris, l’IXXI à Lyon…) sur le modèle des hôtels à projets : les chercheurs y viennent pour quelques années et rencontrent des collègues d’horizons différents. L’inspiration vient d’outre-Atlantique avec le Santa Fe Institute (voir le trombinoscope) où les recherches ne sont pas compartimentées et l’échange entre chercheurs la règle. Au sein de l’institut lyonnais, des historiens, géographes ou sociologues sont invités à venir parler de sujets comme la révolution numérique. « Nous avons besoin d’eux pour poser les bonnes questions », affirme Pablo Jensen.
Les fédérateurs du complexe

Warren Weaver  Mathématicien, il formalise la complexité et s’interroge sur le rôle de la science pour le futur de l’humanité dans Science and complexity en 1948 : les problèmes ne se résument plus seulement à deux corps, surtout en biologie ! 

George Cowan Chimiste au sein du Manhattan project et durant presque 40 ans au Los Alamos National Laboratory, il co-fonde en 1984 le Santa Fe Institute, un des plus grands centres dédiés à l’étude des systèmes complexes, avec un paquet d’autres chercheurs connus.

Christopher Langton Informaticien et père de la vie artificielle, sous-champ de recherche des systèmes complexes alliant informatique et biologie, il sera à la tête du Swarm Development Group, un consortium émergent de l’institut de Santa Fe en 1999.

Paul Bourgine Chercheur français, il est à l’origine des journées de Rochebrune en 1992 (les prochaines en janvier), du Réseau national des systèmes complexes et, à l’international et plus récemment, du Complex Systems Digital Campus.
Categories
Interview

Timothée Parrique : « La décroissance n’est pas la récession »

L’économiste Timothée Parrique a consacré sa thèse au concept de décroissance et à l’élaboration de scénarios pour sa mise en application.

Qu’est-ce que la décroissance ?

La décroissance n’est pas l’inverse de la croissance, ce n’est pas la récession ou la dépression qui se caractérisent par un PIB négatif. La décroissance est la réduction planifiée de la production et de consommation. C’est la réponse la plus efficace à la crise climatique : réduire autant que possible les activités les plus polluantes et concentrer nos efforts pour verdir ce qui ne peut pas être réduit. Au lieu d’attendre un découplage de la croissance et des pressions environnementales qui peine à se matérialiser, soyons plus ambitieux et tâchons de réorganiser l’économie afin qu’elle puisse fonctionner – et prospérer – sans croissance.

Quelles différences dans les modèles quand on étudie les scénarios de décroissance ?

En économique écologique, nos modèles sont inspirés par les travaux de Nicholas Georgescu-Roegen qui a été le premier à repenser la science économique à partir des lois de la physique et de la biologie. Certains économistes diront que l’énergie a peu d’importance car ce secteur ne représente que quelques points de PIB ; mais je vous mets au défi d’imaginer ne serait-ce qu’une seule activité économique qui pourrait fonctionner sans énergie (spoiler alert : il n’y en a aucune). L’économie écologique chamboule la hiérarchie des questions de recherche et améliore la puissance analytique des modèles économiques pour permettre d’explorer des scénarios beaucoup plus précis. Pour étudier des scénarios de décroissance, il faut revoir nos modèles pour y intégrer les écosystèmes mais aussi des phénomènes sociaux comme la convivialité, les inégalités, et la qualité des institutions.

Par quels indicateurs remplacer la croissance ?

L’économie, ce n’est pas du Tetris ; arrêtons de penser qu’on peut gérer une économie moderne avec un seul bouton. Nous avons besoin d’un tableau de bord qui présente une diversité d’indicateurs économiques, sociaux, et environnementaux. Celui que la Nouvelle-Zélande a mis en place depuis 2019 contient 65 indicateurs, à la fois sur le bien-être présent (coût du logement, sécurité, temps disponible, santé, pauvreté etc.) et le bien-être futur (gestion des déchets, espérance de vie, discrimination, investissement, valeur du patrimoine naturel, etc.). Il y a trente ans, les indicateurs n’existaient pas et il y avait très peu de données. Ce n’est plus le cas aujourd’hui.

Le sujet de la décroissance est-il en train de devenir populaire ?

La pandémie a vu exploser l’intérêt pour la décroissance. En 2016 quand j’ai démarré ma thèse, j’ai dû convaincre mes directrices de thèse de travailler sur la décroissance, un sujet qui n’intéressait pas grand monde. Et aujourd’hui, un an après sa publication, mon manuscrit de thèse a été téléchargé 45 000 fois et des éditeurs m’ont contacté pour publier un livre sur la décroissance ! C’est le rêve de tout doctorant : que tout le monde s’intéresse à son sujet de recherche. Mais c’est aussi une lourde responsabilité ; il faut maintenant expliquer et débattre, même si c’est difficile, surtout sur un sujet aussi controversé que la décroissance. Quand on parle des problématiques liées à l’urgence environnementale, cela ne suffit pas de créer de la connaissance, il faut aussi que les scientifiques interagissent directement avec les gouvernements, les entreprises, et le public en général.
Categories
Actualité

Fin de partie pour la croissance ?


La route sans fin
La croissance économique peut-elle être continue ? Depuis les débuts de la discipline, la question a divisé et n’est toujours pas résolue.

Péché originel. En pleine révolution industrielle, le désaccord régnait déjà entre les économistes de l’école classique. Si la plupart pensaient que l’économie devait converger vers un état stationnaire, notamment John Stuart Mill, d’autres, comme Jean-Baptiste Say, suggéraient l’idée tentante de croissance infinie basées sur des ressources “gratuites”, donc illimitées.

Keynésianisme. Les économistes sont appelés en renfort durant la crise des années 1930. C’est là que naît le concept moderne de produit intérieur brut (PIB), nouvelle mesure de la croissance. Mais ce n’est qu’après la seconde guerre mondiale qu’elle s’impose dans les politiques publiques pour stabiliser une économie “sur le fil du rasoir”.

Flower Power. L’idée que croissance et progrès sont intimement liés se renforce durant les Trente Glorieuses. Dans les années 1970, une critique écologiste apparaît avec la prise de conscience des conséquences désastreuses de la croissance, mais ne prend pas parmi les économistes, du moins dans le courant majoritaire, l’école néoclassique.

Newton vs Clausius. Une poignée d’économistes regarde tout de même du côté des sciences physiques : si les modèles de croissance néoclassique se basent sur la réversibilité des processus, découlant de la mécanique de Newton, de nouvelles voix introduisent la notion d’irréversibilité, provenant elle de la thermodynamique et du concept d’entropie. En d’autres termes, on brûle du pétrole, mais on ne peut pas le “débrûler”.

Retour en grâce. Après avoir été délaissée, la recherche sur la croissance redevient active à l’aube de la crise de 2007. Les études se focalisent aujourd’hui sur les liens entre la croissance et certains paramètres comme la démographie. En parallèle des simulations, les économistes sont de plus en plus incités à confronter leurs modèles aux données, s’appuyant sur des expériences grandeur nature de politiques économiques, méthodes développées par le dernier prix Nobel en date.

Controverse scientifique. Génératrice d’emploi pour certains économistes, cette “agitation économique” qu’est la croissance ne représente rien pour d’autres – les hétérodoxes. La croissance ne dit en effet rien du bien-être humain ou de la santé des écosystèmes. C’est pourquoi le besoin d’interdisciplinarité avec la sociologie, l’histoire, la physique ou la biologie est aujourd’hui revendiqué.
Les dogmes de l’innovation  

Cela ne vous aura pas échappé, l’innovation – qui annule et remplace le terme de progrès technique – est promue par les politiques, notamment auprès de vous chercheurs. Pourquoi cette obsession ? Selon la chercheuse en économie de l’innovation Marie Coris, c’est « parce qu’il semble acquis que l’innovation porte la dynamique du capitalisme » notamment depuis les travaux de Joseph Schumpeter. Ses enseignements « sont toujours éclairants pour comprendre les cycles et les crises économiques, pas forcément pour orienter les politiques », explique-t-elle. Pour le biochimiste Hervé Philippe, c’est plus largement l’acceptation d’une croissance infinie de savoir qui est à l’origine de notre modèle de société basé sur une croissance économique sans limite.
Croissance ou non ? Les grands noms 

Simon Kuznets  Inventeur du concept moderne de produit intérieur brut (PIB) à la demande du Congrès américain dans les années 1930. Retravaillé par John Keynes, il a pour objectif de mesurer les effets de la Grande Dépression sur l’économie.

 Robert Solow Prix Nobel en 1987 pour son modèle néoclassique de croissance économique où est mis en avant le rôle du progrès technique. Développé en 1956, le modèle de Solow restera dominant jusque dans les années 1990. 

Nicholas Georgescu-Roegen Mathématicien et économiste, il veut replacer l’économie sous l’égide des lois physiques et biologiques. Considéré comme le père de l’économie écologiste dans les années 1970, même s’il n’a jamais parlé de décroissance. 

Donella Meadows Co-autrice du rapport Meadows pour le club de Rome en 1970, c’est la première à pointer du doigt les conséquences désastreuses de la croissance économique pour l’environnement et à recommander une stabilisation de l’économie.
 
Categories
Actualité

Trop grave pour rester neutres ?

Chercheurs en sciences du climat, ils se sont longtemps astreints à une stricte neutralité. Ils questionnent aujourd’hui ce positionnement.

Science first. La stricte neutralité, c’est la posture à laquelle les chercheurs en sciences du climat s’astreignent traditionnellement lorsqu’ils communiquent vers le grand public. Il s’agit de transmettre les connaissances dans son domaine d’expertise, de réfuter les fake news, de présenter en toute transparence les incertitudes et les limites de nos recherches. Si diffuser les connaissances sur le changement climatique, comme le font par exemple le train du climat ou l’OCE, peut déjà être considéré comme une forme d’engagement, le discours reste factuel. C’est la crédibilité, la confiance entre chercheurs et citoyens qui est en jeu.

Légitime ou pas ? La dimension multidisciplinaire des sciences du climat est une difficulté. Celles-ci font intervenir des domaines très variés de la physique, de la chimie, de la biologie… Parler du changement climatique nécessite donc de sortir de son domaine d’expertise. Quelle légitimité a-t-on alors ? « Une grande force de notre discipline est l’existence du GIEC », explique Jean-Louis Dufresne, chercheur au LMD : « C’est une base pour diffuser des connaissances larges, issues d’un consensus scientifique, avec un discours argumenté et construit. ». “Science first”, c’est d’ailleurs aussi la posture du GIEC. Mais face à l’urgence climatique, cette posture est-elle encore tenable?

Un problème trop grave. Un élément déclencheur est souvent à l’origine de ce questionnement et d’un éventuel changement de posture, comme la tribune prônant la désobéissance civile face à l’inaction climatique, la lecture du livre « Why do we disagree on climate change », ou la parution du 6e rapport du GIEC. Derrière les progrès sur la quantification et la compréhension physique du changement climatique, l’essentiel est bien connu. Tout comme la Terre est ronde, le climat se réchauffe, c’est maintenant acquis. Faut-il continuer à le rappeler ou agir? « Le problème est trop grave pour se contenter de faire de la diffusion des sciences », affirme François Dulac, chercheur au LSCE.

Des solutions… Le déclencheur peut aussi tout simplement être les réactions du public quand on leur expose les résultats du GIEC : « C’est trop déprimant, les gens veulent savoir ce qu’il est encore possible de faire », dit François Dulac. Les questions du grand public dévient très rapidement vers les solutions. La posture de neutralité apparaît alors illusoire. “Même si le GIEC se veut policy-relevant  et non policy-prescriptive, quand il présente des scénarios insoutenables pour les écosystèmes et les communautés, c’est implicitement prescriptif », remarque Agnès Ducharne, chercheuse au METIS.

Mais lesquelles ? « Tout le monde est d’accord pour réduire les émissions de gaz à effet de serre, le problème c’est comment », dit Jean-Louis Dufresne. Ce problème dépasse alors le cadre scientifique. Il fait intervenir des considérations économiques et sociales. La dimension systémique du problème ne peut pas être ignorée : le changement climatique est un problème parmi d’autres, comme la réduction de la biodiversité, la pollution, les inégalités sociales. « Le changement climatique est une opportunité pour réfléchir au projet de société », dit Eric Guilyardi, chercheur au LOCEAN. Et là, les chercheurs sur le climat n’ont pas toute l’expertise. Pire, la réponse n’est pas que scientifique : elle dépend de nos valeurs personnelles. Produire des solutions nécessite une co-construction entre experts de domaines variés et acteurs de la société, comme par exemple dans le projet Acclimaterra.« On ne peut plus faire l’économie de cette réflexion collective »

Alors, quelle posture ? Proposer des solutions, certains chercheurs se l’interdisent, pointant des questions de légitimité, de pertinence ou de crédibilité. D’autres se l’autorisent, à condition de préciser qu’ils parlent en tant que citoyen, pour éviter d’abuser de leur position de scientifique. Certains s’impliquent dans des initiatives militantes, comme le collectif Labos1point5. Mais clarifier son positionnement est une nécessité sur laquelle tout le monde s’accorde : « qui est-on, d’où vient-on, quelles sont nos motivations? », précise Eric Guilyardi. Comment choisir sa posture ? Ce dernier pointe la nécessité pour les chercheurs d’acquérir une culture sur les liens sciences-société : « On ne peut plus faire l’économie de cette réflexion collective ».

Camille Risi 
Categories
Interview

Cédric Villani : « Les questions qui m’ont le plus tourmenté sont toujours ouvertes »

Avant la politique, Cédric Villani a d’abord été chercheur… enfin enseignant-chercheur, et cela fait une différence ! Retour sur une carrière de mathématicien qui n’est peut-être pas derrière lui.

Parlons de votre parcours de chercheur : peut-on dire que vous avez fait une carrière “express” ?

Ma carrière “rapide” est à remettre dans le contexte de mon domaine : en mathématiques, il y a des particularités, comme le rejet du recrutement local [relire notre numéro sur les mathématiciens, NDLR] ou les opportunités données aux jeunes. Je n’avais que 27 ans quand l’ENS Lyon m’a recruté… et je ne suis pas le dernier à avoir été recruté avant 30 ans ! Mais je n’ai pas été uniquement focalisé sur la recherche, les collègues m’ont tout de suite fait confiance pour prendre des responsabilités. J’ai été six ans président de la commission de spécialistes chargée des recrutements au sein de mon laboratoire, directeur adjoint du labo, j’ai siégé dans des conseils scientifiques et animé des groupes de travail et des conférences publiques. C’était aussi sous l’influence de cet environnement lyonnais que je me suis sérieusement investi dans la vulgarisation scientifique dès le milieu des années 2000 et que j’ai pris la direction de l’Institut Henri Poincaré à un âge où, d’habitude, on se concentre sur ses recherches.

On parle beaucoup d’attractivité de la recherche et de fuite des cerveaux au sujet des jeunes chercheurs. Mais de l’autre côté, on voit aussi beaucoup de précarité et de compétition dans l’accession aux postes. Où se situe le problème selon vous ?

Pendant longtemps j’ai pu dire qu’en France, des disciplines telles que les mathématiques, l’informatique ou la physique théorique étaient plutôt épargnées par la fuite des cerveaux. Ce n’est plus le cas. En effet, les grands acteurs privés internationaux de l’algorithmique, en premier lieu les GAFAM, recrutent beaucoup de jeunes chercheurs, de manière délocalisée – même à Paris dans leurs sièges français, même en province via le télétravail – en leur offrant de bons salaires et des conditions de travail incroyables [relire notre numéro sur l’IA et le langage]. Il faut donc renforcer l’attractivité des métiers de la recherche en revalorisant les salaires et en facilitant le travail des jeunes chercheurs, notamment dans le recrutement de collègues ou dans l’accès à des équipements performants. Les recrutements doivent continuer à se faire tôt – j’en ai moi-même bénéficié – et je pense que les postes de chargé de recherche au CNRS sont cruciaux car parfaitement adaptés aux jeunes chercheurs débutant leur carrière. 

Vous avez reçu la médaille Fields en 2010. En quoi a-t-elle constitué un tournant ?

Dès la réception de la médaille, on se voit invité de partout pour donner des séminaires et des conférences, pour toutes sortes de publics. On devient en quelque sorte l’ambassadeur de sa discipline. Cela peut être vu comme un frein à sa carrière, à cause de la baisse de la productivité qui l’accompagne lorsque l’on répond à toutes les sollicitations – ce que font tous les lauréats ou presque. Dans mon cas, cela a été d’autant plus vrai car j’ai pris mon rôle très à cœur. J’ai aussi siégé dans les conseils scientifiques d’entreprises comme Orange ou Atos et mis un pied dans le monde associatif ; je préside d’ailleurs toujours Musaïques, association engagée à l’interface entre art, technologie et handicap. J’ai aussi commencé à militer politiquement, dès 2010, dans les milieux du fédéralisme européen. 

A propos de politique, un amendement, finalement rejeté, que vous avez proposé pour la loi Recherche, visait à ce que les chercheurs enseignent également. Tous les chercheurs doivent-ils devenir enseignants chercheurs ?

Il est bon que les chercheurs enseignent aussi, ne serait-ce qu’à petites doses. Je l’ai expérimenté à titre personnel : certaines de mes actions de recherche ont été nourries de cours que j’ai donnés et certains de mes cours se sont nourris de mes recherches. J’ai toujours cru à l’importance de l’enseignement et je crois être le seul de toutes les médailles Fields françaises à ne pas être passé par la case CNRS [Nous n’avons que René Thom (médaillé Fields en 1958) également dans ce cas, NDLR]. En revanche, j’ai été lauréat de programmes de décharge d’enseignement, comme celui de l’IUF, qui est d’ailleurs une formule remarquable. Soyons clairs, sans l’IUF je n’aurais jamais eu la médaille Fields ! D’ailleurs j’ai agi avec la plus grande énergie pour que la loi prévoit une forte augmentation du nombre de postes d’IUF. Pour en revenir à l’amendement que vous évoquez, il recherchait un certain équilibre : des postes de chercheurs avec une petite charge d’enseignement et des postes d’enseignants chercheurs avec des décharges, en particulier pour les maîtres de conférence en début de carrière. 

Enseigner se fait-il donc au détriment de la recherche ?

L’enseignement nourrit la recherche : les deux sont nécessaires. Mais seulement tant que les volumes horaires d’enseignement ne sont pas écrasants ! Pour ma part je suis conscient d’avoir pu enseigner dans des conditions privilégiées. Il faut tenir compte de la pyramide des âges et permettre aux nouveaux enseignants-chercheurs de moins enseigner : c’est une période très exigeante où l’on doit faire ses preuves. Cette décharge d’enseignement ne doit pas être compensée exclusivement par les chercheurs, c’est un équilibre à trouver. Quel est cet équilibre, je ne peux pas vous le dire aujourd’hui.

Nous venons de publier deux numéros (à consulter ici et ) sur les chercheurs autistes. Le monde de la recherche est-il inclusif ?

Durant ma carrière en France ou à l’international, j’ai croisé un certain nombre de profils singuliers, soit au plan cognitif, soit au plan sensoriel. À Lyon, un de mes collègues non-voyant a été directeur du labo : il s’inscrit dans une tradition de grands chercheurs non-voyants ou souffrants d’autres handicaps – Euler, Lefschetz, Morin… À Berkeley, j’ai connu Richard Borcherds qui a bien du mal à mener une conversation ou à savoir quand c’est son tour de parler au téléphone. On voit en quelques secondes que c’est un profil cognitif singulier. Cela ne l’empêche pas d’être un professeur épanoui qui a reçu la médaille Fields et qui est extrêmement respecté. La recherche est peut-être un des milieux qui accepte le plus la différence car on attache davantage d’importance aux idées : les travaux parlent pour eux. Ceci étant dit, il reste beaucoup de progrès à faire, notamment sur la sous-représentation des femmes, qui reste importante.

A quel niveau faut-il agir au sujet des femmes ?

On voit bien que les femmes en recherche progressent plus lentement dans leurs carrières. Il y a aussi une forte censure de la part de la société, voire d’autocensure de la part des jeunes femmes douées : le déterminisme pèse très fort sur les jeunes filles. La prise de conscience a eu lieu il y a bien longtemps déjà. On ne peut pas se contenter de l’égalité des chances, il faut activement pousser les jeunes filles vers des carrières scientifiques.

Et au sujet des personnes “racisées” ou issues de milieux sociaux défavorisés ?

En France, nous ne faisons pas de statistiques ethniques mais le relatif manque de diversité dans la recherche est une réalité. Je me souviens, lors de mes premiers cours aux États-Unis, j’avais été stupéfait par la diversité de l’audience – toute relative en fait, car la majorité des participants étaient des jeunes chercheurs immigrés, qui n’avaient pas suivi de cursus scolaire aux États-Unis. Nous pouvons faire beaucoup plus en France pour favoriser les cursus des jeunes chercheurs issus d’autres continents. Pendant des années j’ai plaidé la cause des étudiants sub-sahariens et recommandé que des filières leur soient réservées. Appelez cela de la discrimination positive si vous le souhaitez. De manière générale, la grande leçon est qu’il ne suffit pas de donner les mêmes conditions à tous pour faire bouger les lignes. J’ai conscience que la révision à la hausse des frais d’inscription pour les étudiants non-européens est un mauvais signal, malgré les possibilités de dérogation. Cette mesure a été décidée sans débat parlementaire et je suis favorable à ce qu’elle soit abandonnée si son impact s’avère négatif. 

L’OPECST, que vous présidez, aborde régulièrement les questions d’intégrité scientifique. Doit-on créer une police de la recherche ?

Il existe aujourd’hui des organisations comme Pubpeer, dont la violence envers les chercheurs a pu faire polémique. Ce que l’OPECST recommande dans son dernier rapport de mars [relire notre numéro sur le sujet], c’est que le réseau de référents intégrité scientifique soit réellement mis en place. Car aujourd’hui, il n’est que peu utilisé. Ce n’est pas dans la culture : bien trop souvent on préfère ne pas faire de vagues. Les rôles de ces référents seraient de prendre au sérieux les plaintes, de les rendre publiques le cas échéant.

Dernière question : vous considérez-vous toujours chercheur ?

Je ne pourrais plus dire quand exactement mon activité de recherche s’est mise en pause. Durant ma direction de l’Institut Poincaré, j’ai continué à donner des enseignements à l’Université Lyon 1, des cours doctoraux. Je comptais faire de même tout en siégeant à l’Assemblée mais cela s’est avéré impossible en pratique. J’ai donc renoncé à tout service et à mon salaire universitaire. Je conserve tout de même de forts liens avec le monde de la recherche : je discute souvent avec mon réseau d’anciens collègues et j’assiste régulièrement aux séminaires en ligne de l’Institute for Advanced Study – je donne encore des séminaires de recherche à l’occasion. Mon activité de recherche pourrait-elle reprendre un jour ? Pourquoi pas. Les questions qui m’ont le plus tourmenté sont toujours ouvertes.
Categories
Interview

Cédric Villani : « Nous devons agir avec radicalité »

Cédric Villani continue son parcours de politique non aligné en embrassant la cause écologiste. Loi recherche, antiscience, ligne 18 (entre autres) sont au menu de cette première partie.

La recherche a-t-elle profité du “quoi qu’il en coûte” édicté par Emmanuel Macron et plus généralement d’un “effet Covid” ?

La recherche n’a pas complètement tiré profit de cet état d’esprit post Covid, aujourd’hui derrière nous, même s’il y a eu une bouffée de keynésianisme et de souplesse dans l’administration. Il aurait fallu saisir l’opportunité. Or une autre loi recherche ne sera pas revotée avant longtemps. Avant la Covid, pour quelques millions vous vous exposiez aux foudres de Bercy, après la Covid, on comptait en milliards. Le plan hydrogène en est peut-être la meilleure illustration : avant la Covid il était ridicule, après la Covid il a changé d’échelle. Mais j’insiste, l’argent ne suffit pas : le niveau d’impopularité de l’exécutif chez mes confrères le prouve. J’ai discuté avec des chercheurs que je connais de longue date, remontés comme jamais… j’ai aussi pu discuter avec des parlementaires qui n’en comprenaient pas les raisons. Le milieu universitaire est extrêmement fier, indépendant ; il s’enflamme quand il a le sentiment d’être traité avec irrespect. Il faut dire que l’eau s’est accumulée derrière le barrage depuis longtemps. L’autonomie des universités, il fallait la faire, mais certaines modalités ont été des erreurs : si on avait pu anticiper le gouffre de temps et d’énergie que représentaient les Idex… Je suis rattaché à l’université de Lyon, j’ai pu constater le calvaire qu’elle a subi à cet égard… pour rien, sinon un état de confusion extraordinaire. Et ce alors que les Labex ont agi dans de bonnes conditions.

Vous avez fini par voter contre la loi recherche après l’avoir soutenue dans les grandes lignes. Que lui a-t-il manqué selon vous ?

Ce fut un épisode très paradoxal. Certes, on peut dire que c’était trop peu ou trop tard, mais ce gouvernement est le premier depuis longtemps à avoir mis des moyens significatifs sur la table pour la recherche. Il y a cinq ans, à l’occasion d’une violente coupe budgétaire affectant la recherche, nous avions été quelques-uns, avec Serge Haroche et Claude Cohen-Tannoudji, entre autres, à interpeller vivement le Président Hollande par voie de tribune : nous avions été reçus, nous avions ramené quelques centaines de millions d’euros et été salués comme des héros par le monde universitaire. Mais là, on parle de dizaines de milliards qui s’étalent sur une dizaine d’années, ce n’est pas du tout le même ordre de grandeur ! Cependant, la discussion s’est tellement mal passée avec la communauté scientifique que les intentions du gouvernement ont fini par être entachées de suspicion.

Au-delà des moyens, ce sont les chaires de professeur junior ou les CDI de mission qui ont concentré les critiques. Ce fut donc un faux procès ?

Le débat sur la précarité des postes — les chaires ou les CDI de mission — était en partie un procès d’intention : les CDI de mission étaient là pour remplacer des contrats encore plus précaires, il ne faut pas l’oublier. Il n’était plus acceptable qu’il persiste une sorte de spécificité de la recherche qui permette de maintenir les gens très longtemps en CDD. En ce sens, les CDI de mission sont un progrès. Je n’étais personnellement pas emballé par le principe des chaires, même s’il y avait une demande de certains établissements, comme Polytechnique, pour les mettre en place. Dans le débat parlementaire, nous avons été nombreux à intervenir pour que leur place soit limitée : cela a été le cas. J’aurais souhaité qu’elle le soit encore davantage, mais ce n’était pas un point majeur selon moi.

De bonnes intentions, de mauvaises explications à vous entendre…

Dans le discours, la communication, le débat, les choses se sont très mal passées. Et pourquoi s’être accroché à ce calendrier trop long étalant la programmation sur dix ans ? Tous les acteurs réclamaient à juste titre sept ans, voire cinq dans le contexte post-confinement. Mais la raison décisive pour laquelle j’ai voté contre la loi, ce sont les amendements controversés introduits en fin d’examen au Sénat : celui sur la possibilité de contourner le CNU au moment de la qualification — amendement très byzantin sur un sujet hyper sensible, il ressemblait à une provocation — et celui sur le maintien de l’ordre et de la tranquillité dans les universités, qui était inacceptable en l’état. Il alignait les établissements universitaires sur les lycées, mettant fin à près de 800 ans de tradition de liberté au sein du monde universitaire ! Cette disposition à elle seule justifiait que je vote contre l’ensemble du texte.

Une question Elkabbach maintenant. Vous avez déclaré il y a quelques années n’être ni de droite, ni de gauche, ni du centre. Après avoir quitté LREM, vous êtes aujourd’hui porte-parole de Delphine Batho, ça fait de vous un écolo ?

Je ne cherche toujours pas à me positionner sur un axe droite-gauche : savoir si l’écologie est de gauche est un débat qui existe depuis une cinquantaine d’années en France et qui n’a toujours pas été tranché, contrairement à d’autres pays. Je pense aux Grünen allemands, qui ont pu faire alliance avec la gauche ou avec la droite, en fonction des coalitions. Certes, l’alliance est objectivement plus rare avec la droite qu’avec la gauche. Il n’empêche, sur de nombreux sujets qui me sont chers, l’opposition gauche droite n’est pas la bonne grille de lecture. C’est le cas pour l’Europe : à gauche et à droite, on trouve des pro et des anti. C’est également le cas pour la cause animale : on en trouve des défenseurs et des adversaires résolus à droite comme à gauche.

En tant que chercheur, comment percevez-vous le rapport qu’entretiennent les écologistes avec la science et la technologie ?

Il y a beaucoup de caricatures dans les rapports entre l’écologie et la science, d’ailleurs principalement portées par ses adversaires politiques. Quand on emploie les mots “amish” ou “khmers verts” ou “écologie punitive”, il s’agit d’un cadrage de mauvaise foi qui vise à les décrédibiliser. Prenons la 5G. J’ai assisté à la scène à l’Assemblée : un député interpelle très clairement le gouvernement sur l’empreinte carbone à venir, avec des arguments clairs et raisonnés… et le gouvernement répond sciemment à côté, comme s’il avait été interpellé sur d’hypothétiques conséquences sanitaires. Il en va de même avec la polémique hallucinante que nous avons connue sur les menus végétariens dans les cantines lyonnaises.

Est-ce que l’on peut défendre le végétarisme pour des raisons scientifiques ?

Je suis moi-même devenu végétarien à la fois pour des questions d’empreinte carbone de l’élevage et d’éthique : la défense du bien-être animal. Ce dernier est un sujet beaucoup plus ancien puisqu’il était déjà porté par Louise Michel, Élisée Reclus, Alphonse de Lamartine, Victor Schoelcher, Émile Zola… on peut même remonter à Pythagore ! Mais même ce thème ancien et sensible a été revisité par les découvertes scientifiques récentes sur l’éthologie, les facultés cognitives et sociales des animaux, la sentience, etc. Et c’est également de façon très scientifique que certains laboratoires d’idées traitent de l’abolition de l’élevage intensif pratiqué dans les “fermes-usines”, pour passer au 100% élevage en plein air. C’est physiquement possible en Europe à condition néanmoins de rapatrier la production de légumineuses et de diviser la consommation de viande par environ deux. Pas la mort ! Mais il faut le vouloir, et réussir à ne pas prêter attention aux contre-arguments qui relèvent du pipeau.

Plus qu’un mouvement antisciences, peut on parler d’un mouvement anti technologie parmi les écologistes ?

Il y a plusieurs tendances et plusieurs partis écologistes, avec leurs courants. Certains ont une position très critique du numérique, d’autres au contraire en font un axe fort de leur identité. Certains mouvements sont résolument antitechno, voire néoluddites, ils sont très minoritaires. En revanche, le scepticisme sur les bienfaits de la technologie existe. mais c’est une attitude très répandue et, si vous voulez mon avis, c’est une attitude saine. En ce qui concerne la 5G : j’ai personnellement voté pour reculer son arrivée afin de prendre le temps d’un débat de société qui prenne en compte l’obsolescence programmée et la sobriété numérique. Même si certains peuvent être utiles, la plupart des objets connectés dont on nous promet l’avènement avec la 5G sont des jouets sans importance. Cette réticence n’est en rien une position singulière : je me souviens de la Conférence TED à Vancouver en 2017, dans un milieu pourtant technophile, j’ai été bluffé de constater le nombre d’exposés consacrés à la “désintox” numérique. Toujours plus vite, soit, mais quel est le projet de société derrière ? J’ai lu et apprécié l’œuvre d’Ivan Illich, qui préconisait de brider l’innovation technologique quand son gain devient marginal, voire quand son développement le rend néfaste. Illich considérait, calculs et arguments à l’appui, que le nec plus ultra du déplacement, pour la plupart des usages courants, était le vélo. L’idée générale est que nous restions maître de nos technologies or, parfois, ce rapport s’inverse, on le constate en ce moment.

C’est pour cette raison que défendez maintenant l’idée de décroissance ?

Il y a quelques jours, en plénière du Medef, Olivier Bogillot, le président de Sanofi France, m’a reproché de ne pas croire au progrès et en la science, parce que je refusais l’idée de croissance… Derrière l’échange courtois, nous étions en vif désaccord. Je n’ai pas dit que je refusais l’idée de croissance, mais que je me retrouvais parfaitement dans les prises de position “décroissantes”. Il s’agit de construire l’économie selon d’autres indicateurs que le triste PIB, qui ne reflète plus grand chose de pertinent, n’est aujourd’hui corrélé ni au bien-être ni à l’emploi, en revanche il reste très bien corrélé à la destruction de l’environnement et ne peut plus servir de boussole. De toutes façons, c’est une constatation de bon sens que la croissance infinie est impossible dans un monde fini… Aujourd’hui, avec l’extrême urgence climatique mise en avant par le GIEC et les événements météorologiques violents qui ont dominé l’actualité de 2021, avec l’effondrement du vivant et l’explosion de la pollution, nous devons agir avec radicalité et je n’ai aucun problème à ce que l’on y sacrifie la croissance du PIB. 

 La future ligne 18 du métro parisien (cliquez pour vous rafraichir la mémoire) représente un cas pratique de ce que vous évoquiez à l’instant. Êtes-vous pour ou contre son extension ?

Je voudrais d’abord rappeler une évidence : le projet Paris-Saclay a été lancé. On ne peut pas renvoyer AgroParisTech à Grignon, l’ENS à Cachan, ce n’est plus possible. J’entends les arguments des pros et des antis mais les étudiants arrivent, la population va tripler sur le plateau et il faut donc en tenir compte. La démographie sur le plateau nécessite un transport de masse. Selon moi, la partie Est de la ligne 18, qui d’ailleurs est déjà lancée, celle qui reliera Orly à Saclay, participera à cet objectif. Bien sûr, elle ne résoudra pas tout, et en particulier pas l’enclavement des Ulis et de Courtaboeuf. Quant à la partie Ouest, prévue pour raccorder Saclay à Saint-Quentin et Versailles, ma position a évolué, ou plutôt s’est précisée : il y a trois ans, j’y étais favorable, à condition qu’elle soit enterrée. Maintenant qu’il n’est plus question de l’enterrer et que nous avons eu des années de débat en plus, je constate que le consensus politique n’est toujours pas là, que les agriculteurs n’ont pas été entendus, que les habitants ne sont pas rassurés et que l’enjeu de protection des terres agricoles est un débat encore plus brûlant. Tout cela me conduit aujourd’hui à appeler à l’abandon de cette partie Ouest si controversée.
Categories
Actualité

Qui ouvrira la boîte noire du langage ?


Imaginez que l’ouvre-boîte n’existe pas
Le tournant du “deep learning” a permis des progrès dans les applications mais pas forcément dans la compréhension des mécanismes du langage.

Alignement des étoiles. Assiste-t-on à un tournant dans le domaine du langage ? Pour François Yvon, informaticien à Paris Saclay, c’est une certitude : d’énormes avancées ont été permises grâce à des ordinateurs plus puissants, des bibliothèques logicielles plus étoffées – deux lignes de codes suffisent aujourd’hui quand il fallait une thèse il y a 20 ans – et l’impressionnante quantité de données disponibles.

De l’ombre à la lumière. Pour Christophe Servan (voir notre interview ), l’explosion est également du côté des usages. Traduction automatique, reconnaissance vocale, chatbot… ont accompagné l’émergence des smartphones, propulsant sur le devant de la scène des recherches initiées depuis des dizaines d’années, notamment via les Gafam : « C’est très enthousiasmant de sortir de l’anonymat ».

Un vent d’optimisme. Ce champ disciplinaire, austèrement nommé traitement automatique du langage naturel pour le différencier du langage formel des ordinateurs, est né dans les années 1950, en pleine guerre froide, au moment où les Américains cherchaient à traduire les publications soviétiques. Ce vent d’optimisme a permis de larges financements (▼ voir le trombi ▼), suivi d’une rapide désillusion. Jusqu’à sa renaissance aujourd’hui. 

Pari sur les machines. Au croisement de la linguistique, de l’informatique et de l’intelligence artificielle, son objectif est à la fois de comprendre les mécanismes fondamentaux du langage et de développer des outils de traitement. Sauf que le premier objectif est un peu passé à la trappe avec l’engouement pour l’apprentissage profond (le fameux deep learning), méthode aujourd’hui majoritaire au sein de l’IA.

Heureux hasard. « L’avantage de sortir de l’approche symbolique [plus de détails ici, NDLR], c’est que l’approche numérique permet de construire des représentations plus fines des unités linguistiques », analyse François Yvon. Le nouvel algorithme GPT-3 d’OpenIA, la société d’Elon Musk, arrive ainsi à deviner le prochain mot d’une phrase, jusqu’à construire des énoncés qui ont en apparence une cohérence syntaxique et même thématique. Ce système est donc en capacité de répondre aux questions d’un utilisateur, voire de résumer des textes, par pure logique probabiliste.

Gros moyens. Tout cela est au prix du déploiement d’une véritable machine de guerre informatique. Un bazooka pour ouvrir une boîte de conserve, en quelque sorte. Mais qu’y a-t-il dans la boîte ? On tarde à le savoir. Cette recherche portée par les Gafam occulte d’autres aspects plus fondamentaux de la recherche sur le langage et détourne les financements de la linguistique pure.

Issue incertaine. En effet, l’intelligence des algorithmes n’est pour l’instant qu’un leurre : si les systèmes paraissent plus intelligents qu’il y a trente ans, ils sont juste plus efficaces. « Les calculs ont été largement optimisés pour effectuer des traitements simples sur des grandes masses de données, au détriment d’analyses visant à la compréhension profondes des énoncés. Jusqu’où pourrons-nous aller dans cette voie ? », s’interroge François Yvon. 

Ce qu’on sait aujourd’hui.  Créer des systèmes qui assimilent nos connaissances communes et peuvent nous répondre de façon cohérente. 

Ce qu’il reste à faire.  Rendre ces systèmes plus éthiques (voir encadré) et essayer de percer les mystères du langage.
Et l’éthique dans tout ça ?
 
Pour la linguiste Emily Bender et l’informaticienne Timnit Gebru, récemment congédiée par Google pour ses travaux sur les aspects éthiques de l’IA, l’apparition de modèles de grande ampleur ne va pas sans risques. Les biais de nos sociétés (racistes, sexistes… ) ressortent de ces “perroquets stochastiques” que sont les algorithmes, les idées discriminantes ou haineuses étant potentiellement surreprésentées dans les données. Des solutions sont envisageables : filtrer certains discours de la machine, améliorer la qualité des données ou aller vers plus de transparence. Qu’y a-t-il sous le capot ? Si la plupart des algorithmes étaient auparavant en open source, le dernier GPT-3 ne l’est pas.
Les grands anciens du langage

Claude Shannon  Inspiré par Markov avant lui, le mathématicien Claude Shannon présente dès 1948 sa théorie de l’information, qui servira de base aux modèles de langage. 

Alan Turing Alan Turing est sans conteste le père de l’intelligence artificielle avec son fameux test proposé en 1950 : une machine peut-elle se faire passer pour une humain ? 

Noam Chomsky Profitant de l’engouement, le célèbre linguiste Noam Chomsky conduit à partir de 1957 des travaux fondamentaux sur la grammaire et la cognition, qui se révèleront révolutionnaires. 

Joseph Weizenbaum Au sein du groupe fondé par Marvin Minsky et John McCarthy au MIT, Joseph Weizenbaum crée en 1966 le premier chatbot, ELIZA, qui réussira partiellement le test de Turing. 
Categories
Actualité

Comment le microbiote a fait florès

Commençons par une image, pour changer. Voici une carte des microbiotes du corps humain, répartis sur tout notre corps. Dans ce numéro, il sera principalement question du microbiote intestinal, le plus étudié. En couleur, les différentes souches de bactéries (détails et source)

Le petit peuple des villosités (vue d’artiste)
Longtemps mésestimé, l’impact du microbiote sur la santé humaine fait aujourd’hui la une. L’aboutissement de dizaines d’années de recherche.

Lumières intestinales. L’influence de la population microbienne de notre corps (en particulier celle de l’intestin) n’est pas une préoccupation récente, puisqu’elle remonte a minima au XIXe siècle. Longtemps purement descriptive, la recherche sur le microbiote a connu une accélération ces dernières années.

Verrous techniques. Jusqu’au tournant des années 2000, la recherche était en effet freinée par la culture très complexe de ces bactéries qui doivent être privées d’oxygène. Mais la révolution ADN est passée par là, comme le précise Nathalie Vergnolle :« La possibilité de séquencer le microbiote a permis de lever les verrous : il était devenu faisable de cartographier sa composition. Cela a poussé les chercheurs à étudier les bactéries espèces par espèces »

 Révolution. Deux projets de séquençage, à la suite de celui du génome humain, marquent ce tournant vers la big data : Le Human Microbiome Project (HMP) dès 2007 aux Etats-Unis, MetaHIT en Europe entre 2008 et 2012, mené par l’Inrae. De purement descriptive, la recherche devient fonctionnelle, s’accélère et se diversifie. 

Organe ubiquitaire. L’évidence s’impose : quand on réimplante un microbiote d’un individu à un autre, certaines pathologies suivent, comme dans cette étude pionnière sur l’obésité chez la souris. Le microbiote serait impliqué dans une liste de de maladie qui donne le vertige : cancer, maladies inflammatoires, allergie, ostéoporose, Alzheimer…

L’air du temps. Les publis se multiplient à vitesse exponentielle dans les années 2010, comme en témoigne un chercheur, connaisseur du secteur :« Le microbiote étant “à la mode”, les scientifiques se sont précipités dessus ; on en revient aujourd’hui. Editeurs et reviewers sont plus prudents et les études qui sortent sont plus solides ».

Ce qui reste à faire. Si de nombreux espoirs sont permis, les thérapies liées au microbiote doivent encore faire leurs preuves. Une seule est aujourd’hui autorisée dans le traitement d’infections intestinales résistantes, d’autres arriveront en adjuvant des traitements de certains cancers ou d’infections à Helicobacter Pylori. Ce n’est que le début, la France étant bien positionnée dans le secteur. 

Pour aller plus loin.  Si vous vous intéressez au sujet, prenez le temps de regarder ce docu de référence. Des actus scientifiques et techniques peuvent aussi être dénichées ici.
Categories
Non classé

Pourquoi le stockage de CO2 est dans l’air


Le pétrole sort, le CO2 rentre
Lutter contre le changement climatique est l’objectif premier du stockage du CO2, développé en étroite collaboration entre le public et le privé. 

Retour à l’envoyeur. L’idée semble simple : puisque les gaz à effet de serre, CO2 en tête, sont responsables du changement climatique, pourquoi ne pas les remettre d’où ils viennent : dans le sol ? En effet, ils sont principalement rejetés lors de la combustion d’énergies fossiles : charbon, pétrole, gaz naturel…

Ouvrez la cage. L’ancêtre de ce qu’on appelle aujourd’hui le captage de carbone est un procédé de nettoyage du gaz naturel – où il est séparé du CO2 – datant d’il y a presque un siècle. Sauf qu’à l’époque, le dioxyde de carbone isolé était ensuite relâché dans l’atmosphère. Le GIEC n’existait pas encore.

Pétrole un jour… C’est dans les années 1970 qu’on a commencé à injecter du CO2 dans le sol… pour mieux en extraire le pétrole ! Expérimentée au Texas, sans aucune visée écologique, cette démarche a tout de même permis de stocker des dizaines de millions de tonnes de CO2 mais aussi et surtout d’en démontrer la faisabilité. 

Un geste politique va marquer le passage à l’action. Money is all. L’idée d’utiliser le stockage du CO2 pour lutter contre le changement climatique émerge parmi les scientifiques à la fin des années 1980 (▼ voir trombi ▼). Mais c’est un geste politique qui va marquer le passage à l’action : l’introduction de la taxe carbone en 1991, accompagné d’investissements massifs du gouvernement norvégien.

Réaction. Les compagnies pétrolières comprennent alors qu’il faut agir. Vite. Total mène un projet pilote à Lacq dans les Pyrénées entre 1990 et 1993. Une chaîne complète de captage à la sortie d’une chaudière à gaz, suivi du transport par pipeline et du stockage dans un gisement épuisé, est réalisée pour la modique somme de 60 millions d’euros.

Bien commun. Au sein d’un grand projet européen, des chercheurs en géosciences (▼ dont notre interviewée ▼) ont examiné entre 1993 et 1995 si le stockage du carbone est envisageable en termes de sécurité, mais aussi rentable. La conclusion sera positive, même si les coûts restent élevés, notamment pour la partie captage.

Vingt mille lieux. C’est ainsi qu’en 1996 démarre Sleipner, le premier projet de stockage de CO2 à grande échelle. Sous la mer du Nord, il ne s’agit pas d’un gisement de pétrole mais de ce que les géologues appellent des “aquifères salins profonds” – une sorte de réservoir naturel. La compagnie pétrolière nationale norvégienne, hier Statoil, aujourd’hui Equinor, pilote toujours le projet. 

Ce qu’on sait aujourd’hui.  Le stockage est bien maîtrisé et de nombreux projets sont à l’œuvre : le captage de fumées industrielles à Dunkerque pour un stockage en mer du Nord ou le stockage en Islande après captage du CO2 dans l’air par la startup suisse Climeworks. 

Ce qu’il reste à faire.  Les principaux défis sont sociétaux – convaincre que les risques, notamment de fuite, sont faibles – et financiers. Il faut en effet en diminuer les coûts, en particulier sur les étapes de captage et de surveillance des sites.
Sauver la planète chez Total ?


Philip Llewellyn a quitté son poste au CNRS il y a quelques mois pour le géant du pétrole afin « d’agir face au changement climatique ». Total a effet investi 100 millions de dollars, soit 10% de leur budget de R&D, dans le stockage de CO2. Les principaux défis se situent pour son équipe au niveau de la surveillance des sites de stockage, que la sismicité naturelle des Pyrénées permet de tester à Lacq. Il s’agit à la fois de « développer des capteurs moins onéreux pour les installer en réseau sur des kilomètres autour du point d’injection » mais aussi « des outils de simulation pour prévoir le devenir du CO2 en sous-sol », en collaboration avec des universités américaines, dont Stanford.
Le trombi du stockage de CO2

Erik Lindeberg 
 Pionnier du stockage de carbone, ce scientifique affilié au SINTEF (organisme de recherche norvégien privé) propose en 1986 le projet qui sera financé par Statoil en mer du Nord.

Jonathan Pearce 
Au sein du British Geological Survey, il investigue dès 1993 les risques liés aux fuites de CO2, qui restent faibles, et recommande des méthodes de surveillance

Samuela Vercelli Docteure en énergie et environnement, cette chercheuse de l’université de Rome adopte une approche multidisciplinaire afin d’étudier la perception du public. 
Categories
Interview

Eric Hardouin : « On ne peut qu’imaginer les besoins en 2030

Qui est Eric Hardouin ?
Plus de détails.


La 6G devrait être déployée vers 2030. Quels en seront les contours ?

Ce que sera en détails la 6G est un grand point d’interrogation mais nous travaillons aujourd’hui à ce qu’elle pourrait être. En termes de nouveaux usages, nous travaillons sur deux axes complémentaires, qui se nourrissent mutuellement : un travail sur les technologies pour repousser les limites de performance possibles, et un travail d’imagination — sans qu’elle soit totalement débridée — pour créer de nouveaux usages qui créent de la valeur pour la société grâce à ces nouvelles performances.

Quels seraient ces nouveaux usages précisément ?

Des capacités de communication plus immersives, une plus faible consommation énergétique dans les villes…. ce que nous développons doit bien sûr être faisable techniquement mais aussi soutenable au niveau environnemental. La condition est que la mise en œuvre de la technologie soit économiquement viable pour tous les acteurs impliqués. On ne peut qu’imaginer les besoins de 2030 : notre hantise est de développer des technologies qui ne servent à rien.

Les enjeux écologiques sont-ils anticipés ?

Nous avons une conviction, celle que la 6G doit être pensée dès le début pour remplir des objectifs sociétaux : par exemple, dépenser beaucoup moins d’énergie pour un bit transmis, améliorer la résilience des réseaux et l’inclusion numérique. Ce réflexe d’améliorer l’efficacité énergétique au moins autant que les débits n’est pas encore présent chez tous les acteurs, mais nous travaillons à faire progresser la prise de conscience.