Categories
Actualité

La 6G, c’est la 5G (en mieux)


Celui-là n’était pas rapide mais réputé indestructible
La prochaine génération des réseaux de data mobile fait l’actu mais n’est pas encore sortie des laboratoires.

En pleine gestation. C’est en Finlande à l’université de Oulu qu’a été lancé en 2018 le premier programme de développement de la 6G au niveau mondial. Depuis, les parties prenantes se mettent en ordre de marche, puisque pas moins de neuf programmes européens se sont lancés depuis janvier 2021, dont Hexa-X. Ce fut également le cas en 2020 aux USA (NextG Alliance), au Japon, en Corée du Sud mais aussi évidemment en Chine.

Encore plus vite. Vous connaissez peut-être la loi de Moore, qui veut que la puissance de calcul double tous les 18 mois. En matière de télécommunications, il s’agit de la loi de Edholm qui décrit une courbe similaire pour les débits de données. En d’autres termes, la 6G apporterait :
 Des débits plus élevés  de l’ordre du terabit par seconde (20 films en HD), soit à 10 à 100 fois plus que la 5G. 
Un temps de latence réduit  qui pourrait tomber sous la milliseconde (4 à 5 ms pour la 5G), ce temps de latence est important dans certaines applis comme la réalité virtuelle.

Les yeux ouverts. Côté applications, c’est évidemment beaucoup plus prospectif mais puisqu’il faut bien faire rêver, les sources consultées (dont celle-ci) présentent de nombreux scénarios d’usage plus ou moins utopiques. Jean-René Lèquepeys, du CEA-Leti, en cite d’autres : « Beaucoup pensent que les lunettes “augmentées” vont jouer un rôle clef à l’avenir (…) On s’achemine vers de la reconnaissance de gestes, de la traduction automatique en temps réel où les intonations, les mots, les accents d’un interlocuteur étranger pourraient être traduits en temps réel. La 6G pourrait porter ce genre d’applications ou de nouvelles comme le pilotage de robots à distance ou la localisation temps réel de colis. »

Acceptabilité cruciale. Les réticences légitimes au déploiement de la 5G (agrémentées de complotisme) incitent tous les acteurs à marcher sur des œufs à la fois sur les aspects environnementaux et sanitaires. Si aucun risque clair pour la santé ne semble être clairement identifié, la prudence reste de mise, d’autant que la 6G impliquera l’implantation d’antennes-relais, toujours selon Jean-René Lèquepeys : « Plus vous montez en débit (et c’est le cas avec la 6G a priori ), plus vous êtes amenés à monter en fréquence, les distances de communication deviennent plus courtes avec des cellules de plus petites tailles (…) Il faudra en conséquence multiplier les stations de base avec des cellules de plus petite tailles ».

Si vous avez le temps.  La guerre d’influence entre les USA et la Chine mènera-t-elle à une partition numérique du monde de la téléphonie ? Ce papier de l’Ecole de guerre économique estime l’hypothèse plausible.
Categories
Actualité

Aux origines du nudge


Ce diptère va vous faire uriner au bon endroit
Pensé par des économistes puis adopté par les psychologues, le nudge fait plus que jamais parler de lui.

Changement de paradigme. C’est dans les années 70 qu’une découverte majeure est faite : nos décisions, au moins dans le domaine économique, ne seraient pas aussi rationnelles qu’on le pensait jusque-là. Plusieurs prix Nobel d’économie (▼ voir notre trombi ▼), dont certains issus des sciences cognitives, s’attèlent alors à la tâche de cerner nos comportements et fondent une nouvelle discipline : l’économie comportementale. Mais de “nudge”, il n’était point question encore.

Un baptême inattendu. La première apparition du terme est tout à fait fortuite. En 2008, deux économistes publient un livre issu de leurs travaux sur « l’architecture des choix ». Mais l’éditeur choisit un nom plus vendeur : Nudge : la méthode douce pour inspirer la bonne décision. Tout est là : l’ouvrage énumère une longue liste de biais cognitifs et propose de les utiliser pour orienter les individus vers leur bien. Les “nudger”, en somme.

Des polémiques. C’est là que les sciences politiques et la philosophie entrent dans l’arène et débattent autour de ce « paternalisme libertarien ». Pourquoi ne pas réguler au lieu d’inciter ? Qui définit le bien vers lequel on doit tendre ? Est-ce bien respectueux de l’éthique ? Pour certaines sociologues, les décisions ne peuvent pas se réduire uniquement à une série de choix et le nudge ne s’attaque pas aux problèmes de fond.

En marche. Entre temps, les politiques s’en sont saisi : Barack Obama dès 2008 puis David Cameron en 2010 recruteront Richard Thaler et Cass Sunstein, d’abord durant leurs campagnes électorales, puis pour conduire des politiques publiques. Le concept est ensuite exporté en France : en 2016, Emmanuel Macron fait appel à l’entreprise BVA et à sa “nudge unit” créée quelques années plus tôt.

Le produit miracle. Car le nudge a bien évidemment des applications en marketing : comment inciter un individu à acheter votre produit ? La BVA Nudge unit promet « une puissance remarquable pour un coût très faible » grâce à une méthode bien huilée consistant à identifier les comportements avant de préconiser le “coup de coude” (to nudge en anglais) adéquat.

Pour le bien commun. L’application du nudge fait en revanche beaucoup plus consensus dans les domaines tels que l’environnement ou la santé : comment inciter à manger sainement ? La crise de la Covid a renforcé la tendance : des chercheurs en sciences cognitives planchent depuis un an sur l’application des gestes barrières ou sur les incitations à télécharger l’application “TousAntiCovid”.
L’irrationalité a-t-elle une origine biologique ?

Comment expliquer que, bien qu’ayant identifié l’action conduisant à la plus grande récompense, les individus continuent de tester les options les moins intéressantes ? Le neurobiologiste Thomas Boraud propose une approche bottom-up : identifier les réseaux de neurones impliqués dans ces choix grâce à des modèles animaux — la salamandre, en l’occurrence. En collaboration avec des économistes et psychologues, le chercheur explore la théorie selon laquelle l’irrationalité serait intrinsèque.
Les pères et grands-pères du nudge 

Herbert Simon  Cet économiste américain, prix Nobel en 1978, signe la fin de l’homo economicus en élaborant la théorie de la rationalité limitée : la capacité de décision d’un individu serait altérée par des contraintes comme le manque d’information, de temps ou des biais cognitifs.
 
Daniel Kahneman Père de l’économie comportementale, il reçoit le prix Nobel d’économie en 2002. Amos Tversky et lui, tous deux psychologues à Berkeley, étudient les processus de décision : la pensée humaine est partagée entre un système réflexif, délibéré et conscient et un système automatique, rapide et instinctif.

Richard Thaler Il marque le début de l’ère “nudge” avec la parution de son livre en 2008 qui donne une palette d’outils pour orienter les individus vers les bonnes décisions. L’économiste américain a étudié un plan pour inciter les employés à épargner pour leur retraite. Il conseillera Barack Obama et David Cameron avant de recevoir le prix Nobel en 2017.

Dan Ariely Ce professeur en économie comportementale a créé un centre de recherche pour rendre les gens « plus heureux, plus riches et en meilleure santé ». Il est aussi co-fondateur de nombreuses entreprises dont BEworks en 2010, la première proposant du conseil en économie comportementale.
Categories
Interview

Jacques Lewiner : « Le basculement a commencé »

L’analyse d’un secteur toujours fécond par Jacques Lewiner, spécialiste de l’innovation.

A l’avant-garde depuis toujours la microfluidique a déjà vingt ans, d’où vient-elle ?

La microfluidique est effectivement née il y a une bonne vingtaine d’années sous l’impulsion de quelques pionniers aux USA. La France a très vite été bien placée grâce à des chercheurs comme Pierre-Gilles de Gennes et de son intérêt pour la matière molle [en voici une définition, NDLR]. Compte tenu des très petites quantités de fluides manipulées, il fallait adapter les lois bien établies de la mécanique des fluides. C’est aux USA il y a plus de dix ans qu’ont été lancées les premières start-up, à Harvard, Stanford ou Princeton, une époque où il y avait encore de nombreux obstacles sur la route des chercheurs entrepreneurs en France.

Pourquoi cet engouement ?

Très vite, on a compris que cette capacité à déplacer de petites particules ouvrait la voie à de nombreuses applications. On peut créer une gouttelette dans un fluide porteur et y inclure ce qu’on veut (un virus, du parfum, de la peinture, etc.). Pour la recherche sur les médicaments, on utilise des robots qui testent de nouvelles molécules à raison de quelques échantillons par seconde. Si on utilise des gouttelettes entraînées dans un petit canal, on peut traiter des milliers d’échantillons par seconde ! Le gain en temps ou en quantité de matière est énorme… et les coûts sont diminués.

Quel avenir lui prédisez-vous ?

La microfluidique va à coup sûr se développer. Le basculement a commencé à se faire avec des ”big pharma“ qui regardaient cela de loin jusqu’à présent mais investissent maintenant le secteur. Des start-up se sont développées, par exemple Fluidigm, Capsum, Fluigent et bien d’autres. Une nouvelle technologie met toujours un peu de temps à s’imposer mais une innovation qui apporte des avantages objectifs est vouée à réussir, surtout si son impact environnemental est positif ce qui est le cas avec la microfluidique.
Categories
Actualité

La microfluidique sort de l’adolescence

Les applications se multiplient dans des domaines parfois insoupçonnés.

Laisse venir l’avenir. Dès son origine, deux voies de recherche coexistaient sans forcément communiquer beaucoup : académique d’une part, industrielle de l’autre (peinture en spray, imprimante à jet d’encre…), rappelle George Whiteside. Aujourd’hui se développent plusieurs voies :

 Les analyses biologiques  C’est l’espoir historique de la microfluidique : pouvoir analyser un prélèvement de petite taille. L’innovation est toujours très active dans ce domaine et arrive au stade de la production : Adelis et Inorevia, Stilla technologies, par exemple. 

– L’énergie bleue  Beaucoup plus fondamentale, cette voie consisterait en substance à récupérer de l’énergie grâce à de l’eau salée : la puissance osmotique. On parle cette fois de nanofluidique. Une start-up pour l’exemple : Sweetch.

La  2D, c’est has been  L’application la plus en vogue en ce moment sont les organes sur puce (voici une liste de sociétés): avec des intestins de 1 mm², le gain de temps et de réactifs est énorme. Et demain, les corps sur puces ? On y va tout droit
Un trombi non exhaustif  

Le pionnier.  Les travaux du chercheur touche-à-tout George Whiteside (Harvard) sont considérés comme fondateurs de ce qui ne s’appelait pas encore la microfluidique. Son laboratoire a préparé le terrain à de nombreuses applications, parfois développées par d’autres.

Le visionnaire. George Manz est un chercheur suisse qui a œuvré toute sa carrière entre l’industrie et l’académie. Il est le premier à avoir théorisé le concept de laboratoire sur puce (“lab on a chip”) depuis les années 90, peu après son doctorat à l’EPFL de Lausanne.

Le passeur. Les travaux de Pierre-Gilles de Gennes (prix Nobel de chimie 1991) sur la matière molle (voir interview)  ont pavé la voie à la microfluidique en France. Un institut consacré au sujet, et portant son nom, plaque tournante du domaine a été créé en 2010.

La scandaleuse. 9 milliards de dollars, c’était la capitalisation de Theranos juste avant sa chute. Dirigée par Elisabeth Holmes, cette start-up voulait révolutionner le secteur de l’analyse sanguine grâce à la microfluidique. Il s’agissait d’une escroquerie résumée dans ce livre.

La startuppeuse. Avec au départ la même promesse que Theranos — réduire la quantité de sang nécessaire pour une analyse —, la société Fluigent dirigée par France Hamber commercialise du matériel destinée à ces analyses microfluidiques.
Categories
Interview

« Je n’ai aucun goût pour le déni de réalité »

Après un processus de nomination rocambolesque, le mathématicien Thierry Coulhon a pris les rênes du Hcéres. Rencontre.

Aux 80 ans du CNRS Emmanuel Macron (remember) pointait du doigt une « évaluation molle, sans conséquences ». Qu’est-ce qu’une évaluation « dure et suivie d’effets », en ce cas ?

Emmanuel Macron n’emprunte pas les mots des autres s’il ne les pense pas. Son point de vue est juste : si évaluation il y a, elle doit avoir de l’utilité et du sens, donc se tenir à un impératif de vérité. Quand on parle d’évaluation, il faut remonter à son sens originel. Les politiques publiques doivent être évaluées : dans le champ de l’enseignement supérieur et de la recherche, c’est une idée qui remonte à 1983 avec Laurent Schwartz [auteur de Pour sauver l’université, NDLR] et qui me semble très partagée. Je m’inscris dans l’histoire de cette maison, l’AÉRES puis le Hcéres, bien retracée d’ailleurs dans le livre de Clémentine Gozlan [dont voici la thèse sur le sujet, NDLR].

Votre nomination, contrairement à celle de tous vos prédécesseurs, a été un vrai événement, politique qui plus est. Pourquoi ?

Le fait que je sois un ancien conseiller présidentiel est trop réducteur [voir un CV complet ici, NDLR] et c’est une manière bien étrange de comprendre les relations de pouvoir que de me le reprocher. Ma vie professionnelle ne se résume pas à cette expérience et c’est sur cette base que je suis devenu conseiller d’Emmanuel Macron, puis président du Hcéres. Je suis né dans une famille où personne n’avait le Bac, j’ai démissionné de l’Ecole polytechnique — j’étais un peu antimilitariste à l’époque — pour aller étudier la philosophie et les mathématiques. Je suis devenu professeur dans une université de banlieue, à Cergy-Pontoise. J’ai enseigné en première année, j’ai fait beaucoup de recherche avant d’être aspiré par les responsabilités et de devenir le président de cette université. J’ai vécu de grands moments dans une ville nouvelle où l’on contribuait à changer le destin de jeunes qui, sinon, ne se seraient pas tournés vers l’université. Après avoir franchi les lignes, politiquement parlant, j’ai ensuite rejoint la CPU, le cabinet de Valérie Pécresse, puis le Commissariat général à l’investissement, dirigé un centre de recherche en Australie et été élu à la tête de l’université PSL. Au-delà des réseaux sociaux, je me sens plutôt bien accepté. Les communautés apprécient qu’on leur parle franchement même si l’on n’est pas d’accord sur tout, c’est ce que j’essaie de faire.

Votre nomination est encore sous le coup d’un recours au Conseil d’État, ça vous inquiète ?

C’est très sain, ça s’appelle l’Etat de droit, toute décision peut être contestée et ultimement cela ne fait que la renforcer. Les outils numériques ont amené une forme de transparence dans toutes les prises de décisions. La candidature collective au Hcéres initiée par RogueESR — très bien jouée de mon point de vue — en est l’illustration [plusieurs milliers de chercheurs y ont participé, NDLR]. C’est une forme de réappropriation, rien de choquant à cela même si je ne sais pas si l’un de ces candidats souhaitait devenir président en réalité.

Votre prédécesseur Michel Cosnard arrivait à la limite d’âge, son départ était donc prévisible, n’y avait-il pas une meilleure manière de procéder ?

Peut-être mais je ne suis pas le mieux placé pour en parler. Désormais, je souhaite être jugé sur la manière dont j’exerce mon mandat. Nous vivons dans une ère de défiance : pendant que l’on débat d’une fantasmagorie qui voudrait que le Président de la République m’appelle pour peser sur l’évaluation, les vrais sujets sont évités. Et l’un de ceux-ci est : est-ce que l’enseignement supérieur et la recherche jouent leur rôle et comment peuvent-ils progresser ?

Si noter est de droite et l’appréciation qualitative est de gauche, aujourd’hui est-on dans l’en même temps macronien ?

L’évaluation navigue en permanence entre l’arbitraire et l’euphémisation : il ne faut tomber ni dans un extrême hiérarchisant ou punitif, ni dans l’euphémisation générale, où tout le monde est beau, tout le monde est gentil et se voit décerner un A+. La grande idée directrice du Hcéres était justement d’éviter le mandarinat, le copinage, les effets de couloir par la formalisation. Dans cette dynamique, il y a un risque : que cette formalisation « choufleurise », au prix d’une perte de sens. L’euphémisation, c’est dire d’un bon labo en progression, dont certains travaux sont au niveau mondial, qu’il est « au meilleur niveau mondial ». Toutes les activités humaines peuvent être appréciées, y compris l’art : il faut pouvoir y trouver des contrastes, sans qu’ils soient exagérés ou arbitraires. Les chercheurs pratiquent l’évaluation quotidiennement mais elle doit être rendue collégiale et collective. L’évaluation a donc certes ses limites… Il n’en reste pas moins que nous n’avons pas d’autres moyens de faire. Ça n’a rien de simple : si la vérité était facile à élaborer, nous n’aurions rien à évaluer. Je n’ai aucun goût pour le déni de réalité.

Allez-vous rétablir d’une manière ou d’une autre des évaluations notées, comme le pratiquait l’Aéres ? 

La confrontation avec la réalité de l’évaluation me conforte dans l’idée que la notation n’est pas la solution. Je n’ai pas d’agenda caché sur le sujet. En réalité, je n’y vois presque que des défauts : la notation fonctionne par seuil, elle est unidimensionnelle, simplificatrice, stigmatisante… et elle ne rend pas compte des dynamiques. La conséquence est connue : tout pousse vers le A+, qui rend tout le processus inutile.

Depuis la Loi Recherche, le Hcéres est doté d’une personnalité morale, ça change quoi ? 

A bien des égards, notamment sur le plan budgétaire et comptable, le Hcéres était traité comme un service du ministère alors même qu’il s’agissait d’une autorité administrative censée être indépendante [la liste des AAI, pour les curieux, NDLR]. La transformation en Autorité publique indépendante [et la liste des API pour faire bonne mesure, NDLR] lui confèrera la personnalité morale et imposera de concrétiser l’indépendance prévue par les textes. Cela permettra aussi de développer des ressources propres dans un cadre moins contraignant, notamment en renforçant notre activité à l’international.

Parlons des « conséquences » : de quelle manière les évaluations sont-elles liées aux dotations des établissements par exemple ?

Je n’ai pas la maîtrise des effets de l’évaluation : notre rôle est de fournir aux tutelles des éléments d’appréciation utiles. Concernant les unités de recherche, la question est assez simple en réalité. En tant qu’organisme de recherche ou établissement, obtenir le maximum d’informations sur ses laboratoires est essentiel. Mais le cheminement de la décision qui mène d’une appréciation à l’augmentation ou à la diminution des moyens d’un laboratoire donné est complexe et peut aller dans les deux sens : une équipe en perte de vitesse peut soit être soutenue, soit être stoppée. Il n’y a pas d’automaticité ni d’algorithme dans le processus. Mon expérience en Australie m’a confronté à un système d’évaluation quantitatif, avec des coefficients multiplicateurs, de la bibliométrie beaucoup plus directe et violente, qui pouvaient faire varier les moyens de un à quatre. Rien à voir avec la France. Le modèle Sympa [quelques mots sur cet algorithme d’allocations des moyens, NDLR] n’a fonctionné que très peu de temps et a succombé à la crainte des universités, petites et grandes, d’y perdre au change.

Cela revient à poser une autre question : comment le ministère utilise les rapports du Hcéres ?

Le ministère établit un contrat d’objectifs et de performance avec l’organisme de recherche, la ministre alloue chaque année un budget à ces organismes, souvent reconduit de manière incrémentale. Les rapports du Hcéres — publiés tous les cinq ans, je le rappelle — informent les services du ministère et l’établissement, outillent le dialogue contractuel et, en somme, aident les acteurs à se former une image plus fidèle de la réalité. S’ il y a un effet de nos rapports sur les budgets, il est très « médié ». Nos rapports représentent beaucoup de travail, ils sont sérieux, honnêtes et globalement bienveillants. Le Hcéres n’est pas une machine à rogner les moyens alloués.

Le Hcéres a été évoqué pour produire le rapport ou l’enquête ou l’étude (si vous avez raté le début), quelque soit le terme, voulue par Frédérique Vidal à propos de l’islamogauchisme. Qu’en est-il ?

Personne ne nous l’a demandé et, de toutes façons, nous ne fonctionnons pas sur le mode de l’enquête mais celui de l’évaluation par les pairs. Hiérarchiser des contenus n’est pas de notre compétence pour une seule bonne raison : la liberté académique est tout de même le meilleur moyen qu’a trouvé l’humanité pour avancer en matière de connaissances. Que la recherche suive les mouvements de la société — le genre, le postcolonialisme —, quoi de plus naturel ? Ce n’est certainement pas au Hcéres de conseiller d’éviter certains sujets de recherche. Si des conférences [notamment celle-ci, NDLR] sont annulées, mieux vaut en référer à l’Inspection générale. Nous faisons des synthèses disciplinaires — épigénétique, archéologie, virologie —, les études postcoloniales me semblent être un sujet trop étroit pour rentrer dans ce cadre. Par ailleurs, l’islamogauchisme n’est qu’une forme de positionnement politique, pas un sujet scientifique. En revanche, il est bien dans les missions du Hcéres de veiller à la qualité et à la pluralité dans tous les domaines de l’activité académique, ce qui implique en particulier d’être vigilants sur la distinction entre discours scientifiques et discours militants de toute obédience.
Categories
Actualité

Retour aux origines des cryptomonnaies


Moins sérieux que le Bitcoin, le Dogecoin
La révolution du Bitcoin prend ses racines dans la recherche et y fait aujourd’hui un retour en force.

Tout débute dans les années 1980 dans le sillage des travaux sur la cryptographie moderne. De très nombreux protocoles sont développés par des chercheurs qui marqueront l’informatique : Merkle et son arbre, Chaum et ses clés publiques, Haber et l’horodatage… Voilà pour les origines.

Avec la décennie 1990 prend forme l’idée de reproduire une monnaie numérique, sans autorité et décentralisée : la cryptomonnaie. Celle-ci sera très populaire dans le mouvement crypto-anarchiste des cypherpunks, composé d’ingénieurs de la Silicon Valley. Mais, après quelques tentatives, le mouvement semble s’éteindre vers 2000…

C’était pour mieux revenir en 2009 avec l’arrivée du fameux Bitcoin. C’est une révolution : à la fois parce qu’il assemble des protocoles provenant de thématiques variées mais surtout pour son élément phare : la blockchain – un registre sécurisé distribué entre les collaborateurs du projet.

A partir de là, une culture propre aux cryptomonnaies va se développer en dehors du champ académique. Le caractère open source permettra leur multiplication (il en existe plusieurs milliers aujourd’hui), notamment Ethereum et ses contrats intelligents ou la monnaie Tether adossée au dollar américain.

Les deux mondes se reconnectent avec le financement privé de recherches académiques, comme dans le cas de la monnaie Cardano en 2017. Face aux enjeux économiques et écologiques, les partenariats continuent de fleurir : l’Inria vient de signer un accord avec Nomadic Labs pour financer des recherches sur Tezos.
Le Bitcoin, un échec ?

Si le Bitcoin est une révolution technologique, il l’est aussi du point de vue économique. Ainsi que le rêvait l’économiste Friedrich Hayek avec son modèle de free banking, il s’agit de la première mise en application d’un système monétaire auto-régulé. Mais aujourd’hui, malgré ses mille milliards de dollars de capitalisation, l’aventure Bitcoin est perçue par certains comme un échec : peu utilisé pour des transactions, il sert aujourd’hui à la spéculation. Et la bulle pourrait bientôt exploser.
Les stars des cryptomonnaies

Le pionnier.  Avec d’autres chercheurs, David Chaum s’intéresse à la cryptographie dès les années 1980, notamment aux communications anonymes. Reconnu comme le père des cryptomonnaies, il en lancera d’ailleurs plusieurs.

Le cypherpunk. L’ingénieur Timothy C. May publie en 1992 son Crypto Anarchist Manifesto, fondateur du mouvement cypherpunk. Méfiant envers les gouvernements, lui et ses acolytes Eric Hugues et John Gilmore veulent préserver la vie privée grâce à la cryptographie.

 Le mystère. Satoshi Nakamoto est le célèbre créateur du Bitcoin. Derrière ce pseudonyme se cache certainement un ou plusieurs informaticiens proches du milieu académique. Son livre blanc mentionne la perte de confiance dans les banques après la crise de 2008. 

L’écolo. Co-fondateur d’Ethereum avec le surdoué Vitalik Buterin, Charles Hoskinson financera des projets de recherche pour améliorer la technologie blockchain. Ce partenariat débouchera sur la création d’un premier système plus écolo, Cardano, en 2017. 

Le trader. Avec l’argent gagné à la Goldman Sachs, Arthur Breitman décide dès 2014 de créer une cryptomonnaie. Avec sa femme Katleen, ils seront sous le feu d’un scandale financier mais Tezos, basé sur une nouvelle génération de blockchain, reste l’objet de nouveaux espoirs.
Categories
Actualité

Des ciseaux à utiliser avec précaution


Doigts de zinc ou mains d’argent ?
Pourquoi un cadre éthique à l’utilisation de CrisprCas9 est indispensable.

Interrogations congénitales. La codécouvreuse de CrisprCas9, Jennifer Doudna (voir encadré), s’est posée très tôt, dès 2015, la question des limites qu’il fallait poser à son utilisation, notamment l’édition de génomes humains. Quelques mois après, une étude chinoise controversée publiait de premiers résultats sur des embryons humains, appelés Lulu et Nana.

Eugénisme soft. Le chercheur He Jiankui a été condamné à trois ans de prison pour cette expérimentation hors cadre, dont sont nés deux enfants supposément résistants au VIH et qui seraient aujourd’hui âgées de 3 ans. De plus, Lulu et Nana pourraient éventuellement transmettre cette caractéristique à leur descendance.

Crispr babies. En attendant d’avoir plus de recul, la communauté scientifique appuie des deux pieds sur le frein, comme préconisé par un panel international en septembre dernier. L’Organisation mondiale de la santé travaille également depuis 2019 à un registre des travaux sur les embryons humains. Le futur, c’est aujourd’hui. 

La liste des applications de Crispr-Cas9 est potentiellement infinie  ; la technologie est utilisée dans près de 3000 laboratoires dans le monde à des fins diverses (comme étudier le cerveau de Néanderthal) mais surtout par une myriade de startup en medtech ou en biotech, ce qui laisse espérer le meilleur pour les années à venir.
Avec Crispr-Cas9, le temps s’accélère

Pour éditer un gène (ajouter ou enlever des séquences), les chercheurs ont désormais trois solutions : les nucléases à doigt de zinc, Talen… et Crispr-Cas9 depuis une demi-douzaine d’années. Si vous voulez briller, sachez que Crispr signifie Clustered Regularly Interspaced Short Palindromic Repeats. Chacune a des inconvénients mais Crispr-Cas9 a deux avantages certains  : sa facilité d’utilisation et sa rapidité : de 10 à 100 fois plus véloce que ses prédécesseurs. Son travail de coupe connaît néanmoins des ratés, comme le pointaient des chercheurs dès 2018.
Categories
Actualité

Les trois frenchies derrière Crispr


Chauvinisme express
L’histoire de Crispr-Cas9 est un long roman qui passe par l’Hexagone.

Travail d’équipe. Si l’histoire populaire ne retiendra qu’Emmanuelle Charpentier et Jennifer Doudna pour la découverte de CrisprCas9 avec ce papier fondateur, elles n’ont pas cheminé seules. Outre les travaux pionniers d’Atsuo Nakata sur le sujet (voir encadré ), Rodolphe Barrangou et Philippe Horvath, co récipiendaires en 2016 du prix Gairdner (le « bébé Nobel »), ont également joué un rôle de premier plan dans cette découverte.

Agroalimentaire… Ces deux autres frenchies ont des profils moins « académiques » que leurs consœurs : Philippe Horvath a rapidement rejoint le groupe agroalimentaire Rhodia (racheté par le danois Danisco en 2004) après sa thèse en 2000 pour travailler sur les ferments lactiques. Idem pour son cadet de cinq ans Rodolphe Barrangou débauché lui par Danisco en 2005… avant que Danisco soit absorbé par le géant DuPont en 2011 et par IFF il y a quelques jours.

…mon cher Watson. Mais pourquoi se sont-ils intéressés à Crispr ? Initialement pour fabriquer des yaourts. Les ferments à l’origine de nos produits laitiers utilisent en effet CrisprCas9 pour se défendre contre leur prédateur naturel, des virus appelés bactériophages. Danisco s’empresse à partir de 2005 de déposer une volée de brevets autour de CrisprCas9 avant que les deux frenchies, pourtant chercheurs dans le privé, ne publient leur découverte dans Science. La consécration. Et le début d’une longue histoire. 

The rest is history   La communauté Crispr — qui se réunit tous les ans lors d’un CrisprCon — devient subitement beaucoup plus nombreuse et affine ce procédé aux applications vertigineuses (voir plus bas). En 2018, pas moins de 1 300 publications mentionnaient Crispr.
Trombinoscope (non exhaustif) de Crispr 

Emmanuelle Charpentier  Chercheuse à la carrière internationale et au franc parler certain, elle simplifie CrisprCas9 avec Jennifer Doudna pour en faire un outil d’édition génétique. Nobel, bien sûr. 

Jennifer Doudna La corécipiendaire du Nobel Crispr, chercheuse à Berkeley, elle s’est très tôt inquiétée des applications de CrisprCas9 et l’a narré dans ce récit à la première personne.

 Philippe Horvath Après un doctorat à Strabourg, ce chercheur a fait toute sa carrière dans le privé et a déposé 62 brevets liés à la technologie Crispr qu’il a contribué à faire émerger.

Rodolphe Barrangou Collaborateur de Philippe Horvath chez Danisco, il est maintenant professeur à l’universersité de Caroline du Nord et rédacteur en chef du Crispr Journal depuis sa création. 

Atsuo Nakata Ce pionnier de Crispr a publié en 1987 un papier fondateur sur ces obscures séquences génétiques qui, 30 ans plus tard, sont en train de révolutionner la biologie. 
Categories
Actualité

Approuvé par l’Elysée


Un autographe sur un cahier de manip’
Quels étaient les enjeux de la visite présidentielle de jeudi dernier ? 

Emmanuel Macron est venu aux labos. Et pas n’importe lequel : le centre de nanosciences et de nanotechnologies de Palaiseau, dépendant du CNRS et de Paris-Saclay, est l’une des fiertés de la recherche française. Une “séquence”, comme disent les communicants, en deux temps.

Face A : la déambulation

Des chercheurs en vitrine. Avec pour guide le directeur du C2N, le Président a déambulé dans les couloirs et admiré à travers les fenêtres des hommes en blouses vertes dans les salles blanches – ces salles très propres où ont lieu fabrication, assemblage ou même expérience d’une extrême précision. Par des signes de la main, ils se saluent et se remercient.

Quandela, la star(up). Emmanuel Macron passera plus de temps avec Quandela, une startup accueillie par le CNRS. Dans une salle remplie de tables optiques et de cryostats sifflant, un doctorant de seconde année présente la “manip”. Le Président lui demandera ce qu’il veut faire plus tard : rester dans la recherche – ouf ! A condition d’avoir un poste.

Echange de bons procédés. Valérian Giesz, co-fondateur de Quandela ne s’arrête plus de remercier le Président et les services de l’Etat qui ont aidé la start-up depuis son lancement : « Quandela est derrière vous ». En échange d’un cadeau – une source de photons uniques fibrée sur puce – Emmanuel Macron signe leur livre d’or.

Tandem. Enfin, deux paires d’acteurs privés, à chaque fois un gros industriel et une petite startup, présentent leurs dernières avancées : Thalès et Muquans sur les capteurs (c’est-à-dire antennes et mesures inertielles), Atos et Pasqal sur les ordinateurs quantiques. Les entrepreneurs sont confiants : la France n’est pas en retard.

Face B : le discours

Des chercheurs heureux. Dans le hall du C2N, sont présents pour le discours quelques chercheurs, mais aussi des acteurs du privé comme Olivier Ezratty. Ce sont eux qui poussent pour ce plan depuis 2018 et ils sont aujourd’hui récompensés. Comme le physicien Alain Aspect, mentionné plusieurs fois lors de la visite et qui a été cité par le Président pendant son discours.

Le sens du poil. Collectif et coopération sont des mots qui reviendront plusieurs fois dans la bouche du Président qui a remercié les chercheurs dans leur ensemble : « c’est grâce à vous » et « votre travail »… et mis en avant une recherche libre – voulant certainement trancher avec de récentes polémiques.
Categories
Actualité

Être quantique (ou ne pas être)


Le prochain processeur sera quantique
Science-fiction pour les profanes, défi pour les physiciens, enjeu pour les étants, le quantique fascine. Voilà pourquoi.

Back in the days. Le quantique, c’est quoi ? Des nouvelles technologies informatiques et de communication basées sur les principes de la mécanique quantique. Cette dernière a révolutionné la physique à partir des années 1920 avec des concepts qui ont fait tourner les méninges des plus grands physiciens et mathématiciens : Planck, Einstein, Dirac, Heisenberg…

Un monde parallèle. Parmi ces concepts, on peut citer la superposition d’état : tel le chat de Schrödinger à la fois mort et vivant, une particule peut être dans deux états en même temps tant qu’on ne la “regarde” pas. Mais aussi l’intrication – deux particules ont des corrélations fortes même si elles sont très éloignées.

Un potentiel à explorer. Les applications de ces concepts aux technologies de l’information datent des années 1980-90 avec le développement de protocoles de cryptographie plus sécurisés, mais également d’algorithmes beaucoup plus efficaces. Toujours en théorie bien sûr.

Souveraineté. Des applications qui intéressent bien sûr la défense, que ce soit en France avec la direction générale de l’armement (DGA) ou bien aux Etats-Unis avec la Darpa. Rester dans la course internationale est donc une question de souveraineté nationale tant sur le plan industriel que sur le plan militaire, comme l’a souligné Emmanuel Macron dans son discours à Saclay.

La révolution en marche. Ces technologies quantiques ont beaucoup avancé grâce à la recherche fondamentale depuis 20 ans, et même si l’ordinateur quantique n’est pas pour demain, on semble être à un moment charnière. En quelques années, de nombreuses start-up de technologies ont éclos – une vingtaine rien qu’en France – et semblent trouver des investisseurs et de potentiels clients – notamment dans la finance.
Le plan quantique en quatre points 

Une enveloppe conséquente. L’Etat promet un investissement total de 1,8 milliards d’euros sur quatre ans – provenant pour environ un milliard de ses poches, 500 millions d’euros du privé et le reste de l’Europe. Le paquet est mis sur l’ordinateur quantique avec 800 millions d’euros.

Combien pour la recherche fondamentale ? 725 millions d’euros seront distribués aux organismes de recherche. L’entrepreneuriat (fonds d’investissement, incubateurs) est aussi à l’honneur avec presque 440 millions d’euros. Pour comparaison, l’Europe avait lancé en 2018 un Quantum Flagship à hauteur de 1 milliard d’euros sur dix ans.

Instituts et universités. Le programme et équipement prioritaires de recherche (PEPR pour les intimes, 150 millions d’euros pour début 2021) sera piloté conjointement par le CNRS, le CEA et l’Inria. Mais les universités n’ont pas envie d’être oubliées et l’Udice a mis en avant trois grands “hubs quantiques” français parmi ses ouailles (Paris-Saclay, Grenoble-Alpes et Paris Centre).

Et les permanents ? Au niveau humain, 100 bourses de thèse ainsi que 50 financements de postdocs sont prévues par an. Auxquelles viennent s’ajouter 10 bourses jeunes talents par an pendant cinq ans. Pas de postes permanents, donc, pour encadrer tout ce beau monde.