
Face à la Silicon Valley
Si le numérique est devenu crucial dans nos vies, les algorithmes semblent occulter le fait que nos choix ne soient pas seulement motivés par des calculs rationnels, mais aussi par des valeurs, des intuitions, etc. N’est-ce pas finalement très réducteur que de se voir proposer des choix uniquement sur la base des calculs de la machine ?
Bien sûr ; c’est tout l’enjeu de ce qu’on développe sur la notion d’éthique. Sur la partie algorithmique, on peut peut-être distinguer deux types d’enjeux, éthiques et économiques : l’intelligence artificielle combine l’aspect données et l’aspect algorithme. Sur la partie des données, beaucoup de progrès ont été faits, des régulations se mettent en place pour un usage raisonné et transparent. Par ailleurs, il y a des données plus importantes que d’autres : localisation, santé, informations bancaires, etc., ce qui implique de distinguer différents niveaux de service, différents types d’usages… Et il ne faut pas oublier que l’IA est un outil au service de l’Homme. Ça reste de simples modèles faits pour nous aider à choisir des sujets, nous proposer tel produit ou tel service, mais ça ne peut pas être une façon de guider nos consciences ou notre façon de vivre. La grande différence entre un algorithme et un être humain, c’est que l’algorithme ne peut pas mourir. A ce propos, des chercheurs français ont travaillé sur la notion d’apprentissage : comment un humain apprend, quels sont les différents âges de l’apprentissage, etc. Or il y a toujours, à un moment donné dans notre subconscient, cette question de la mort face au choix ultime. En définitive, ça va nous permettre de prendre une décision sur un enjeu. (ref : L’intelligence humaine n’est pas un algorithme, Olivier Houdé, ed. Odile Jacob)
La grande différence entre un algorithme et un être humain, c’est que l’algorithme ne peut pas mourir.
Il faut également distinguer ce qui relève de la marchandisation des données (développement autour de la consommation). Ces deux mois de confinement nous ont montré que les habitudes de consommation étaient en train de changer. Dans le domaine du tissu et de l’habillement, peu à peu les clients souhaitent avoir moins de choses dans leurs placards, mais des choses développées avec une fabrication plus durable, plus éthique. Cela s’est accéléré avec la Covid : on consommait[paywall] moins. L’IA peut donc être utilisée pour pousser à la consommation, même s’il revient à l’individu d’accepter ou pas d’acheter un bien ou un service dont il pourrait se passer. Il y a en revanche une vraie assistance avec d’autres applications. Les travaux effectués en ce moment par les Chinois sur la détection des tumeurs au cerveau grâce à l’IA en font une véritable assistance pour les neurologues (système BioMind, qui s’appuie sur dix ans d’archives).
Néanmoins, ne peut-on pas imaginer une forme d’algorithmie dans laquelle l’usager pourrait intervenir beaucoup plus facilement au niveau du process de calcul ?
Déjà pour les chercheurs, il y a encore énormément de travail en matière d’algorithmie, mais certains travaux commencent à aller dans la direction que vous évoquez. Ça consisterait en fait à changer votre profil, en introduisant de nouvelles variables ou en en supprimant certaines. On parle ici de milliers de caractéristiques qui décrivent un individu ; bien plus que son genre, son âge et son adresse. Donc je ne pense pas que ce soit simple à mettre en œuvre techniquement. Il y a trois ans, on a travaillé en collaboration avec la Fing sur un projet qui s’appelait « Mes données, Ma santé », où l’enjeu était de savoir à qui appartenait le profil santé d’un individu. Appartient-il à l’individu ? à l’assurance maladie ? S’il appartient à l’individu, comment est-ce qu’on le protège ? L’individu a-t-il la possibilité de revendre ses données de santé ou pas ? Il y a de nombreux débats là-dessus. On ne peut par exemple pas vendre son profil génétique. En outre, avec la donnée, il y a la grande question de l’interopérabilité, qui demeure la grande promesse du RGPD… Le jour où chaque usager aura la possibilité de faire le choix libre et éclairé de retirer toutes ses données d’une plateforme pour X raison, on aura franchi une première étape dans la capacité à comprendre comment fonctionne un algorithme et dans la capacité que l’on peut avoir à abandonner un service numérique – ce qui est aujourd’hui quasiment impossible. Du point de vue de ce qu’on appelle la littératie numérique (capacité à comprendre les outils, à les influencer, avoir un poids économique ou simplement en termes d’usage), il y a encore beaucoup à faire. Aujourd’hui, la seule chose contrôlable avec les données, c’est quelles sont les données me concernant que vous êtes autorisé à utiliser dans votre système.
Concernant les réseaux sociaux, surtout Facebook, il me semble qu’ils tendent à enfermer les gens dans des choix fermés… Ne pourrait-on pas imaginer un réseau social dans lequel on pourrait justement introduire plus d’éléments de création, d’apprentissage et autres choses de ce type ? Wikipédia, c’est excellent : ne peut-on pas faire des choses de ce genre en matière de réseau social ?
Je partage votre avis sur le fait que certains réseaux sociaux nous enferment un peu parce que les algorithmes de proposition regroupent ensemble des choses similaires pour nous proposer systématiquement certaines thématiques[1]. On ne peut pas faire grand-chose contre ça. En revanche, ce sur quoi on peut travailler, c’est le niveau d’influence des réseaux sociaux sur certaines thématiques. On a récemment réalisé des études épidémiologiques pour analyser le comportement des gens pendant la crise de coronavirus, avec des questions ciblées pour évaluer l’influence des réseaux sociaux en matière de vaccination. Comme le réflexe des gens, désormais, c’est d’aller sur un Internet et en particulier tel ou tel réseau social pour trouver une réponse aux questions qu’ils se posent, l’enjeu, aujourd’hui, c’est de développer des outils de type détection des fake news et deepfakes. C’était tout à fait marquant pendant la crise sanitaire. On a cependant des adhérents qui développent de nouveaux types de réseaux sociaux – à une échelle plus petite. Je pense au travail d’Alain Garnier avec sa plateforme Jamespot.

Ne serait-il pas possible de concevoir des plateformes et des modes d’algorithmie un peu différents au niveau européen ?
C’est une des promesses du moteur de recherche européen Qwant, dont l’algorithme ne conserve jamais en mémoire les recherches de ses utilisateurs et ne les exploite pas à des fins publicitaires. Chez Cap Digital, on a gagné le projet européen « AI4cities »[2], qui envisage l’usage de l’IA sur le territoire pour accélérer leur neutralité carbone, et je suis certain que ça va effectivement donner lieu à de nouvelles idées. En effet, on arrive à combiner ici à la fois un besoin des entreprises, des chercheurs (sciences dures et sciences humaines), des territoires pour expérimenter et de nombreuses associations qui travaillent avec nous. L’IA fait partie des enjeux de l’après Covid.
Cela dit, dans le Plan Tech, les questions de souveraineté (histoire des API Google et Apple) ressortent énormément, avec pour objectif la création d’un cadre souverain européen. Nous aimerions que ce plan intègre aussi tout ce qui concerne la création d’une société plus résiliente, plus responsable, plus inclusive face aux défis que cette crise a mis en relief.
Chez Cap Digital, on a des « communautés » ayant vocation à réunir une à deux fois par an les 100 ou 200 membres qui travaillent sur un sujet afin de les faire réfléchir collectivement aux tendances et aux enjeux structurants de leur secteur. Il est clair que la donnée sous tous ses aspects (donnée personnelle, donnée numérique, usage de la donnée, usage éthique, raisonnée et responsable de la donnée, la donnée comme valeur économique…) est au cœur de notre travail.
On a également créé un baromètre pour savoir comment nos start-ups vivent la crise, comment les solutions mise en place par le gouvernement et les régions pour nous aider à traverser cette crise (chômage partiel, prix garantis par l’Etat ou par la région…) ont fonctionné.
Sur la question de la souveraineté, que devrions-nous faire pour essayer de retrouver des capacités technologiques, au moins au niveau de l’Europe ?
Plusieurs plans sont en cours. Le premier passe par l’indépendance en termes de processeur (programme EuroHPC qui vise à doter l’Europe d’ici 3 ans d’un premier supercalculateur de classe Exascale – plusieurs milliards d’euros d’investissement). Ce qui est intéressant, c’est qu’il y a quand même la société Atos, vue comme un acteur majeur en termes d’IA et de traitement des données : cela montre qu’il y a malgré tout des acteurs européens sur lesquels on peut s’appuyer. Il y a également un grand projet qui vient d’être annoncé, Gaia-X, lequel vise à créer un cloud souverain européen. Toutefois, ces infrastructures sont très orientées vers la recherche académique, et quand on bascule vers l’industriel on n’a plus grand-chose. Il y a donc un rééquilibrage à faire entre les besoins académiques et ceux du monde économique. Par ailleurs, il faut également tenir compte du bout de la chaîne, à savoir l’accès au marché. Or, aujourd’hui on a un marché européen qui n’est pas aussi structuré, culturellement, réglementairement et financièrement parlant que ce qu’on peut trouver chez nos concurrents américains et chinois. Il y a beaucoup à faire pour que les entreprises qui se montent en France, en Allemagne, en Espagne et en Italie soient dès le début capables de penser marché européen et accès au marché européen. Donc l’Europe est un enjeu que je défends depuis le début de ma présidence : il faut apprendre à nos entreprises à travailler en Europe avec d’autres entreprises européennes et des instituts de recherche européens. Il y a certes toujours le rêve de réussir aux Etats-Unis, mais le développement d’un bon ancrage européen est ce qui va permettre aux entreprises d’ensuite se projeter outre-Atlantique. Culturellement, ce n’est pas un message évident… D’où notre rôle d’éducation et de mise en relation des acteurs français, via nos partenariats, avec d’autres clusters technologiques en Europe.
Le développement d’un bon ancrage européen est ce qui va permettre aux entreprises d’ensuite se projeter outre-Atlantique.

Il y a aussi la notion très européenne de territoire, pour le coup absente de la vision américaine.
En effet. Pendant des années, on a essayé de copier le modèle de la Silicon Valley, c’est-à-dire l’hyper croissance, un statut hégémonique… Or ce modèle ne laisse pas vivre les concurrents, donc c’est d’autant plus difficile quand on est Français ou Européen d’arriver à s’installer aux Etats-Unis, avec des freins réglementaires qui sont extrêmement puissants et en plus un modèle d’innovation qui vise à être le seul à réussir et à écraser ses concurrents. Là, ce qu’on est en train de créer au niveau européen, c’est effectivement un modèle plus éthique, plus responsable, plus proche des territoires et des citoyens, plus durable, plus sobre et plus résilient dans son impact environnemental. C’est un modèle qui s’affirme peu à peu et se renforce dans sa singularité vis-à-vis du modèle américain hégémonique Silicon Valley ou du modèle chinois mortifère en termes d’utilisation des données personnelles et de respect de la vie privée des individus. Et, parce que cette vision est de plus en plus partagée au niveau européen, nous croyons que ce sera de plus en plus facile culturellement parlant de réussir à créer notre modèle.
Ce qu’on est en train de créer au niveau européen, c’est un modèle plus éthique, plus responsable, plus proche des territoires et des citoyens, plus durable, plus sobre et plus résilient dans son impact environnemental.
Propos recueillis par Didier Raciné
Rédacteur en chef d’Alters Média
[1] Ce que le militant d’Internet Eli Pariser a conceptualisé à travers la notion de « Filter bubble » ou « bulle de filtrage », qui désigna le filtrage de l’information opéré par les réseaux sociaux et les moteurs de recherche. Selon lui, cette personnalisation à outrance crée in fine un effet d’« isolement intellectuel ».
[2] « Le projet a pour vocation d’accompagner les villes partenaires dans leur capacité à pouvoir déployer des solutions intelligentes pour réduire les émissions de gaz à effet de serre et atteindre leurs objectifs de neutralité carbone. » Source : capdigital.com.