L’intelligence artificielle dans ses derniers développements est source de fascination et des espoirs les plus fous, mais aussi l’objet des craintes les plus vives. Les impacts sont multiples : démocratiques, sociaux, environnementaux, géopolitiques... À quelles conditions cette innovation peut-elle tenir ses promesses et répondre aux défis majeurs de notre temps ?
Qui n’a pas été de prime abord saisi par la performance de l’IA générative en injectant un prompt dans Chat GPT ? Le robot conversationnel d’Open AI a mis cinq jours pour attirer un million d’utilisateurs, deux mois pour atteindre la barre des 100 millions. Deux ans après le lancement de cet outil, et en dépit des multiples erreurs et hallucinations qu’il continue à générer, cette vitesse d’adoption inégalée signe au-delà de simples visites de curiosité, la reconnaissance par le grand public d’un outil inédit de par sa versatilité : rédaction de texte, synthèse, brainstorming, traduction...
Et ce n'est bien entendu que la partie émergée de l’iceberg, puisque l’intelligence artificielle générative annonce des victoires nombreuses dans des champs aussi divers que la recherche pharmaceutique, l’agriculture de précision, l’éducation personnalisée ou encore l’optimisation énergétique.
Digital naives vs. prophètes de l’apocalypse
Face à cette disruption technologique majeure, les débats qui occupent l’espace médiatique sont souvent polarisés. S’y opposent les « digital naïves » aux prophètes de l’apocalypse. Les premiers placent en l’IA une confiance aveugle et, dans un rapport magique au techno-solutionnisme, nourrissent de grands espoirs y compris d’immortalité ; ceux-là balaient du revers de la main toute critique formulée à l’encontre des développements de cette technologie en taxant les dubitatifs de dinosaures anti-progrès.
À l’exact opposé, les seconds brandissent un scénario catastrophe apocalyptique et satanisent l’IA en lui prêtant des intentions maléfiques ; ceux-ci voient la prise de contrôle de cette « intelligence » – souvent montrée sous des atours anthropomorphisés – sur l’humain comme inéluctable.
Nul doute que ces deux extrêmes soient fantasmés et confisquent les clefs d’un débat productif sur ce sujet de haute importance. Premier mythe à déconstruire : il ne s’agit pas d’une intelligence. Comme le rappelle la spécialiste des sciences computationnelles Aurélie Jean, il est plus approprié de parler d’algorithmes et il est crucial de comprendre ce qu’ils peuvent faire et ce dont ils ne seront jamais capables. « La machine ne maîtrise que l’intelligence analytique » rappelle-t-elle, là où l’humain est doté également d’intelligences émotionnelle, créative et pratique. Exit donc la croyance selon laquelle les modèles algorithmiques soient à même de créer, ou plus, selon la théorie de la singularité, d’avoir une conscience propre et de se substituer à l’Homme. Le grand remplacement de l’humain par la machine ne serait donc pas à l’ordre du jour.
En revanche, ces modèles algorithmiques sont déjà bel et bien présents dans notre quotidien sans que nous en ayons conscience : ils sont utilisés pour les prévisions météorologiques, les contrôles antifraudes de paiement bancaire, ou encore les applications de navigation pour calculer les itinéraires en temps réel.
Et le rythme des innovations accélère. C’est une déferlante technologique totalement diruptive dont la cadence des derniers développements est bien plus rapide que ce que les experts avaient prévu. Les récentes recherches sur le potentiel transformatif de cette technologie convergent : l’IA est amenée à modifier de nombreux pans de notre économie et notre société. Une étude récente de J.P. Morgan estime ainsi que l'IA générative pourrait augmenter le PIB mondial de 7 à 10 trillions de dollars, soit jusqu'à 10 %. Selon le dernier rapport de Implement Consulting Group, cette technologie pourrait, en cas d’adoption rapide, accroître le PIB du Luxembourg de 9 % en dix ans. Certes, mais pour quels bénéfices tangibles ? La question de la finalité est ici centrale. Oui, ces promesses de croissance sont impressionnantes, mais pour quel impact ? Il ne s’agit donc pas d’être anti-tech mais d’adopter ou de déployer cette technologie avec discernement, bref d’être techno-lucides, car les écueils et points de vigilance sont multiples.
Une intelligence tout sauf artificielle
Les chiffres relatifs aux impacts environnementaux de l’IA ne sont pas tous arrêtés car le secteur est en pleine transformation, mais ceux dont on dispose sont vertigineux. Ils sont liés à la nature même de l’industrie, à savoir, la course à la puissance de calcul.
Le corolaire de cette compétition effrénée se matérialise dans l’explosion des data centers à travers le monde : ceux-ci sont passés de 500 000 en 2012 à 8 millions aujourd’hui. Selon le cabinet Synergy Research, les centres nouvelle génération de grande capacité devraient voir leur nombre tripler d’ici six ans. L’agence de l’énergie prévient même que les centres de données irlandais pourraient, dès 2026, consommer 35 % de l’énergie de ce pays qui s’est positionné à la pointe dans ce domaine, avec une mise en garde contre un risque de saturation du réseau électrique en période d’hiver rigoureux. Rien d’étonnant lorsque l’on comprend qu’une requête sur un outil d’assistance IA tel Chat GPT consomme de 10 à 30 fois plus d’électricité qu’une recherche via une interface de navigation classique sur internet.
Les centres de données irlandais pourraient consommer 35% de l'énergie du pays dès 2026.
Comme le souligne Lou Welgryn, co-présidente de Data for Good, « les algorithmes viennent mettre sous stéroïdes une économie déjà excessivement carbonnée. » Son organisation a évalué le déploiement de l’IA à 2 % d’émissions supplémentaires par an, là où au contraire, une réduction annuelle de 7 % est nécessaire pour limiter le réchauffement climatique. Ce boom technologique semble déjà compromettre tous les plans d’atteinte de neutralité carbone des géants de la Big Tech. C’est surtout la vitesse de croissance qui est problématique, avec un développement des IA qui grimpe en flèche et des énergies renouvelables qui ne peuvent pas suivre le rythme.
Autre grand sujet de préoccupation : l’eau. Elle entre en jeu essentiellement pour refroidir les data centers, mais aussi dans les processus de fabrication du hardware. Selon des chercheurs de l’Université de Californie Riverside, la demande mondiale en IA pourrait être responsable de 4,2 à 6,6 milliards de mètres cubes de prélèvements d'eau en 2027, soit plus que le prélèvement annuel total de 4 à 6 pays comme le Danemark. Dans un monde où le manque d’eau est de plus en plus problématique pour certaines régions, la question devient majeure, pointant une question de conflit de ressources.
L'IA n’a d’artificiel que le nom car elle vient mettre sous stress de nombreuses limites planétaires. À cette liste d’impacts environnementaux colossaux viennent s’ajouter les mineraux rares et déchets électroniques dont seulement 22 % sont recyclés aujourd’hui. L’UNEP (United Nations Environment Programme) appelle à une évaluation rigoureuse des impacts de l’intelligence artificielle tout au long de son cycle de vie. Comme le souligne son Chief Digital Officer Golestan Sally Radwan, « Nous ignorons encore beaucoup de choses sur l'impact environnemental de l'IA, mais certaines des données dont nous disposons sont préoccupantes. Nous devons nous assurer que l'effet net de l'IA sur la planète soit positif avant de déployer la technologie à grande échelle. »
Des injustices algorithmiques
« Je suis médecin » peut-on voir s’afficher à l’écran. Quelques instants plus tard, le visage d’un homme blanc barbu apparaît. « Non, je suis une femme », lit-on alors. Le système rectifie et affiche le visage d’une jeune femme blanche. « Je suis noire », précise encore le texte... Il s’agit d’un projet de création audiovisuelle basé sur la technologie d'intelligence artificielle text-to-image latent diffusion model (LDM). Ce film expérimental « My Word » conçu en 2023 par la réalisatrice barcelonaise Carme Puche Moré explore les biais implicites de la technologie. Et ceux-ci sont nombreux : biais de genre, de race, d’âge, de langue... Ils sont majoritairement imputables aux données d’entraînement, mais aussi aux modèles eux-mêmes et à leur validation. Les algorithmes reflètent les biais humains présents dans les données, et pire, tendent à les amplifier de manière considérable.
On parle alors d’injustice algorithmique car cette différence de représentation « artificielle », en plus d’influencer les esprits, mène à des inégalités très concrètes dans la réalité. Ainsi, le biais d’âgisme peut par exemple tendre à écarter certaines tranches de la population des processus de recrutement basés sur l’IA. Aussi, les technologies de reconnaissance faciale utilisées dans certains pays, montrent des taux d’erreur dans l’identification des minorités noires ou asiatiques. C’est ainsi que l’Américain Robert Williams a été arrêté à tord en 2020 pour vol de montres car un logiciel avait jugé à tort identiques sa photo de permis de conduire et l’image du déliquant.
Des efforts sont entrepris par les Big Tech afin de corriger les biais dans les modèles en forçant la représentation non stéréotypée de populations invisibilisées, mais la tâche est colossale. En tout état de cause, le code ne sera jamais neutre et les algorithmes resteront le reflet de ceux qui les conçoivent.
Compétences requises à l'avenir : Compétences d'aujourd'hui vs. compétences de demain en Europe et aux États-Unis. Les cadres interrogés font état d'une demande croissante de compétences technologiques et cognitives avancées.
Quel travail demain ?
L’impact du déploiement de l’intelligence artificielle sur le travail est considérable. Bien entendu, en ligne de front, les travailleurs du clic sont la partie cachée et peu avouable de cette industrie aux gains mirobolants. Selon des chercheurs de l’Université d’Oxford, leur nombre au niveau mondial est estimé à 165 millions. Ils entraînent les modèles, épurent les bases de données, modèrent les contenus... Une étude publiée par l’Organisation Internationale du Travail des Nations Unies dénonce les conditions de précarité de cette main d’œuvre invisible : horaires tardifs voire nocturnes, salaire à la tâche et bien souvent en dessous des minimums légaux du pays, exposition à des souffrances psychologiques liées aux contenus violents des plateformes... Ces travailleurs pauvres 2.0 se trouvent aux quatre coins du monde et, contrairement aux idées reçues, ils sont assez nombreux au sein des économies développées où ils cumulent ces heures avec un autre emploi peu rémunérateur.
Au delà de cet impact direct de l’industrie des algorithmes, l’IA entraîne plus largement un profond bouleversement du marché du travail. Selon une étude internationale de BCG en 2024, déjà 43 % des sondés disent utiliser l’IA générative régulièrement dans le cadre professionnel et la confiance en l’outil augmente globalement. Les tâches banales sont allégées, ce qui permet au personnel de se concentrer sur des missions plus engageantes et plus stratégiques (automatisation des tâches répétitives, assistance à la prise de décision, amélioration de l’efficacité opérationnelle...). Pour 58 % des utilisateurs sondés, l’IA générative leur économise au moins 5 heures par semaine. En réalité, l’adoption très facile de cette technologie vient avant tout des salariés eux-mêmes, quand les entreprises semblent plus lentes à y recourir de manière structurée. Au Luxembourg, les organisations ne sont encore que 14 % à avoir adopté ces systèmes, contre 35 % chez les salariés. Une forte accélération est donc prévisible dans un avenir proche, et avec elle, un changement de l’anatomie du travail.
Part des emplois exposés à l'automatisation de l'IA générative au Luxembourg. Les chiffres incluent les frontaliers qui représentent près de la moitié des emplois.
D'où la question qui est sur toutes les lèvres : quels métiers seront modifiés ou même amenés à totalement disparaître ? La moitié des utilisateurs de l’IA pensent que leur métier peut devenir obsolète dans les dix ans. D’après une récente étude McKinsey, d'ici 2030, jusqu'à 30 % des heures de travail actuelles pourraient être automatisées ou accélérées par l'IA générative. En conséquence, l'Europe pourrait voir jusqu'à 12 millions de transitions professionnelles, soit 6,5 % de l'emploi actuel. Cette estimation converge avec celle d’Implement Consulting Group, qui prévoit, pour le Luxembourg, que 6 % des métiers sont sous risque (et 72 % des métiers complétés par l’IA sans devenir obsolètes pour autant). Ces estimations posent des questions profondes sur l’avenir du monde du travail et nos compétences. L’accélération technologique implique une stratégie de redéfinition des talents et un besoin en formation inédit (à travers des programmes d’up- et de reskilling). Ainsi, les entreprises prévoient, selon McKinsey, de reconvertir un tiers de leur main-d'œuvre actuelle pour remédier à l'inadéquation des compétences.
Les départements de ressources humaines se trouvent au cœur de la révolution technologique, car ils doivent anticiper la vaste mutation des talents, mais aussi car ils sont eux-mêmes de grands utilisateurs de l’IA. En effet, selon une étude Gartner, 80 % des entreprises y ont recours pour au moins un processus RH : analyse de la performance (feedback continu, traceurs de productivité), gestion des talents (plans de carrière) ou recrutement (sélection des CV et pré-entretiens). Bien évidemment, la vigilance s’impose car de nombreux risques y sont associés tels les biais algorithmiques, la protection des données, la surveillance excessive et le désengagement des salariés en réaction... Les entreprises doivent identifier les écueils spécifiques à l'IA afin de garantir les meilleures pratiques dans son déploiement et un cadre de gouvernance solide pour son utilisation. Surtout sans doute, ce recours à l’IA nous invite à une profonde réflexion sur la notion de conformation : souhaitons-nous vraiment nous plier aux règles des algorithmes lorsque nous rédigeons notre CV ? Lorsque nous enregistrons, lors d’un entretien fictif, notre vidéo de réponse à un employeur-robot qui jugera nos capacités relationnelles au score algorithmique du sourire qu’on saura lui adresser ? Que devenons-nous lorsque nous confions à une machine la sélection de candidats, lorsque nous demandons à l’IA de faire le tri entre les humains ? Renonçons-nous à la part de surprise, de créativité, de compétences inattendues, d’alchimie relationnelle, ou plus simplement de singularité d’un potentiel futur collaborateur ?
L’animal social diminué ?
Alors que, dans l'idée d'un Homme augmenté, la technologie nous promet d'accroître nos capacités, Tristan Harris, informaticien et éthicien bien connu dans la Silicon Valley et cofondateur du Center for Humane Technology nous invite à considérer, au contraire, qu’elle tend à dégrader les humains dans leur individualité mais aussi dans leur fonctionnement social. Dans son propos « How technology is downgrading humans », il nous rappelle les écueils de notre premier contact significatif avec l’IA, qui s’est produit à travers les réseaux sociaux : capacité d’attention réduite, isolement social, culture de la post-vérité, polarisation et extrémisme... Les impacts sur notre société sont nombreux et interconnectés. Ils sont la résultante d’un business model basé sur la course à l’attention et dépourvu d’une gouvernance adaptée.
Cette image devenue virale du pape vêtu d'une doudoune Balenciaga a été créée à l'aide du logiciel Midjourney.
Nous abordons donc notre deuxième grand contact avec l’IA sans avoir résolu ces premiers problèmes qui vont être amplifiés. Car le principe qui sous- tend cette accélération de la mise sur le marché de l’IA est la course au déploiement. Les entreprises mais aussi les États ne souhaitent pas prendre le risque de ne pas adopter cette technologie sous peine d’être dépassés et de perdre un avantage compétitif ou géopolitique majeur... Il y a sur ce point, et comme le souligne Asma Mhalla dans son ouvrage Technopolitique, un alignement des intérêts entre Big Tech et Big States. Pourtant les risques sont inédits. La liste à déplorer est en effet vertigineuse : baisse de certaines aptitudes cérébrales, désinformation massive, humains falsifiés, pornographie infantile truquée, fraude et criminalité exponentielles, langues délaissées et exclusion de la diversité, nations déstabilisées, cyber-armes ou armes biologiques automatisées...
Le défi, c’est que nous sommes déjà confrontés à nos limites cognitives et institutionnelles, à savoir la capacité de notre cerveau humain mais aussi de nos organisations à traiter cet afflux de données et à prévenir les risques majeurs associés. Face à la vitesse des développements technologiques, les voix sont de plus en plus nombreuses à se joindre à celle de Tristan Harris et appellent à accélérer nos efforts afin de se doter d’une gouvernance à la hauteur.
L’impératif d’une gouvernance adaptée
Le Center of Human technology revient sur l’approche qui a prévalu jusqu’à présent. « Pendant des années, la Silicon Valley a obéi à la mentalité 'move fast and break things', une logique qui consiste à aller vite et à tout casser. Mais comme nous le constatons, il y a beaucoup de choses qui se brisent. Le temps que les gens comprennent les externalités négatives d'une nouvelle plateforme, d'un nouveau produit ou d'un nouveau service, les effets néfastes peuvent être difficiles à éliminer. » Ceci souligne la nécessaire mise en place d’une gouvernance constituée de parties prenantes variées (voir notre interview de Marc Faddoul), mais cela pointe aussi le problème de temporalité qui se pose face à l’accélération des développements technologiques. Les institutions tentent en effet de réguler a posteriori, le rythme des institutions étant incapable de rivaliser avec celui de l’innovation IT. Pourtant la question est essentielle, car l’industrie des algorithmes profite d’une aire de jeu inédite sur de nombreux territoires.
L’Europe, avec l’IA Act fait figure de pionnière. À travers ce texte, il s’agit de la première entité de réglementation à établir un cadre juridique structuré encadrant l’intelligence artificielle. L’objectif affiché est d’avoir des systèmes fiables, éthiques, transparents et sécurisé. Une attention particulière est apportée au respect des droits fondamentaux (notamment en termes de surveillance ou d’impact sur la vie privée) et une approche par niveau de risque a été privilégiée. La loi interdit les applications et les systèmes dont le risque est jugé inacceptable, tels que les systèmes gouvernementaux de notation sociale, comme ceux mis en place en Chine. D’autres applications sont considérées à haut risque, comme dans le domaine de la justice, du recrutement ou des transport, et sont soumises à des exigences légales spécifiques. Le réglement européen va donc imposer aux entreprises, y compris aux start-ups, de nouvelles obligations en matière de conformité. Toute la difficulté est de trouver le bon équilibre entre régulation et encouragement à l’innovation, car si l’IA présente des dangers, elle est aussi source d’avancées prometteuses et peut apporter des réponses aux grands défis de notre temps.
Vers une IA à impact positif
L’intelligence artificielle constitue potentiellement un formidable outil pour répondre à certains enjeux clefs de notre société. Les exemples se multiplient. Dans le domaine de la santé, les progrès sont particulièrement notés en matière de diagnostic et de dépistage précoce. Sur le terrain humanitaire, les besoins liés aux catastrophes naturelles peuvent être anticipés pour calibrer et acheminer l’aide plus rapidement. L’IA vient également changer la donne sur le plan de l’éducation personnalisée. Sur le volet environnemental, de nouveaux systèmes permettent la réduction du gaspillage alimentaire dans les magasins, les hôtels et restaurants. L’agriculture de précision permet de surveiller les cultures, le niveau d’humidité des sols et ainsi de réduire les apports en eau et intrants. Des mouvements suspects sont identifiés par des algorithmes pour lutter contre le braconnage ou la pêche illégale. Aussi, les émissions carbone peuvent être réduites dans les bâtiments grâce à des algorithmes analysant en temps réel les besoins en énergie. Il existe un écosystème très fertile sur ces sujets, des start-ups aux géants de la tech, comme le Microsoft IA for Good Lab.
La question n’est donc pas « Pour ou contre l’IA » mais bien « Pour quoi ? ». Pour quels impacts positifs sur notre vie et notre planète ? Il est crucial de flécher l’innovation IA vers la résolution des grands défis de notre temps. À cet égard, la démarche de la Banque européenne d'investissement (BEI), qui investit dans une IA à impact positif, est inspirante. L’institution analyse grâce à l’IA des sources de données innovantes, notamment des textes et des images satellite, afin de l’aider à diriger ses financements, d'améliorer ses processus décisionnels et de mesurer l'impact de ses opérations. Très concrètement par exemple, la technologie permet de repérer les zones où les projets de réduction des émissions de méthane auront le plus d’impact et donc où il est très pertinent d’investir. Elle facilite également l’analyse détaillée des opérations et les mesures à prendre en matière de biodiversité marine. Elle est par ailleurs décisive dans l’évaluation des risques en matière de sécheresses et d’inondations qui détermina les stratégies d’atténuation de la banque. Et ce ne sont que quelques-uns des exemples d’une utilisation de l’IA pour le bien commun.
La technologie de l’IA est très puissante mais, avant de l’embrasser, les différents acteurs ne peuvent éluder la question de la finalité. À titre individuel (Cette génération d’images virtuelles de chats est-elle si amusante qu’elle mérite tant de consommation d’énergie et d’eau ?), mais surtout au niveau collectif (Quelle stratégie d’innovation définissons-nous ; Pour quels impacts ?). La question est éminemment politique, mais les entreprises sont également concernées en premier lieu. Celles-ci sont à la croisée des chemins, et la complexité du couple risques-opportunités souligne l’urgence de se doter d’une gouvernance avec un conseil multi parties prenantes dédié à ces problématiques. Trop rares sont les entreprises à en être dotées aujourd’hui alors que des garde-fous sont impérieux.
« La machine ne maîtrise que l'intelligence analytique », rappelle la chercheuse en IA Aurélie Jean. Une invitation à cultiver l'intelligence proprement humaine.
Intelligence humaine
Le moment appelle au discernement. Le débat doit descendre dans l’agora citoyenne et il incombe à chacun de s’emparer du sujet. D’ailleurs, des jeunes du monde entier le réclament à travers un manifeste intitulé « The Future We Want; Perspectives of over 5,000 Young People on A.I. for our Society » (Youth Talks on AI, 2024). Ils souhaitent accueillir la technologie dans une approche raisonnable et éthique. Surtout, ils soulignent l’importance de se prémunir contre un excès de confiance et donc de dépendance envers l’IA. Pour ce faire, ils insistent sur l’importance de ne pas compromettre notre capacité à vivre ensemble et notre esprit critique. Précisément, à l’heure où l’intelligence artificielle fait l’objet d’investissements massifs et accapare toute l’attention, cultiver l’intelligence humaine devient une priorité. Elle seule est la garante d’un déploiement éclairé de la technologie.
À lire aussi dans le dossier « IA, invitation à la techno-lucidité »