Skip to main content
Guide de la fin du monde (tel que nous le connaissons)

Que ferions-nous si nous savions que notre monde changerait si profondément au cours de notre vie que notre quotidien n’aurait plus rien de commun avec celui d’aujourd’hui? Et si nous savions que les enfants nés en 2025 ne connaîtraient jamais le sens des mots travail, inégalité des revenus ou privation?

Un jour, les algorithmes et les machines pourront faire tout ce que nous faisons, mieux et plus vite, et cela engendrera des bouleversements considérables au sein de la société, des entreprises et des gouvernements, allant jusqu’à remettre en question notre propre identité. Si l’humanité ne s’y prépare pas, nous le regretterons amèrement. Nous pourrions considérer 2024 comme ce moment fatidique que nous avons ignoré.

Ces chocs sont à nos portes. L’intelligence artificielle générale (IAG), un logiciel doté d’une intelligence semblable à celle de l’être humain et capable d’apprendre par lui-même, est peut-être sur le point d’atteindre un tel niveau de perfection qu’elle pourrait, du moins en théorie, commencer à remplacer à grande échelle les fonctions (mentales, physiques et peut-être même émotionnelles) qui caractérisent l’humain depuis des millénaires.

Est-ce que les chocs qu’elle provoquera se produiront dans dix ans ou dans cent ans?

En réalité, ce n’est pas très important. Nous savons déjà que le règne de l’humain sur la machine tire à sa fin. Nous sommes à l’aube d’une nouvelle ère d’amalgamation et d’interopérabilité, où les machines intelligentes pourraient s’insinuer dans tous les aspects de la vie.

Cette ère présente beaucoup d’inconnues et la société doit donc commencer à s’y préparer.

Des technologues, des universitaires et des cadres d’entreprises se sont réunis au printemps à Asilomar, en Californie, en vue de déterminer comment relever ce défi existentiel : que se passera-t-il si nous réussissons? Si, d’ici dix ans, l’IAG est capable de reproduire chaque tâche humaine? Et comment devrions-nous nous préparer à l’échelle planétaire?

Le contexte

Le passé est un prologue; c’est peut-être vrai pour ce congrès sur l’IA qui s’est tenu dans l’isolement tranquille d’Asilomar.

Posée au bord de l’océan Pacifique, au coin de la baie de Monterey, Asilomar est une retraite paisible souvent oubliée entre le spectacle de Pebble Beach et l’ambiance conviviale de Pacific Grove. Elle semble incarner le paradoxe que Gertrude Stein a énoncé à propos d’Oakland, sa ville natale, située à quelques encablures. Là-bas, il n’y a pas de « là-bas ».

D’un côté, on trouve l’océan et sa promesse d’infini et de l’autre, au-delà des montagnes côtières, s’étend la Silicon Valley et sa promesse infinie. C’est ici, aux confins de l’Amérique, que durant la deuxième révolution industrielle, la célèbre architecte de San Francisco Julia Morgan a conçu une retraite pour la Young Women’s Christian Association, la première dans l’Ouest américain.

Mme Morgan avait déjà contribué à la reconstruction de San Francisco après l’incendie de 1906 et avait décroché la commande déterminante de sa carrière, la conception du Hearst Castle, un peu plus loin le long de la côte, à San Simeon. Quand Asilomar a ouvert ses portes en 1913, le monde était au bord d’une révolution technologique qui ferait des avions, des voitures, des téléphones et des films les incontournables de la vie au XXe siècle.

Mme Morgan voulait offrir à la YWCA un endroit où il serait possible de se soustraire aux bouleversements à venir. Sur une des poutres en bois qui soutiennent la voûte de la « chapelle », elle a fait inscrire « L’Éternel est puissant dans les lieux hauts ». Par la suite, durant les Années folles, elle a reconnu que la montée du modernisme à l’américaine remettait en question cette vision du tout-puissant, en conférant des pouvoirs infinis à une nouvelle classe scientifique qui ne se souciait que de l’atome et de l’électron.

Près d’un siècle plus tard, une nouvelle génération de scientifiques et de technologues, et ceux qui les financent cherchent à nouveau à façonner la société avec l’IAG.
Peuvent-ils parer aux inconnues d’une révolution technologique sans commune mesure avec les précédentes? Trouveront-ils les moyens de faire cohabiter des machines autonomes et les humains qui en dépendent?

S’ils réussissent, est-ce que la société qui en résultera pourra réformer le capitalisme, ce que les Années folles n’ont pas réussi à faire, de façon à répartir équitablement les ressources même si les machines contrôlent les moyens de production? Est-ce que le reste de la société pourra imaginer de nouvelles façons d’accepter nos limites dans une économie infinie?

En regardant les dunes escarpées qui relient Asilomar au soleil couchant et les promesses de l’avenir, on peut se demander si les défis que pose l’innovation technologique ne sont finalement pas très différents de ceux qu’a connus Julia Morgan, à savoir tirer parti de la modernité, tout en la gardant à sa place. Pourtant, un siècle plus tard, cette nouvelle révolution semble unique, avec des promesses exponentielles aussi alléchantes que ses menaces existentielles sont sérieuses.

Voici quelques réflexions à ce sujet :

1. La promesse d’un surplus infini

La loi de Moore, selon laquelle la puissance de calcul double tous les deux ans, reste vraie de nos jours. En fait, au cours de la dernière décennie, la puissance de calcul a doublé tous les six mois. Jusqu’à maintenant, l’ingéniosité humaine a été capable de suivre le rythme de cette croissance. Nous savons comment utiliser les ordinateurs, les téléphones intelligents et les machines câblées à notre avantage. Cela dit, les humains auront peut-être plus de difficultés à s’adapter à la composition de la puissance de calcul propulsée par l’IAG, surtout quand les machines prendront des décisions de manière autonome et qu’elles pourront se déplacer. Dans 25 ans, les biorobots pourraient être plus nombreux que les humains et les agents virtuels chargés de nous informer, de nous conseiller et, finalement, de gérer notre vie de tous les jours pourraient être répandus.

Certains prévisionnistes croient que dans une génération, 80 % des emplois utiliseront une forme d’IA. On pourrait alors voir une augmentation presque infinie de la production économique, à mesure que la capacité mondiale augmente. Des services comme les soins de santé, l’éducation et les conseils financiers pourraient devenir gratuits, universels et en constante amélioration. Des enjeux fondamentaux (climat, traitement du cancer, criminalité, etc.) pourraient être réglés rapidement. Et même si les salaires s’effondrent en raison de l’abolition du travail, l’envolée de la productivité et de la production devrait aisément compenser cette perte, dans la mesure où des modèles de distribution efficaces sont établis.

Il est possible d’entrevoir la promesse de tels excédents, mais impossible de prédire quand elle se concrétisera. Comme toutes les technologies, l’IA suit la trajectoire lente et uniforme. Il est donc difficile pour la société de s’y préparer, de modifier les modèles de revenu et les régimes fiscaux, et de définir les attentes sociales. De plus, il est peu probable que l’adoption de l’IA et ses répercussions soient linéaires, surtout face à des modèles sociaux et économiques rigides. Le parcours cahoteux de l’IAG, ponctué de percées technologiques et de réactions sociales, pourrait faire en sorte que l’IAG se généralise avant que la société soit prête.

L’IA transformationnelle contribuera peut-être à distribuer les surplus qu’elle engendre, mais seulement si nous l’aidons à faire les deux à la même vitesse.

Ce qu’il faut :

Effectuer une recherche dynamique pour suivre le déplacement de la main-d’œuvre et la répartition des avantages dans l’ensemble de l’économie.

2. Ce que l’IA doit apprendre

De nombreux aspects de l’IA ne sont sans doute pas aussi intelligents que nous le croyons, comme le montrent les errements de ChatGPT. Cependant, l’IA semble progresser lentement et régulièrement d’abord, puis par bonds rapides et débridés. Comme un effet boule de neige.

À l’heure actuelle, la technologie fait une série de petits progrès, avec peu de grandes découvertes. L’une des raisons est que la plupart des modèles sont encore axés sur le calcul, plutôt que sur des objectifs. Les agents conversationnels, dont l’utilisation a explosé au début des années 2020, sont impressionnants par leur capacité à traiter des messages et à y répondre, mais ils ne traduisent pas une réflexion profonde des machines.

Nous devons passer des grands modèles de langage (GML) à des algorithmes capables de tirer des leçons d’expériences ordinaires et pas seulement d’ensembles de données bien conçus. En effet, les GML doivent peut-être s’attaquer à de plus grands défis, comme des variables confuses que les calculs ne peuvent pas démêler. L’IA peut aussi avoir besoin de plus de temps, d’outils et d’espace pour mettre à l’essai de multiples hypothèses et en tirer des leçons, plutôt que de recourir uniquement à la programmation et au raisonnement symbolique. En fin de compte, les systèmes devront s’améliorer pour comprendre les merveilles de l’esprit et de l’intuition des humains que les machines ne peuvent pas reproduire. Suggestion : « L’entraînement de l’IA devrait être considéré comme le rôle d’un parent plutôt que comme celui d’un programmeur. »

Agir envers l’IA comme un parent, qui enseigne à son enfant à ne pas mettre son doigt dans l’œil du chien et à ne pas toucher aux casseroles chaudes, peut se faire au moyen d’un apprentissage constant et approfondi. Cet apprentissage doit également sortir du cadre des politiques, en laissant les modèles dépasser les limites de leurs algorithmes, comprendre les aberrations et s’aventurer dans des ensembles de données discordants et superficiels. À cette fin, nous devrons accepter que notre relation avec l’IA ne soit plus seulement transactionnelle, mais continue (comme la différence entre élever nos enfants et les confier à la garderie). Nous devrons peut-être aussi accepter que des systèmes passifs se mettent à apprendre.

En fin de compte, il faudra développer la capacité de l’IA à anticiper et s’adapter. Plutôt que prévoir, les machines devront planifier. Et comme la plupart d’entre nous le font, il faudra planifier l’échec. Par exemple, les hôpitaux auront peut-être besoin d’experts en science des données pour les aider au cas où des algorithmes cesseraient de fonctionner correctement durant une opération.

L’IA progressera peut-être par petites étapes. C’est dans la nature de l’innovation.

Et dans celle de l’enfance.

Ce qu’il faut :
Permettre l’accès libre aux découvertes et aux données, lorsque l’intérêt public est en jeu, afin d’assurer le progrès collectif.

3. Le risque de concentration

Pas besoin d’être dans la Silicon Valley pour voir tout le capital que l’IA engloutit. Et les sommes ne cessent de grandir. Il faut de plus en plus d’argent pour financer les modèles d’apprentissage énergivores et avides de données nécessaires aux secteurs des puces, de l’infonuagique et des ordinateurs. Lorsque les gros joueurs prennent de l’expansion, ils commencent à générer des rendements et, ainsi, à produire plus de capital.

On estime que les investissements dans les GML ont totalisé environ 1 milliard de dollars l’an dernier et qu’ils pourraient grimper à 10 milliards de dollars cette année ou l’année prochaine. Certains croient que d’ici cinq ans, pas moins de 100 milliards de dollars pourraient être investis annuellement dans les modèles de langage. Intel affecte déjà 25 milliards de dollars aux puces. L’IA présente un potentiel similaire de mobilisation des capitaux; l’an dernier, elle a attiré 50 milliards de dollars en capital de risque et 38 nouvelles licornes sont apparues sur le marché. OpenAI, le chouchou du marché, a vu sa valeur monter à 80 milliards de dollars.

Et puis il y a ce calcul : Selon des prévisions optimistes, en augmentant la productivité économique, l’IAG pourrait générer des retombées de 124 000 billions de dollars! Un investissement de 7 billions de dollars semble soudainement raisonnable.

La force centripète de l’IA n’est pas qu’une question d’argent. Les géants de l’infonuagique accumulent des données et attirent des talents à la vitesse grand V, en plus d’amasser des ressources destinées aux superordinateurs. D’après les estimations, moins de 10 000 personnes travaillent sur ce qu’on considère comme l’IA « transformatrice », c’est-à-dire tout ce qui pourrait mener à l’IAG, et la plupart sont employées par une poignée d’entreprises. Apparemment, la position dominante de Tesla dans le domaine des données automobiles, en particulier des véhicules autonomes, est l’une des raisons qui ont incité Apple, qui n’est pourtant pas une petite entreprise, à renoncer à son projet de véhicules autonomes.

La concentration mènera-t-elle à un oligopole, voire à un monopole dans l’IA? Finira-t-elle par étouffer la concurrence? Ou verra-t-on émerger des « oligopoles bilatéraux », c’est-à-dire de petits groupes d’acteurs à chaque maillon de la chaîne d’approvisionnement? Cela pourrait mener à des cartels ou du moins à des coalitions, par exemple, pour l’approvisionnement en électricité et en puces et les opérations informatiques. Les gouvernements pourraient également imposer des contraintes, par exemple, des quotas, aux acteurs dominants, ou du moins exiger qu’ils répondent d’abord aux besoins nationaux.

Ces possibilités s’accompagnent d’une mise en garde : la concentration du pouvoir est moins dangereuse que la concentration du savoir.

Ce qu’il faut :

Les gouvernements pourraient être amenés à envisager des politiques industrielles axées sur l’IA, afin que l’affectation des ressources, y compris du capital, soit équitable et stratégique.

4. Le risque pour les chaînes d’approvisionnement

Nous risquons d’être dépassés. Il n’a pas suffisamment de puissance de calcul, de puces et de main-d’œuvre; de plus, les modèles d’offre et de demande traditionnels sont obsolètes. D’abord, la demande d’IA suit une courbe exponentielle, puisqu’on ne peut pas prévoir ses utilisations et les besoins. La production d’inférences (l’alimentation en données d’un modèle d’IA) coûte cher et ce coût ne cesse d’augmenter à mesure que les modèles deviennent de plus en plus gourmands. Plus ils apprennent, plus ils veulent apprendre. Une autre course technologique bat son plein en vue de mettre au point des puces plus efficaces, de réduire la taille des modèles et de comprimer les intergiciels qui alourdissent les systèmes. La concurrence est bénéfique dans chacun de ces domaines. L’afflux de capitaux destinés à l’IA pourrait soutenir cette concurrence.

Par contre, les intrants structuraux (ou infrastructures) comme l’électricité seront plus difficiles à mettre à niveau. Une grande partie du monde redouble déjà d’efforts afin d’accroître la production d’électricité propre pour alimenter les usines et les villes à l’heure de la carboneutralité. Or, les projets d’IA, soutenus par des financements généreux, et leurs centres de données énergivores risquent de supplanter d’autres pans de l’ancienne économie qui veulent faire la transition vers de nouveaux modèles énergétiques. Dans ce cas, les exigences de calcul de l’IA pourraient prendre le pas sur les exigences climatiques de la société. Les gouvernements pourraient alors être obligés d’affecter des ressources limitées en fonction de la priorité des besoins de la société.

En revanche, l’énorme potentiel de l’IAG et le potentiel économique susceptible d’en découler pourraient encourager le développement et l’expansion de nouvelles sources d’énergie comme la fusion nucléaire.

La rareté des intrants entravera également l’adoption de l’IA, y compris de l’IA transformationnelle, par les entreprises et les organisations. Les industries traditionnelles, dont les marges sont déjà faibles, continueront d’avoir du mal à affronter la concurrence, à obtenir la capacité de calcul et à acheter les puces dont elles ont besoin. De nombreuses entreprises et organisations du secteur public pourraient donc, comme à l’aube d’Internet, accepter d’adopter l’IA plus lentement, en utilisant les logiciels d’entreprise disponibles sur le marché, qui peuvent améliorer l’efficacité, mais qui sont moins efficaces pour innover.

Cela accentuera les pressions sur les gouvernements, car ils devront trouver des moyens d’accroître l’offre et la demande d’IA dans un large éventail de secteurs ainsi que dans les projets d’intérêt public. Comme on l’a souvent dit à propos d’Internet, nous avions une formidable invention qui aurait pu nous aider à vaincre le cancer et nous l’avons utilisée pour publier des photos. Le risque que les préférences individuelles l’emportent sur les besoins collectifs pourrait à nouveau se poser avec l’IA et les modèles, en créant des avatars de célébrités plutôt que de diagnostiquer des problèmes de santé. Dans le monde des affaires aussi, la prochaine génération d’IA ne doit pas seulement viser l’automatisation, mais être aussi axée sur la découverte. Des organismes de recherche sur l’IA, semblables à la DARPA ou à la NASA, pourraient aider à coordonner la recherche universitaire et les applications commerciales, ainsi qu’à développer des écosystèmes qui allègent les contraintes de la chaîne d’approvisionnement et ouvrent les portes aux nouveaux concurrents.

En fin de compte, l’IA devrait élargir notre vision, et non la réduire.

Ce qu’il faut :

Des incitatifs et des initiatives pour s’assurer que les chaînes d’approvisionnement de l’IAG sont axées sur les besoins sociétaux, en particulier les sciences, y compris les sciences en pleine évolution du climat et du comportement.

5. Le risque pour les robots

Parlez d’IA à vos amis et la plupart du temps, les conversations se tourneront rapidement vers l’essor des robots. Or, les premières années de l’IA transformationnelle brossent un tableau différent. Dans le secteur privé, bon nombre des principaux acteurs de l’IA ont mis de côté leur intérêt initial pour le travail des cols bleus, qui nécessite le plus de robots, préférant se tourner vers les tâches des cols blancs. En effet, l’économie de l’information génère des rendements plus rapidement. Par leur nature, les modèles de langage sont aussi plus efficaces dans le traitement des mots et des chiffres, qui sont la raison d’être des logiciels d’entreprise. De plus, les erreurs s’avèrent plus acceptables dans l’économie de l’information. Nous sommes prêts à accepter de fausses nouvelles ou de faux essais, mais certainement pas des bâtiments défectueux.

Cela ne veut pas dire qu’on ne verra pas de robots à l’extérieur des entrepôts. Il faudra simplement plus de temps. Les grandes sociétés de technologie déploient d’importants efforts en vue de développer un logiciel capable d’imiter la dextérité et les sens humains. La récompense est énorme. Il suffit de pouvoir convertir les données de perception en données d’action, ce que nous pourrions appeler le réflexe et l’instinct, par opposition à l’habitude. Dans quelques années, les gens pourraient prendre possession de robots pour les aider à apprendre. Des modèles d’affaires d’intelligence à la demande pourraient être imaginés : des progiciels pourraient être proposés, par achat ou par abonnement, pour gérer divers aspects du travail, du domicile et de la collectivité, voire de notre vie.

La demande de robots et d’autres matériels intelligents n’augmentera que lorsque la population vieillira et commencera à diminuer. De même, nous gagnerons en confiance dans nos interactions avec les machines et finirons par les utiliser avec la même aisance que nos téléphones. (Selon des tests menés en magasin, les clients font plus confiance aux robots qu’au personnel pour obtenir de l’information.)

À quoi serviront les robots alimentés par l’IA et les autres machines capables d’apprendre? Si nous nous fourvoyons, nous commencerons par mettre au point des aspirateurs et des laveurs de toilettes capables d’apprendre au lieu d’utiliser l’IA pour transformer l’économie mondiale. Mais si nous faisons les choses correctement, l’IAG pourra contribuer à remplacer le transport terrestre et maritime par le transport aérien, libérant ainsi les terres et l’eau pour de meilleures utilisations. Elle pourra révolutionner la fabrication, notamment grâce à l’impression 3D. Elle bouleversera notre façon de vivre, grâce, par exemple, à des appareils médicaux implantés dans notre corps qui apprendront à mesure que nous vieillirons. À l’instar de la troisième révolution industrielle, celle de l’informatique, qui a déclenché un important transfert d’activité de l’économie brune à l’économie du savoir, les progrès de l’IA transformationnelle propulseront des robots et des machines intelligentes qui feront bien plus que de nous faciliter la vie.

Ils pourront nous ouvrir une nouvelle ère de découverte.

Ce qu’il faut :

Des programmes de robotique, bénéficiant de soutiens publics, qui stimulent l’innovation pour franchir les frontières les plus importantes du progrès humain.

6. Le risque lié à la transition

L’utopie n’a pas de rampe d’accès. Le chemin vers un monde fondé sur l’IA, dans lequel les machines engendrent des surplus infinis et préservent la paix et la prospérité, sera parsemé d’embûches et de détours.

Dans les pays les plus pauvres, et même dans les régions les plus pauvres des pays les plus riches, la main-d’œuvre est trop abondante et trop abordable pour être remplacée par l’IA. La répartition de l’infrastructure et de la technologie entravera également la diffusion de l’IA. Paradoxalement, l’IA pourrait être le moins déployée là où les besoins sont les plus criants.

Les économies avancées n’échapperont pas aux perturbations causées par l’IA, en particulier celles touchant la main-d’œuvre. Des domaines d’expertise entiers, ainsi que les métiers et les professions qui y sont associés, pourraient disparaître rapidement, de même que les programmes d’éducation qui les soutiennent. On parle alors d’expertise délaissée.

Au cours de cette transition, bon nombre d’entre nous passeront à un « emploi augmenté », c’est-à-dire que nous partagerons nos tâches avec une IA; nous explorerons des façons de tirer le meilleur parti les uns des autres en assumant des fonctions communes. Nous devrons aussi nous préparer, tant sur le plan psychologique qu’économique, au jour où ce travail n’aura plus besoin de nous. Le travail augmenté cédera la place à une forme sophistiquée d’automatisation, chaque emploi et les différentes tâches qu’il requiert continueront d’évoluer sous le contrôle d’une machine.

Ceux qui croient à la croissance entrevoient beaucoup plus de possibilités. Tout d’abord, si l’IA se limite aux connaissances humaines actuelles, elle aura échoué. Bien menée, l’IA transformationnelle devrait accroître l’ensemble de nos connaissances collectives ainsi que notre créativité, entraînant plus de découvertes, plus de créations et plus de projets et d’emplois. Pour faire une comparaison avec un outil plus modeste, le microscope nous a ouvert les yeux sur des frontières et des possibilités que nous avions à peine imaginées; les emplois ne sont jamais entrés en ligne de compte.

Oui, il faut s’attendre à des turbulences, mais la transition mène à un plus grand engagement humain.

Ce qu’il faut :

Des programmes de perfectionnement sur l’IA dans les régions à faible revenu, ainsi que des programmes d’apprentissage axés sur l’IA pour les professions, les métiers et les emplois à risque.

7. Le risque lié à la distribution

Même une utopie fondée sur l’IA dépendra de la nature humaine qui, en général, n’est pas faite de sacrifice et de partage. Il est vrai qu’une fois l’IAG omniprésente, les surplus potentiels de l’économie pourraient mettre un terme à la faim, à la pauvreté et à la maladie. Cependant, les humains ne seront peut-être pas satisfaits. Le statut sera peut-être encore quelque chose que les gens recherchent. Notre bonheur restera relatif. Il y aura également des divisions entre les pays, car certains (les régimes xénophobes, en particulier) chercheront à se différencier pour renforcer la fierté nationale et l’estime de soi. Personne ne s’intéresserait à des Jeux olympiques propulsés par l’IA si les pays se partagent la médaille d’or.

Ce type de compétition, que Freud surnommait « le narcissisme des petites différences », peut devenir plus profond et plus violent, si nous ne trouvons pas de sens à notre vie en dehors du travail. Quelle que soit l’économie politique d’un pays, les instincts primaires seront un défi pour l’IA, comme l’ont découvert les États communistes à propos d’eux-mêmes et de leurs rêves utopiques dans La ferme des animaux de George Orwell. (« Tous les animaux sont égaux, mais certains sont plus égaux que d’autres. »)

Même aujourd’hui, du moins en Occident, notre vie n’a jamais été aussi prospère et pourtant nous avons souvent un sentiment d’insatisfaction. Le mécontentement a rarement été aussi vif au sein de la société, alors que, ironiquement, nous savons comment combler la plupart des besoins. En fait, nous n’avons pas besoin de l’IA pour répartir équitablement la richesse, comme on le faisait voilà quelques générations. Il suffirait d’ouvrir davantage nos frontières au commerce et à l’immigration, et de trouver des moyens plus systématiques de distribuer les surplus de nos économies. L’IA nous dirait sans doute de faire la même chose et nous trouverions des raisons, comme une prospérité relative, de rejeter cette proposition.

Ce qu’il faut :

Davantage de politiques favorables aux échanges commerciaux, notamment pour les actifs numériques et la propriété intellectuelle, afin de faciliter le partage des possibilités et des avantages offerts par l’IA.

8. Le risque pour le capitalisme démocratique

Le capitalisme existe grâce à la démocratie. Si les avantages de l’IA ne sont pas répartis de façon transparente et équitable, le système qui finance sa croissance pourrait être menacé. Par conséquent, le capitalisme pourrait être amené à évoluer, comme la société, pour s’adapter aux pouvoirs de l’IA.

Pendant des siècles, la répartition des surplus économiques était largement fonction de la main-d’œuvre. Depuis récemment, les propriétaires du capital en accaparent une part disproportionnée. À mesure que l’IA et les propriétaires du capital qui la soutiennent amassent les avantages économiques, tandis que les fruits que récolte la main-d’œuvre diminuent, les tensions sociales et les pressions politiques pourraient s’accentuer. Le problème pourrait s’aggraver dans les sociétés vieillissantes où les générations plus âgées, et moins productives, détiennent la majeure partie du capital, grâce à une vie d’épargne, alors que les générations plus jeunes, confrontées à des marchés du travail difficiles, ont peu de moyens.

Les gouvernements seront-ils alors tentés de nationaliser l’IA, afin d’en distribuer plus largement les bénéfices? Ou préféreront-ils imposer plus lourdement les propriétaires du capital pour redistribuer les gains tirés de l’IA? En fait, le capitalisme moderne perdra peut-être sa raison d’être, puisque l’IAG éliminera la nécessité pour les marchés de déterminer les points d’équilibre et d’orienter la répartition efficace des ressources. Un algorithme peut faire tout ça.

Alors que la présence de l’IAG s’étendra, les gouvernements pourraient aussi être tentés par des politiques proches de l’autoritarisme, afin de garder le contrôle sur les conséquences sociales et politiques des nouveaux modèles. Fondamentalement, le capitalisme démocratique devra relever le défi suivant : l’entité qui contrôlera l’infrastructure numérique qui appuie l’IA (superordinateurs, puces, sources d’énergie) contrôlera l’avenir. Autrement dit, les moyens de distribution numériques éclipseront les moyens de production en tant que facteur déterminant du pouvoir économique.

Cela pose la question suivante : en 2034, si la Silicon Valley n’a pas pris le contrôle de Washington, Washington devra-t-elle prendre le contrôle de la Silicon Valley?

Ce qu’il faut :

Les entreprises, les investisseurs et les gouvernements doivent élaborer rapidement de nouvelles approches de l’économie de marché pour veiller à ce que les fruits du capital et de la main-d’œuvre soient évalués et répartis de façon appropriée.

9. Le risque de perte de sens

Depuis toujours, la technologie remet en question le sens de la vie et la raison d’être de chacun. L’idée du deus ex machina (le « dieu issu de la machine ») remonte à la Grèce antique et associe de façon apparemment instinctive le tout-puissant et la technologie, tous deux plus forts que nous. Autrefois, dans les pièces de théâtre, le dieu sorti de la machine apportait une solution aux problèmes au centre de la scène et le public rentrait chez lui heureux. On attendra peut-être la même chose de l’IAG, même si l’angoisse humaine ne se calcule pas.

Les humains devront se préparer, peut-être bientôt, à un monde dans lequel le travail et la privation sont rares. Cette absence n’éliminera pas les désirs, même lorsque tout le monde sera nourri, logé et vêtu. Nous voudrons toujours plus. Surtout pour notre esprit et notre cœur. Ce n’est sans doute pas de sitôt que l’IAG pourra combler nos besoins émotionnels de rire, de réconfort et d’amour. Elle ne pourra pas non plus briser l’isolement social, quand les lieux de travail, les écoles et les centres commerciaux auront disparu.

Ou bien en a-t-elle les capacités?

En fait, l’IAG ne signifie pas forcément l’arrêt de mort du travail; elle entraînera plutôt une amélioration des emplois et des projets en leur conférant plus de sens. La robotique disparaîtra peut-être de tous les emplois. Le travail se définirait différemment, en remplissant des fonctions tant sociales qu’économiques. Ce serait un monde à la Seinfeld, comme l’a suggéré quelqu’un, où chacun passe son temps à bavarder et à faire des courses. Nous serons tous actifs et récompensés en conséquence, mais pas exactement comme nous nous y attendons.

Est-ce que ce changement vers un travail peu exigeant nous fera nous sentir moins importants? Et peut-être moins essentiels? Est-ce que cela nous rendra léthargiques? Ou bien est-ce l’anarchie qui s’installera?

Au cours des années et des décennies à venir, alors que nous nous attaquons aux ultimes frontières de la technologie, nous devrons explorer nos frontières intérieures pour trouver la véritable signification de l’humain. Nous pouvons aimer et préserver, comme nous produisons et fournissons aujourd’hui. Toutefois, il faudra pour cela avoir la même idée d’une vie satisfaisante et d’un travail gratifiant.

Seuls les humains sont capables de programmer cela.

Ce qu’il faut :

Démanteler ou à tout le moins alléger les barrières et la réglementation du marché du travail pour promouvoir une approche plus entrepreneuriale, créative et humaine du travail.

10. Le risque lié à la réglementation

Le plus grand risque lié à la réglementation pourrait être notre propension à réglementer en tenant compte du passé. Or, l’IAG demande une vision de l’avenir. 
Nous devons dès maintenant envisager différentes hypothèses :

  • S’il n’y a qu’un seul modèle d’IA, est-il possible de le réglementer de façon indépendante?
  • Faut-il réglementer les utilisateurs ou les algorithmes?
  • Pourrions-nous énoncer ce qui est approprié et programmer les modèles en conséquence? Pourrions-nous énoncer ce qui est inapproprié, par exemple, autoreproduction, intrusions et mauvaises intentions (conception d’armes biologiques, etc.) et programmer les modèles en conséquence?
  • Est-il possible de nous assurer que les agents et les modèles ont une « compétence normative » qui les amène à rechercher et à reconnaître les limites et les lois?
  • Pourrions-nous pénaliser, voire menacer de supprimer, des modèles qui vont à l’encontre de ce qui est approprié?
  • Serait-il possible d’exploiter l’interopérabilité pour surveiller les résultats des modèles et, finalement, de permettre aux modèles de s’évaluer et de se surveiller eux-mêmes?
  • Peut-on envisager un partage de la propriété intellectuelle entre modèles pour aider les nouveaux venus?
  • Pourrions-nous exiger que les modèles d’IA qui s’appuient sur les données des espaces publics (routes, réseaux sociaux, systèmes d’éducation, etc.) se joignent aux services collectifs de données?
  • Que penser de l’exonération de la réglementation pour les secteurs d’importance publique, comme la reconnaissance des maladies?
  • Faudrait-il accorder le statut de « personne », assorti de droits et de responsabilités juridiques, à des agents comme les agents conversationnels?
  • Et si nous appliquions des principes plutôt que des prescriptions à l’IA?
  • Et finalement, que faire si la coexistence bénéfique n’est pas possible?

Les limites de la réglementation de l’IA ne sont plus si loin et les gouvernements (démocratiques, à tout le moins) seront mis au défi de les rattraper. Craignant le pire, ils risquent de jeter l’éponge et de mettre fin aux efforts visant l’IAG ou de les laisser entre les mains des oligopoles en place, car il serait plus facile de négocier avec eux et de les surveiller. Certes, l’IAG est un concept trop nouveau pour qu’un cadre réglementaire puisse être défini. Pourtant, les acteurs du domaine et leurs organismes de réglementation contribuent à la montée en puissance d’algorithmes qui pourraient bientôt être trop complexes pour être compris et pour lesquels on ne pourra plus faire marche arrière.

Il n’existe pas de solution simple. Rappelons-nous seulement que l’expérimentation est inhérente à la science, qui respecte des principes universels, comme celui de ne faire de mal à personne. Les sociétés, sous divers régimes politiques, ont exploité les avantages de la science spatiale, médicale, nucléaire ou biologique en suivant de tels principes. Peut-être devrions-nous accorder la même confiance aux scientifiques qui travaillent sur l’IAG. Sinon, nous laissons le champ libre à d’autres pays ou régimes. La collaboration est probablement à privilégier et à long terme, comme c’était le cas à l’ère atomique, il vaut mieux faire confiance à la science et se montrer légèrement sceptiques les uns envers les autres.

Comme le veut le code politique, faire confiance, mais vérifier.

Ce qu’il faut :

À court terme, établir une taxonomie et un code clairs et reproductibles que les organismes de réglementation de l’IA pourront modéliser et diffuser. À long terme, établir des conventions et des systèmes internationaux de gouvernance de l’IA.

11. Le risque pour la sécurité mondiale

Les scientifiques redoutent toute récupération politique. Il est trop tard. L’IA devient rapidement un enjeu politique crucial, mais aussi, de plus en plus, un enjeu géopolitique. Le G7 a fait de l’IA l’une de ses grandes priorités, en partie pour mettre en place une approche cohérente et collective, et éviter une suprématie de la Chine ou de la Russie. Aux États-Unis et en Grande-Bretagne, l’IA représente un dossier central des chefs des gouvernements, comme la sécurité nucléaire l’était il y a quelques décennies. Ils ne sont pas seuls. Parmi les économies émergentes, les Émirats arabes unis ont défini l’IA comme une ambition nationale, tandis que leur proche allié, l’Inde, vise un but similaire, forte de ce qui est peut-être la pile technologique qui croît le plus rapidement au monde. Les adversaires de l’Occident pourraient trouver leur propre terrain d’entente, dans un modèle de « troisième voie » que ni la Chine ni les États-Unis ne dominent.

Une course à l’intelligence artificielle peut être saine pour la concurrence et l’innovation. Cependant, elle représente également un risque pour la sécurité mondiale, si les modèles qui apprennent seuls rivalisent les uns avec les autres en fonction de normes et d’objectifs nationaux et non universels. Cette approche de l’IA fondée sur les rivalités pourrait gagner en importance à mesure que les pays investissent davantage dans leurs stratégies nationales afin d’obtenir un avantage concurrentiel. Les restrictions nationales (et l’accaparement) des principaux intrants de l’IA, notamment la puissance de calcul et les puces, pourraient être pires. Sans une meilleure gouvernance mondiale, les risques d’accidents ou d’actes malveillants augmenteront.

Heureusement, le monde possède près d’un siècle d’expérience en matière de gouvernance multilatérale. Bien qu’imparfaite, elle a contribué à prévenir les frappes nucléaires, la prolifération des armes biologiques et même une troisième guerre mondiale. Les conventions sur le travail des enfants, les mines antipersonnel et les exécutions sommaires ne sont pas restées sans effet. Il faudra bientôt adopter une approche semblable pour la gouvernance de l’IA.

Malheureusement, malgré leurs succès dans de nombreux domaines depuis les années 1940, les institutions d’après-guerre sont elles-mêmes attaquées. Si les grandes puissances se méfient de l’Organisation mondiale du commerce, pourquoi joindraient-elles une Organisation mondiale de l’IA? Comme pour les générations précédentes, il revient peut-être aux scientifiques et aux chefs d’entreprise de tisser des liens avec les pays qui ont des objectifs en matière d’IA, y compris avec ceux qui entretiennent des relations tendues avec d’autres. Pour citer Churchill, il vaut mieux discuter que de faire la guerre. Dans cet esprit, les pays d’Asie, de l’Occident, du Nord et du Sud devront s’entendre sur les objectifs, et les dangers, de l’IA. Il faut aussi gagner la confiance du public, pour que les gens comprennent la valeur de l’IA et l’importance d’une gouvernance mondiale, ainsi que les dangers de sa militarisation.

En fin de compte, l’accès universel à l’IA exigera que tout le monde se rallie derrière l’IA.

Ce qu’il faut :

Une diplomatie de type 2 menée par des scientifiques, des chefs d’entreprise et des universitaires de pays rivaux, ouvrant la voie à la diplomatie de type 1,5 entre représentants des gouvernements.

12. Le risque pour la société

Non loin des dunes d’Asilomar et de ses bosquets balayés par le vent, le grand écrivain américain John Steinbeck a écrit Les raisins de la colère et Rue de la sardine. Ces classiques dressent le portrait d’une Amérique à la croisée des chemins, marquée par la grande dépression, confrontée à un nouvel ordre mondial et pourtant survoltée par les percées technologiques des Années folles. En parlant de l’essor de la superpuissance américaine, Steinbeck note que les Américains aiment chez les gens des qualités, comme la gentillesse, l’honnêteté et la franchise, qu’ils méprisent sur les marchés. Et ce qui prime sur les marchés, comme l’égoïsme, l’avidité et l’intérêt personnel, est considéré comme des défauts chez les gens. Autrement dit, nous attendons d’un système des choses que nous évitons dans nos relations; c’est à cause de ses différentes parties qu’un système n’est pas adopté.

L’IA peut-elle changer cela, c’est-à-dire prendre le meilleur de l’humanité pour remédier au pire de la société? Ce ne sera pas facile compte tenu de la colère qui gronde à peu près partout. Ce sera encore plus difficile dans le cadre politique qui semble faire fi de la gentillesse et célébrer l’égoïsme.

La portée stupéfiante de l’IA transformationnelle peut sembler trop étendue pour être comprise et assimilée par la société. Plus que tout, la démocratie pourrait être mise au défi de résoudre ces défis existentiels. Risques pour notre sécurité personnelle et collective, dangers de la concentration, inconnues en matière de distribution et résultats très variables de la réglementation – tous ces facteurs pourraient faire fuir le public. Du moins dans la mesure où l’IA transformationnelle ne semble pas trop fantastique pour que le public l’envisage sérieusement. Dans la mesure où il n’est pas trop tard pour revenir en arrière. Dans la mesure où nous pouvons définir ce qui est plus intelligent, plus rapide et plus conscient que ses créateurs.

Et si nous y parvenons, saurons-nous comment progresser collectivement et rapidement? La société n’était pas prête pour la pandémie de COVID-19, qui avait pourtant des précédents et était donc prévisible. Face à cette situation sans précédent, nous devrons trouver une autre voie. Nous pouvons commencer en décomposant les défis en occasions concrètes et en inscrivant la discussion sur l’IAG dans les réalités d’aujourd’hui et de demain, plutôt que dans des projections extraordinaires. Les gouvernements et la population se soucient surtout du présent et c’est un bon endroit pour se rencontrer. En nous inspirant de la science nucléaire, nous pouvons aussi développer les réflexes et la rigueur des mesures de sécurité et de surveillance. Et nous pouvons jeter des ponts avec de nombreux pays afin que l’IA touche l’humanité entière et non seulement l’élite. Dans Rue de la sardine, Steinbeck dit que le droit de se suicider est un droit absolu, mais que parfois, un ami peut rendre l’acte inutile. L’affirmation peut sembler morbide, mais elle s’inscrit dans le contexte d’une communauté dépassée par l’évolution du monde environnant. Cette communauté a découvert que l’amitié était l’un des grands pouvoirs de l’humanité.

Cette qualité nous aidera peut-être à nous préparer à l’ère de l’IAG.

Voir le fichier PDF avec les graphiques complets

Le présent article vise à offrir des renseignements généraux seulement et n’a pas pour objet de fournir des conseils juridiques ou financiers, ni d’autres conseils professionnels. Le lecteur est seul responsable de toute utilisation des renseignements contenus dans le présent document, et ni la Banque Royale du Canada (« RBC »), ni ses sociétés affiliées, ni leurs administrateurs, dirigeants, employés ou mandataires respectifs ne seront tenus responsables des dommages directs ou indirects découlant de l’utilisation du présent document par le lecteur. Veuillez consulter un conseiller professionnel en ce qui concerne votre situation particulière. Les renseignements présentés sont réputés être factuels et à jour, mais nous ne garantissons pas leur exactitude et ils ne doivent pas être considérés comme une analyse exhaustive des sujets abordés. Les opinions exprimées reflètent le jugement des auteurs à la date de publication et peuvent changer. La Banque Royale du Canada et ses sociétés affiliées ne font pas la promotion, explicitement ou implicitement, des conseils, des avis, des renseignements, des produits ou des services de tiers.

Le présent document peut contenir des déclarations prospectives – au sens de certaines lois sur les valeurs mobilières – qui font l’objet de la mise en garde de RBC concernant les déclarations prospectives. Les paramètres, données et autres renseignements ESG (y compris ceux liés au climat) contenus sur ce site Web sont ou peuvent être fondés sur des hypothèses, des estimations et des jugements. Les mises en garde relatives aux renseignements présentés sur ce Site Web sont exposées dans les sections « Mise en garde concernant les déclarations prospectives » et « Avis important concernant le présent rapport » de notre Rapport climatique le plus récent, accessible sur notre site d’information à l’adresse https://www.rbc.com/notre-impact/rapport-citoyennete-dentreprise-rendement/index.html. Sauf si la loi l’exige, ni RBC ni ses sociétés affiliées ne s’engagent à mettre à jour quelque renseignement que ce soit présenté dans le présent document.