Yuval Noah Harari et Mustafa Suleiman en entrevue avec the Economist pour parler de l’IA

Le principe de précaution est ce qui doit guider toutes nos décisions à partir de maintenant.

Je suis toujours absolument fascinée lorsque j’écoute Yuval Noah Harari parler de l’intelligence artificielle. Le voici en entrevue avec l’éditrice en chef de The Economist et le cofondateur de Deep Mind Mustafa Suleiman.

Je pense qu’il est primordial que le maximum de gens de tous les milieux écoute ou lise ce type de conversation intelligente afin de bien analyser les enjeux reliés avec l’IA. J’ai donc pris la peine de faire l’extrait et la traduction pour rendre ce contenu accessible au maximum de personnes. Je partage sans usurper les droits puisque cette entrevue est publique sur YouTube et je pense qu’il est essentiel qu’elle soit entendue.

Avant d’écouter ou lire cette entrevue, j’aimerais partager quelques réflexions qui me poussent à investir du temps précieux à combattre le manque de littératie numérique qui ne va pas en s’améliorant avec l’arrivée de l’intelligence artificielle. Je participe régulièrement aux discussions dans les médias sociaux. Je vois deux clans qui s’opposent dans le débat sur l’IA : d’un côté les protagonistes du « laissons aller l’innovation » évidemment représentés par ceux et celles qui ont des avantages pécuniaires à retirer du Far Web et de l’autre côté, les autres qui sentent déjà le fossé qui se creusent entre les mortellement humains et les intelligences dites artificielles.

Actuellement, le problème est que les seules institutions qui comprennent vraiment ce qui se passe sont celles qui développent la technologie. Pour ajouter à ce non-sens, les seuls qu’on écoute en ce moment et à qui nous donnons le micro sont ceux qui développent ces machines et qui comprennent la programmation. Quelques rares exceptions font figures d’autorité, comme l’historien ici. La plupart des fervents du ralentissement et de la gouvernance sont considérés comme des « empêcheurs » d’évoluer, des « peureux » qui prédisent l’apocalypse sans savoir de quoi ils parlent, des gens inquiets, à tort souvent.

Et si les prédictions les plus sombres n’étaient pas possibles simplement parce que les gens inquiets insistaient pour appliquer le principe de précaution aussi nommer le principe « de ne pas nuire ». Juste pour que tous les inquiets aient tort dans 5, 10 ou 20 ans. Si les risques associés à l’IA étaient bien compris, paramétrés et encadrés pour que les inquiets soient moins inquiets? Si les sociétés dans la course à l’IA avaient les mêmes contraintes que ceux qui développent du nucléaire ou de la bouffe pour les humains?

À quand comprendrons-nous que nous devons apprendre de nos erreurs passées avec le laxisme dont nous avons fait preuve avec le climat, la première vague du Web et ses ravages sur nos économies par les empereurs numériques?

Je n’ai pas la science infuse, mais je lis chaque jour depuis des années sur le sujet. J’écris aussi sur le sujet depuis plus de 10 ans et voire 16 ans sur le numérique. Je tente de vulgariser au mieux les enjeux. Je vous invite à écouter ou lire cette entrevue. Vous constaterez que le besoin de réfléchir est urgent, mais l’urgence d’agir encore plus.

Et si la souveraineté numérique était simplement un principe de précaution pour rester maître chez nous?

Si pour chaque dollar et chaque minute que nous investissons dans l’intelligence artificielle, nous investissons également dans le développement de notre propre conscience, je pense que nous irons bien.

Yuval Noah Harari

Sylvie Bédard - Mind Drop

Voici l’entrevue

voici la transcription traduite

(00:00) [Musique] L’historien Yuval Noah Harari et l’entrepreneur Mustafa Suleiman sont deux des voix les plus importantes dans le débat de plus en plus tendu sur l’IA. « Heureux d’être ici en votre compagnie, merci de nous avoir invités. » The Economist » les ont réunis pour discuter de ce que cette technologie signifie pour notre avenir, de l’emploi et de la géopolitique à la survie de la démocratie libérale. Si le système économique change fondamentalement, la démocratie libérale telle que nous la connaissons survivra-t-elle? [Musique] Bienvenue, vous êtes un auteur à succès, historien, je dirais un intellectuel public mondial,

(00:40) si ce n’est l’intellectuel public mondial. Vos livres, de « Sapiens » en « 21 leçons pour le 21ème siècle », ont été vendus en grand nombre dans le monde entier. Merci de nous joindre. « Heureux d’être ici. » Solomon, c’est merveilleux que vous puissiez aussi être parmi nous. Vous êtes un ami de « The Economist », un directeur au conseil de « The Economist ». Vous êtes à la pointe de la création de la révolution de l’IA. Vous étiez le co-fondateur de DeepMind, et vous êtes maintenant le co-fondateur et PDG d’Inflection AI.

(01:11) Vous construisez cet avenir, mais vous avez également récemment publié un livre intitulé « The Coming Wave », qui nous rend un peu inquiets à propos de cette révolution qui est en marche. Vous venez tous les deux d’horizons différents. Vous êtes historien, commentateur, un homme qui, je crois, n’utilise pas beaucoup de smartphones. « Pas beaucoup, non. » Mustafa, comme je le sais de nos réunions du conseil, est à la pointe de cette technologie, poussant tout le monde à avancer plus rapidement. Deux perspectives très différentes,

(01:41) mais je pensais qu’il serait vraiment intéressant de vous réunir pour avoir une conversation sur ce qui se passe, ce qui va se passer, quelles sont les opportunités, mais aussi ce qui est en jeu et quels sont les risques. Commençons par vous, Mustafa. Vous construisez cet avenir, alors donnez-nous une idée de ce à quoi ressemblera le futur. Je vais vous donner un cadre temporel pour être précis. Disons, comme vous l’avez écrit dans votre livre, que dans trois à cinq ans,

(02:13) il serait plausible que les IA aient des capacités de niveau humain dans toute une gamme de domaines. Alors prenons cinq ans, 2028. À quoi ressemblera le monde? Comment interagirai-je avec les IA? Que ferons-nous tous ou pas? Eh bien, regardons simplement en arrière les 10 dernières années pour avoir une idée de la trajectoire sur laquelle nous sommes, et de l’incroyable élan que, je pense, tout le monde peut maintenant voir avec la révolution de l’IA générative. Au cours des 10 dernières années,

(02:44) nous pouvons classer les données audio et les transcrire en texte les machines peuvent maintenant avoir une idée assez précise des représentations conceptuelles de ces idées la phase suivante est ce que nous voyons maintenant avec la révolution générative de l’IA nous pouvons maintenant produire de nouvelles images de nouvelles vidéos de nouvelles données audio et bien sûr de nouveaux langages et depuis un an environ avec la montée du chat GPT et d’autres modèles d’IA il est assez incroyable de voir à quel point ces nouveaux modèles de langage sont plausibles, précis et très fins dans les cinq prochaines années le Frontier Model (Société pionnière du modèle)

(03:16) entreprises ceux d’entre nous qui sont à la pointe de la technologie et qui forment les plus grands modèles d’IA vont former des modèles qui sont plus de mille fois plus grands que ce que vous voyez aujourd’hui dans GPT 4 all et avec chaque nouvel ordre de grandeur et calcul qui est 10x plus de calcul utilisé nous avons tendance à voir de nouvelles capacités émerger et nous prédisons que les nouvelles capacités qui viendront cette fois au cours des cinq prochaines années seront la capacité de planifier sur plusieurs horizons temporels au lieu de simplement générer du nouveau texte en une seule fois le modèle sera

(03:48) capable de générer une séquence d’actions dans le temps et je pense que c’est vraiment le caractère de l’IA que nous verrons dans les cinq prochaines années des IA qui ne peuvent pas seulement dire des choses mais qui peuvent aussi faire des choses mais qu’est-ce que cela signifie réellement dans la pratique utilisez votre imagination dites-moi comment sera ma vie en 2028 comment j’interagirai avec eux qu’est-ce que je ferai qu’est-ce qui sera différent alors j’ai en fait proposé un test de Turing moderne qui essaie d’évaluer exactement ce point c’est ça ?

(04:16) Le dernier test de Turing évaluait simplement ce qu’une machine pouvait dire en supposant que ce qu’elle pouvait dire représentait son intelligence. Maintenant que nous approchons du moment où ces modèles d’IA sont assez bons, on peut dire qu’ils ont passé le test de Turing ou qu’ils le passeront peut-être dans les prochaines années, la vraie question est de savoir comment nous pouvons mesurer ce qu’ils peuvent faire.

(04:43) pour commencer à créer un nouveau produit, à étudier le marché, à voir ce que les consommateurs pourraient aimer, à générer de nouvelles images, quelques plans de fabrication de ce produit, à contacter un fabricant, à le fabriquer, à négocier le prix, à le livrer directement au consommateur et ensuite à collecter les revenus. Je pense que sur une période de cinq ans, il est fort probable que nous aurons un ACI, une intelligence artificielle capable, qui pourra réaliser la majorité de cette tâche de manière autonome. Elle ne pourra pas tout faire,

(05:13) il y a de nombreuses étapes compliquées en cours de route, mais elle pourra exécuter une grande partie. Elle sera capable de passer des appels téléphoniques à d’autres humains pour négocier, elle pourra appeler d’autres IA pour établir la bonne séquence dans une chaîne d’approvisionnement, par exemple, et bien sûr, elle apprendra à utiliser des API (interfaces de programmation d’applications) pour d’autres sites web ou d’autres bases de connaissances ou d’autres magasins d’informations. Alors, le monde est à vous, vous pouvez imaginer cela appliqué à de nombreuses parties de notre économie. Donc, toi, un homme

(05:42) qui n’utilise pas beaucoup de smartphone, à l’écoute de cela, cela te remplit-il d’horreur? Es-tu d’accord avec cela? Penses-tu que c’est le genre de choses qui risque de se produire au cours des cinq prochaines années? Je le prends très au sérieux. Je ne viens pas de l’industrie donc je ne peux pas commenter la probabilité de sa réalisation, mais quand je l’entends, en tant qu’historien, pour moi, ce que nous venons d’entendre, c’est la fin de l’histoire humaine. Pas la fin de l’Histoire, mais la fin de l’histoire dominée par les humains. L’histoire

(06:13) continuera avec quelqu’un d’autre au contrôle. Car ce que nous venons d’entendre, c’est essentiellement Mustafa nous disant qu’en cinq ans, il y aura une technologie qui pourra prendre des décisions indépendamment et qui pourra créer de nouvelles idées de manière autonome. C’est la première fois dans l’histoire que nous sommes confrontés à quelque chose de tel. Toute technologie précédente, d’un couteau en pierre à une bombe nucléaire, ne pouvait pas prendre de décisions. La décision de larguer la bombe sur Hiroshima n’a pas été prise par la bombe atomique, mais par le président Truman. Et

(06:52) de la même manière, chaque technologie précédente ne pouvait que reproduire nos idées, comme la radio ou la presse écrite. Elle pouvait copier et diffuser la musique, les poèmes ou les romans qu’un humain avait écrits. Maintenant, nous avons une technologie qui peut créer de toutes nouvelles idées, et elle peut le faire à une échelle bien supérieure à ce dont les humains sont capables. Elle peut donc créer de nouvelles idées et, dans des domaines importants, dans cinq ans, elle sera capable de les mettre en œuvre. Et c’est un changement profond. Avant de parler des nombreuses manières dont cela pourrait signifier la fin

(07:29) de l’histoire humaine, comme vous l’avez dit, et des éventuels inconvénients et risques, pourrions-nous juste parler un instant des possibilités ? Quels sont les avantages potentiels ? Car il y en a beaucoup et ils sont vraiment substantiels. Je pense que vous avez écrit qu’il y a le potentiel que cette technologie puisse nous aider à traiter des problèmes incroyablement difficiles et créer des résultats extrêmement positifs. Pourrions-nous commencer brièvement par cela avant de retomber dans la fin

(08:00) de l’histoire humaine ? Je ne parle pas nécessairement de la destruction de l’humanité ou quoi que ce soit de ce genre. Il y a beaucoup de potentiels positifs, c’est juste que le pouvoir est en train de passer des êtres humains à une intelligence étrangère, à une intelligence non humaine. Mais discutons d’abord des avantages potentiels. Les opportunités, Mustafa ? Tout ce que nous avons créé dans l’histoire humaine est le produit de notre intelligence. Notre capacité à faire

(08:29) des prédictions et ensuite à intervenir sur ces prédictions pour changer le cours du monde est, de manière très abstraite, la façon dont nous avons produit nos entreprises et nos produits et toute la valeur qui a changé notre siècle. Si vous y pensez, il y a juste un siècle, un kilo de grain aurait nécessité 50 fois plus de travail pour être produit qu’aujourd’hui. Cette efficacité, qui est la trajectoire que nous avons vue en agriculture, est probablement la même trajectoire que nous verrons en intelligence. Tout autour de nous est le produit de l’intelligence, donc

(09:00) tout ce que nous touchons avec ces nouveaux outils est susceptible de produire bien plus de valeur que nous n’en avons jamais vue auparavant. Et je pense qu’il est important de dire que ce ne sont pas des outils autonomes par défaut. Ces capacités n’émergent pas naturellement des modèles, nous essayons de concevoir des capacités. Et le défi pour nous est d’être très délibéré, précis et prudent concernant ces capacités que nous voulons voir émerger du modèle, que nous voulons intégrer dans le modèle et les contraintes que nous construisons autour de lui. Il est super

(09:29) important de ne pas anthropomorphiser, de projeter des idées et, vous savez, des intentions potentielles ou une capacité d’actions potentielle ou une autonomie potentielle dans ces modèles. Le défi de la gouvernance pour nous au cours des deux prochaines décennies pour s’assurer que nous contiendrons cette vague est de s’assurer que nous pouvons toujours imposer nos contraintes sur le développement de cette trajectoire. Mais les capacités qui surgiront signifient, par exemple, des améliorations potentiellement transformatrices de la santé humaine, accélérant le processus d’innovation, des changements dramatiques dans la manière dont la découverte scientifique est réalisée.

(10:02) des changements dans la manière dont les découvertes scientifiques sont faites des problèmes difficiles, qu’il s’agisse du changement climatique, beaucoup des grands défis auxquels nous sommes confrontés pourraient être abordés beaucoup plus facilement avec cette capacité tout le monde aura une intelligence personnelle dans sa poche une aide intelligente, un assistant compétent, un  chef de cabinet, un assistant de recherche hiérarchisant constamment les informations pour vous rassembler la bonne pépite synthétisée de connaissances dont vous avez besoin pour prendre des mesures à tout moment et cela va certainement nous faire tous beaucoup plus…

(10:31) intelligents et capables. Cela vous semble-t-il attrayant ? Oui, absolument. Encore une fois, s’il n’y avait pas de potentiel positif, nous ne serions pas ici. Personne ne le développerait, personne n’investirait dedans. C’est tellement tentant. Le potentiel positif est si énorme dans tout, de meilleurs soins de santé, des normes de vie plus élevées, à résoudre des choses comme le changement climatique. C’est pour cela que c’est si tentant, c’est pourquoi nous sommes prêts à prendre les risques énormes qui y sont associés. Je suis juste inquiet que, à la fin, le marché

(11:03) ne vaille pas le coup. Et je voudrais surtout commenter à nouveau la notion d’intelligence. Je pense que c’est surévalué. Homo sapiens est actuellement l’entité la plus intelligente de la planète, elle est également l’entité la plus destructive et, à bien des égards, aussi l’entité la plus stupide. La seule entité qui met en danger la survie même de l’écosystème. Pensez-vous que nous échangeons plus d’intelligence contre plus de risques destructeurs ? Encore une fois, ce n’est pas déterministe.

(11:41) Je ne pense pas que nous soyons condamnés. Si je le pensais, à quoi bon en parler si nous ne pouvons pas prévenir le pire scénario ? J’espérais que vous pensiez que vous auriez un certain pouvoir d’action. Nous avons toujours le pouvoir, il y a encore quelques années. Je ne sais pas combien, 5, 10, 30 ? Nous sommes toujours ceux qui sont aux commandes, déterminant la direction que cela prend. Aucune technologie n’est déterministe. C’est quelque chose que, encore une fois, nous avons appris de l’histoire. Vous pouvez utiliser la même technologie.

(12:10) De différentes manières, vous pouvez décider comment le développer, nous avons donc toujours le choix. C’est pourquoi il faut réfléchir très, très attentivement à ce que nous développons. Réfléchir attentivement est-ce que Mustafa a fait dans ce livre. Et maintenant, je voudrais aborder certains des risques les plus couramment discutés. J’essayais de trouver un ordre de gravité, alors je commence par celui qui est souvent discuté mais, par rapport à l’extinction humaine, est peut-être moins grave, à savoir la question

(12:43) des emplois. Est-ce que l’intelligence artificielle détruira-t-elle tous les emplois parce que les IA seront meilleures que les humains dans tout? Je suis économiste de formation. L’histoire me suggère que cela n’est jamais arrivé auparavant, que le sophisme de la masse de travail est effectivement un sophisme. Mais dites-moi ce que vous en pensez. Pensez-vous qu’il y a un risque pour les emplois? Cela dépend du délai. Sur une période de 10 à 20 ans, mon intuition, et vous avez raison de dire que les preuves actuelles ne le confirment pas, est qu’il n’y aura pas vraiment de

(13:13) menace significative pour les emplois. Il y a beaucoup de demandes, il y aura beaucoup de travail. Sur un horizon de 30 à 50 ans, il est très difficile de spéculer. Au moins, nous pouvons dire que, il y a deux ans, nous pensions que ces modèles ne pourraient jamais ressentir d’empathie. Nous disions que les humains allaient toujours conserver la gentillesse, la compréhension et les soins mutuels comme une compétence spéciale. Il y a quatre ans, nous disions que les IA ne seraient jamais créatives. Les humains seraient toujours les créatifs,

(13:45) inventant de nouvelles choses, faisant ces incroyables bonds entre de nouvelles idées. Il est maintenant évident que ces deux capacités sont des choses que ces modèles font incroyablement bien. Je pense donc que pendant un certain temps, les IA renforceront nos compétences. Elles nous rendront plus rapides, plus efficaces, plus précis, plus créatifs, plus empathiques, etc. Sur une période de plusieurs décennies, il est beaucoup plus difficile de dire quelles compétences seront le domaine permanent de l’espèce humaine, étant donné que ces modèles sont clairement très, très compétents. Et c’est là

(14:20) que le défi de la maîtrise intervient. Nous devons prendre des décisions. Nous devons décider en tant qu’espèce ce qui est acceptable et ce qui ne l’est pas sur une période de 30 ans. Et cela signifie la politique et la gouvernance. En ce qui concerne les emplois, je suis d’accord avec l’idée que le scénario selon lequel il n’y aurait tout simplement pas d’emplois est un scénario improbable pour au moins les prochaines décennies. Mais nous devons regarder plus attentivement le temps et l’espace. En termes de temps, la période de transition est le danger. Certains emplois disparaissent, d’autres apparaissent. Les gens

(14:54) doivent s’adapter. N’oublions pas qu’Hitler est monté au pouvoir en Allemagne à cause de trois années de chômage à 25%. Nous ne parlons pas de l’absence totale d’emplois, mais si, à cause des bouleversements causés sur le marché du travail par l’IA, nous avons, je ne sais pas, trois années de chômage à 25%, cela pourrait causer d’énormes perturbations sociales et politiques. Et le problème encore plus grand est celui de l’espace. La disparition des emplois et la création de nouveaux emplois se feront dans différentes parties du monde. Nous pourrions voir une situation où il y a une immense

(15:31) demande pour plus d’emplois en Californie ou au Texas ou en Chine, alors que des pays entiers perdent leur base économique. Il faut donc beaucoup plus d’ingénieurs en informatique et d’instructeurs de yoga en Californie, mais on n’a pas besoin du tout d’ouvriers textiles au Guatemala ou au Pakistan parce que tout a été automatisé. Il ne s’agit donc pas seulement du nombre total d’emplois sur la planète, mais de la répartition entre différents pays. Et essayons aussi de nous souvenir que le travail n’est pas le but, le travail n’est pas notre état final souhaité. Nous n’avons pas créé

(16:11) la civilisation pour que nous puissions avoir un plein emploi. Nous avons créé la civilisation pour que nous puissions réduire la souffrance pour tout le monde. La quête de l’abondance est réelle. Nous devons produire plus avec moins. Il est impossible de se débarrasser du fait que la croissance démographique est prête à exploser au siècle prochain. Il y a des réalités pratiques concernant les trajectoires démographiques, géographiques et climatiques sur lesquelles nous sommes, qui vont pousser notre besoin de produire exactement ce genre d’outils. Et je pense que cela devrait être une

(16:37) aspiration. De nombreuses personnes font un travail qui est jugé épuisant et fatigant, et elles ne trouvent pas de flux, elles ne trouvent pas leur identité, et c’est assez horrible. Je pense donc que nous devons nous concentrer sur le prix ici, qui est celui de capturer la valeur que ces modèles produiront et ensuite de penser à la redistribution. Et finalement, la transition est exactement ce qui est en jeu. Nous devons gérer cette transition avec la fiscalité, mais pas seulement avec la redistribution. Je dirais que la difficulté, encore une fois, c’est

(17:03) la difficulté politique, la difficulté historique. Je pense qu’il y aura une immense nouvelle richesse créée par ces technologies. Je suis moins sûr que les gouvernements seront capables de redistribuer cette richesse de manière équitable à l’échelle mondiale. Je ne vois tout simplement pas le gouvernement américain augmenter les impôts sur les entreprises en Californie et envoyer l’argent pour aider les ouvriers textiles au chômage au Pakistan ou au Guatemala à se recycler pour le nouveau

(17:41) et vous avez fait un très bon point dans l’un de vos écrits où vous nous avez rappelé que la démocratie libérale est vraiment née de la Révolution industrielle et que le système politique d’aujourd’hui est vraiment un produit du système économique dans lequel nous nous trouvons. Et donc, je pense qu’il y a une très bonne question à se poser : si le système économique change fondamentalement, la démocratie libérale telle que nous la connaissons survivra-t-elle ? Et en plus de cela, ce n’est pas seulement la Révolution industrielle, ce sont les nouvelles technologies de l’information du 19ème et

(18:12) 20ème siècle. Avant le 19ème siècle, vous n’avez aucun exemple dans l’histoire d’une démocratie à grande échelle. Je veux dire, il y a des exemples à très petite échelle, comme chez les tribus de chasseurs-cueilleurs ou dans les cités-états comme l’Athènes antique, mais vous n’avez aucun exemple que je connaisse de millions de personnes réparties sur un vaste territoire, un pays entier, qui a réussi à construire et à maintenir un système démocratique. Pourquoi ? Parce que la démocratie est une conversation et il n’y avait aucune technologie de l’information ou de communication qui permettait

(18:45) une conversation entre des millions de personnes sur tout un pays. Ce n’est que lorsque les premiers journaux, puis le télégraphe, la radio et la télévision sont apparus que cela est devenu possible. Donc, la démocratie moderne telle que nous la connaissons est construite sur une technologie de l’information spécifique. Une fois que la technologie de l’information change, c’est une question ouverte de savoir si le marché peut évidemment survivre. Et le plus grand danger maintenant est l’opposé de ce que nous avons rencontré au Moyen Âge. Au Moyen Âge, il était impossible d’avoir une conversation entre des millions de personnes

(19:19) car elles ne pouvaient tout simplement pas communiquer. Mais au 21ème siècle, quelque chose d’autre pourrait rendre la conversation impossible : si la confiance entre les personnes s’effondre à nouveau. Si, lorsque vous allez en ligne, qui est maintenant notre principal moyen de communication au niveau du pays, et que l’espace en ligne est envahi par des entités non humaines qui se font peut-être passer pour des êtres humains, vous parlez à quelqu’un et vous n’avez aucune idée de savoir s’il est même humain. Vous voyez quelque chose, vous voyez une vidéo, vous entendez un audio, vous ne savez pas si c’est vrai ou si c’est

(19:59) faux, si c’est un être humain ou non. Dans cette situation, à moins que nous n’ayons certaines protections, la conversation s’effondre. Est-ce ce que vous voulez dire quand vous dites que l’IA risque de pirater le système d’exploitation ? C’est l’une des choses. Si les bots peuvent imiter les gens, c’est un peu comme ce qui se passe dans le système financier : les gens ont inventé l’argent et il était possible de contrefaire de l’argent, de créer de la fausse monnaie. La seule façon de sauver le système financier de l’effondrement était d’avoir une réglementation très stricte contre la fausse monnaie

(20:34) car la technologie pour créer de la fausse monnaie a toujours existé. Mais il y avait une réglementation très stricte contre cela parce que tout le monde savait que si vous laissiez la fausse monnaie se propager, la confiance dans l’argent s’effondrerait. Et maintenant, nous sommes dans une situation analogue avec la conversation politique : il est maintenant possible de créer de faux individus et si nous ne l’interdisons pas, alors la confiance s’effondrera. Nous en arriverons à l’interdiction ou non dans un instant. La démocratisation de l’accès au droit de diffuser a été l’histoire

(21:05) des 30 dernières années. Des centaines de millions de personnes peuvent maintenant créer des podcasts et des blogs, et elles sont libres de diffuser leurs pensées sur Twitter et sur Internet en général. Je pense que cela a été un développement incroyablement positif. Vous n’avez plus besoin d’avoir accès au premier journal ou d’acquérir les compétences nécessaires pour faire partie de cette institution. Beaucoup de gens craignaient à l’époque que cela détruise notre crédibilité et notre confiance dans les grands médias et les institutions. Je pense que nous nous sommes incroyablement bien adaptés. Oui, il y a eu

(21:36) beaucoup de bouleversements et d’instabilité, mais avec chacune de ces nouvelles vagues, je pense que nous ajustons notre capacité à discerner la vérité, à rejeter les absurdités. Et il y a à la fois des mécanismes techniques et de gouvernance qui émergeront dans la prochaine vague, dont nous pourrons parler, pour aborder des choses comme l’usurpation par les bots. Je suis tout à fait d’accord avec vous. Je pense que nous devrions interdire l’usurpation de personnes digitales. Il ne devrait pas être possible de créer un loufoque digital et de le laisser s’exprimer sur Twitter en disant toutes sortes de bêtises

(22:05) qui n’ont rien à voir avec la réalité. Donc, je pense qu’il y a des mécanismes techniques que nous pouvons mettre en place pour prévenir ce genre de choses et c’est pourquoi nous en parlons. Il y a des mécanismes, nous devons simplement les utiliser. Je dirais deux choses : premièrement, c’est une très bonne chose que davantage de personnes aient eu une voix. C’est différent avec les bots. Les bots n’ont pas la liberté d’expression. Donc, interdire les bots, c’est bien car ils ne devraient pas avoir de liberté d’expression. C’est très

(22:32) important. Oui, il y a eu de merveilleux développements au cours des 30 dernières années. Cependant, je suis très préoccupé quand je regarde des pays comme les États-Unis, comme le Royaume-Uni

. Ce n’est pas seulement le problème des bots. Il y a une véritable crise de l’information. Cela va au-delà de la question de l’usurpation par des bots. Mais je suis optimiste quant à notre capacité à le surmonter.

(23:02) La conversation s’effondre au point que les gens ne peuvent plus s’accorder sur qui a remporté les dernières élections, comme le fait le plus élémentaire dans une démocratie : qui a gagné. Nous avons eu d’énormes désaccords auparavant, mais j’ai l’impression que maintenant c’est différent, que la conversation s’effrite vraiment. Je ne sais pas pourquoi, mais c’est vraiment inquiétant qu’au moment où nous disposons de la technologie de l’information la plus puissante de l’histoire, les gens ne puissent plus communiquer entre eux. C’est un très bon point, nous…

(23:32) avons effectivement eu, vous l’avez peut-être vu, un grand dossier en couverture examinant quel pourrait être l’impact à court terme sur les élections et sur le système politique. Nous en sommes effectivement arrivés à la conclusion que l’IA aurait probablement un impact relativement faible à court terme, car il y avait déjà si peu de confiance. C’était donc une sorte de réponse à double tranchant, ce n’était pas une énorme différence, mais seulement parce que les choses étaient déjà assez mauvaises en elles-mêmes. Mais vous avez tous les deux dit qu’il fallait une régulation avant d’aborder précisément comment…

(24:02) L’entité que nous avons pour faire cela est l’État-nation et les gouvernements nationaux. Pourtant, dans votre livre, Mustafa, vous vous inquiétez du fait qu’un des dangers potentiels soit que les pouvoirs de l’État-nation soient érodés. Pourriez-vous expliquer cela comme étant le troisième de mes sens croissants de risques? Le défi est qu’au moment même où nous avons besoin de l’État-nation pour nous responsabiliser, l’État-nation lutte sous le poids d’un manque de confiance, d’une énorme polarisation et d’une rupture de notre processus politique.

(24:34) Et en parallèle, les derniers modèles sont développés par des entreprises privées et en open source. Il est important de reconnaître que ce ne sont pas seulement les plus grands développeurs d’IA, il y a une énorme prolifération de ces techniques largement disponibles en code open source que les gens peuvent télécharger sur le web gratuitement et ils sont probablement à environ un an ou un an et demi derrière le summum de la technologie des grands modèles. Nous sommes donc confrontés à ce double défi : comment tenir le pouvoir centralisé responsable lorsque…

(25:01) le mécanisme existant est fondamentalement un peu défaillant et comment aborder cette question de la prolifération massive lorsqu’il n’est pas clair comment arrêter quoi que ce soit dans une prolifération massive sur le web. C’est un énorme défi. Ce que nous avons commencé à voir, ce sont des initiatives d’auto-organisation de la part des entreprises. Elles se regroupent et acceptent de s’inscrire proactivement à une auto-surveillance, tant en termes d’audit qu’en termes de capacités que nous n’explorerons pas, etc. Je pense que cela n’est que partiellement rassurant pour les gens, clairement…

(25:33) peut-être pas rassurant du tout, mais la réalité est que je pense que c’est la bonne première étape, étant donné que nous n’avons pas encore démontré les dommages à grande échelle causés par les IA jusqu’à présent. Je pense que c’est l’une des premières fois, en ce qui concerne les vagues de technologie polyvalente, que nous commençons réellement à adopter un principe de précaution. Je suis un grand défenseur de cela. Je pense que nous devrions adopter un principe de « ne pas nuire » et cela pourrait signifier que nous devons laisser certains des avantages en suspens…

(26:01) et certains fruits pourraient ne pas être cueillis pendant un moment. Nous pourrions perdre certains avantages pendant quelques années, et nous pourrions ensuite regretter de ne pas être allés un peu plus vite. Je pense que c’est le bon compromis. C’est un moment de prudence, les choses s’accélèrent extrêmement rapidement et nous ne pouvons pas encore équilibrer parfaitement les dommages et les avantages tant que nous ne voyons pas comment cette vague se déroule un peu. J’aime le fait que notre entreprise, Inflection AI, et les autres grands…

(26:26) développeurs essaient d’adopter une approche un peu plus prudente. Je pense que c’est un point vraiment intéressant car nous avons cette conversation, vous avez tous les deux beaucoup écrit sur les défis posés par cette technologie. Il y a maintenant un jeu parmi les praticiens de ce monde pour savoir quel est le risque d’événements de niveau d’extinction. Il y a énormément de discussions à ce sujet et je ne sais pas, en fait, je devrais probablement vous demander quel pourcentage de votre temps, probablement…

(26:51) actuellement, c’est près de 100% de votre temps est concentré sur le risque puisque vous faites la promotion de votre livre, mais il y a beaucoup d’attention à ce sujet, ce qui est bon. Nous y pensons tôt. Cela nous amène, je pense, à la partie la plus importante de notre conversation, à savoir : que faisons-nous? Et vous, Mustafa, proposez un plan en 10 points qui est le genre d’action à faire que quelqu’un qui ne se contente pas de commenter comme vous et moi, mais qui fait réellement des choses, ferait. Alors dites-nous, que faisons-nous…

(27:18) Que devons-nous faire, en tant qu’humanité, gouvernements, sociétés, pour garantir que nous tirions parti de cette technologie tout en minimisant les risques ? Il y a des choses très concrètes. Par exemple, tester de manière adversaire ces modèles, les mettre sous pression pour les pousser à générer des conseils, par exemple, sur la façon de créer une arme biologique ou chimique, comment fabriquer une bombe, ou les pousser à être sexiste, raciste ou biaisé d’une manière ou d’une autre. C’est déjà assez significatif. Nous pouvons voir leurs faiblesses. La sortie de ces modèles au cours de la dernière année a permis à tout le monde, je pense, de voir non seulement leurs atouts, mais aussi leurs faiblesses, et c’est rassurant. Il faut le faire au grand jour. C’est pourquoi je suis un grand fan de la communauté open source telle qu’elle est aujourd’hui, car les vrais développeurs peuvent jouer avec les modèles et voir à quel point il est difficile de produire les capacités que nous craignons parfois qu’ils aient. Je pense que nous craignons qu’ils soient super manipulateurs et

(28:13) persuasifs et vous savez, destinés à être horribles, alors la première chose à faire

le faire au grand jour, la deuxième chose est que nous devons partager les meilleures pratiques et il y a donc une tension compétitive parce que la sécurité va être un atout, je vais livrer un meilleur produit à mes consommateurs si j’ai un modèle plus sûr, mais bien sûr il doit y avoir une exigence que si je découvre une vulnérabilité, une faiblesse dans le modèle, je dois la partager comme nous l’avons fait pendant des décennies dans de nombreuses vagues

(28:39) de la technologie, pas seulement dans la sécurité des logiciels par exemple, mais aussi dans l’aviation, vous savez, l’enregistreur Black Box par exemple, s’il y a un incident important, non seulement il enregistre toute la télémétrie à bord de l’avion, mais aussi tout ce que les pilotes disent dans le cockpit et s’il y a un incident de sécurité important, il est partagé dans le monde entier avec tous les concurrents, ce qui est formidable. Les avions sont l’un des moyens les plus sûrs de se déplacer, même si, à première vue, si vous le décriviez à un extraterrestre, il se trouverait à 40 000

(29:05) pieds dans le ciel est une chose très étrange à faire, alors je pense qu’il y a là un précédent que nous pouvons suivre Je suis également d’accord pour dire qu’il est probablement temps pour nous de déclarer explicitement que nous ne devrions pas permettre à ces outils d’être utilisés pour la propagande électorale Je veux dire que nous ne pouvons pas encore leur faire confiance, nous ne pouvons pas leur faire confiance pour qu’ils soient stables et fiables, nous ne pouvons pas permettre aux gens de les utiliser pour des contrefaçons numériques et clairement nous en avons déjà parlé, alors il y a certaines capacités que nous pouvons commencer à retirer de la table, une autre le serait

(29:32) l’autonomie à l’heure actuelle, je pense que l’autonomie est un ensemble de méthodes assez dangereuses ; elle est excitante, elle représente une possibilité qui pourrait être vraiment incroyable, mais nous n’avons pas encore compris quels sont les risques et les limites ; de même, entraîner une IA à mettre à jour et à améliorer son propre code ; cette notion d’auto-amélioration récursive ; fermer la boucle de sorte que l’IA soit chargée de définir ses propres objectifs ; acquérir plus de ressources ; mettre à jour son propre code par rapport à un certain objectif ; ce sont des capacités assez dangereuses.

(30:04) Tout comme nous avons le KYC (Know Your Customer) ou comme nous autorisons les développeurs de technologies nucléaires et tous les composants impliqués dans cette chaîne d’approvisionnement, il viendra un moment où certains des grands fournisseurs de technologie voudront expérimenter ces capacités. Ils devront alors s’attendre à des audits robustes, ils devront être agréés et il devra y avoir une surveillance indépendante. Comment faites-vous cela ? Il me semble qu’il y a plusieurs défis à relever.

(30:31) L’un est la division entre les modèles de pointe relativement peu nombreux, dont vous en avez un, et la longue queue des modèles open source où la capacité de construire le modèle est décentralisée. Beaucoup de gens y ont accès. J’ai l’impression que les capacités de ces derniers sont légèrement en retard sur celles des premiers, mais elles progressent constamment. Donc, si vous avez une capacité open source considérable, qu’est-ce qui empêche un adolescent en colère dans une petite ville de développer des capacités qui pourraient fermer l’hôpital local ?

(31:04) Comment, dans votre cadre réglementaire, prévoyez-vous cela ? Regardez, une partie du défi est que ces modèles deviennent plus petits et plus efficaces. Nous savons, grâce à l’histoire des technologies, que tout ce qui nous est utile et précieux devient moins cher, plus facile à utiliser, et se répand partout. Le destin de cette technologie sur une période de deux, trois ou quatre décennies doit être la prolifération, et nous devons faire face à cette réalité. Ce n’est pas une contradiction de dire que la prolifération semble inévitable, mais que contenir le pouvoir centralisé est un défi équivalent.

(31:34) il n’y a donc pas de réponse facile à cela. Je veux dire, au-delà de surveiller l’internet, il est assez clair que dans 30 ans, comme vous le dites, des bricoleurs de garage seront en mesure d’expérimenter. Si vous regardez la trajectoire de la biologie synthétique, nous avons maintenant des synthétiseurs de bureau. C’est-à-dire la capacité d’ingénierie de nouveaux composés synthétiques. Ils coûtent environ vingt mille dollars et permettent essentiellement de créer potentiellement des molécules qui sont, vous savez, plus transmissibles ou plus létales que ce que nous avions

(32:06) avec le COVID. Vous pouvez essentiellement expérimenter et le défi ici est qu’il n’y a pas de supervision. Vous l’achetez prêt à l’emploi, vous n’avez pas besoin de beaucoup de formation, probablement un niveau de licence en biologie aujourd’hui, et vous serez en mesure d’expérimenter. Bien sûr, ils vont devenir plus petits, plus faciles à utiliser et se répandre partout. Donc dans mon livre, j’essaie vraiment de populariser l’idée que c’est le principal défi de confinement des prochaines décennies. Donc vous utilisez le mot « confinement », ce qui est intéressant parce que

(32:33) vous savez, je suis sûr que le mot « confinement » avec vous évoque immédiatement des images de George Cannon et, vous savez, la dynamique post-guerre froide. Et nous sommes maintenant, vous savez, dans un monde géopolitique maintenant où, que vous l’appeliez ou non une nouvelle guerre froide, il y a une grande tension entre les États-Unis et la Chine. Est-ce que ce genre de confinement, comme le nomme Mustafa, peut être fait quand vous avez ce genre de tensions entre les grandes puissances mondiales ? Est-ce le bon paradigme de penser aux

(33:05) traités de contrôle des armements de la Guerre froide ? Comment faisons-nous cela à un niveau international ? Je pense que c’est le plus gros problème. Si c’était une question de, vous savez, humanité contre une menace commune de ces nouveaux agents extraterrestres intelligents ici sur Terre, alors oui, je pense qu’il y a des moyens de les contenir. Mais si les humains sont divisés entre eux et sont dans une course aux armements, alors cela devient presque impossible de contenir cette intelligence extraterrestre. Et il y a, je tends à penser de plus en plus en termes

(33:42) d’une véritable invasion extraterrestre. Comme quelqu’un venant nous dire que, vous savez, il y a une flotte, une flotte extraterrestre de vaisseaux spatiaux venant de la planète Zircon ou quoi que ce soit, avec des êtres hautement intelligents. Ils seront ici dans cinq ans et prendront le contrôle de la planète. Peut-être qu’ils seront gentils, peut-être qu’ils résoudront le cancer et le changement climatique, mais nous n’en sommes pas sûrs. C’est à quoi nous sommes confrontés, sauf que les extraterrestres ne viennent pas dans des vaisseaux spatiaux de la planète Zircon, ils viennent du laboratoire. Caractérisation technique de la nature

(34:19) de la technologie : un extraterrestre a par défaut de la capacité d’action. Ce sont des outils que nous pouvons appliquer, nous avons des paramètres précis, oui ils ont potentiellement une capacité d’action nous pouvons essayer de les empêcher d’avoir une capacité d’action mais nous savons qu’ils seront très intelligents et qu’ils auront au moins une capacité d’action et c’est un mélange très effrayant auquel nous n’avons jamais été confrontés auparavant encore une fois les bombes atomiques n’avaient pas de capacité d’action les presses d’imprimerie n’avaient pas de capacité d’action cette chose encore une fois.

(34:54) à moins que nous ne le contenions, et le problème de contenir est très difficile car potentiellement ils seront plus intelligents que nous. Comment empêchez-vous quelque chose de plus intelligent que vous de développer les capacités d’action qu’il possède ? Je ne dis pas que c’est impossible, je dis juste que c’est très, très difficile. Je pense que notre meilleur pari n’est pas de penser en termes de régulation rigide, vous devriez faire ceci, vous ne devriez pas faire cela, mais plutôt de développer de nouvelles institutions vivantes qui sont capables de

(35:31) comprendre les développements très rapides et de réagir à la volée. Actuellement, le problème est que les seules institutions qui comprennent vraiment ce qui se passe sont celles qui développent la technologie. La plupart des gouvernements semblent assez perdus sur ce qui se passe, ainsi que les universités. En effet, la quantité de talent et les ressources économiques dans le secteur privé sont bien plus élevées qu’à l’université. Et encore, j’apprécie qu’il y ait des acteurs dans le secteur privé, comme Mustafa, qui réfléchissent sérieusement à la régulation et au confinement. Mais nous devons avoir une entité externe dans le jeu. Et pour cela, nous devons développer de nouvelles institutions qui auront les ressources humaines, économiques et technologiques et qui auront également la confiance du public. Car sans la confiance du public, cela ne fonctionnera pas. Sommes-nous capables de créer de telles nouvelles institutions ? Je ne sais pas. Je pense qu’Eva soulève un point important, à savoir que lorsque nous avons commencé cette conversation, vous décriviez la situation dans cinq ans

(36:44) où les IA seraient omniprésentes, nous aurions tous les nôtres, mais elles auraient la capacité d’agir, pas seulement de traiter de l’information. Elles auraient la créativité qu’elles ont maintenant et la capacité d’agir. Mais déjà, à partir de ces modèles d’IA génératifs, le pouvoir que nous avons vu ces dernières années a été qu’ils ont pu agir de manière inattendue. Ils ont atteint des niveaux que ni vous, ni vos collègues technologues n’avaient anticipés. Ils ont progressé à une vitesse

(37:17) que je n’avais pas anticipée. L’aspect frappant d’eux est qu’ils ont évolué de manière inattendue et rapide. Si vous combinez cela avec la capacité, vous n’avez pas besoin d’aller aussi loin que Yuval pour dire qu’ils sont tous plus intelligents que les humains. Mais il y a une imprévisibilité là-dedans qui, je pense, soulève les préoccupations que Yuval soulève, à savoir que vous, leurs créateurs, ne pouvez pas tout à fait prédire les pouvoirs qu’ils auront. Ils ne seront peut-être pas totalement autonomes, mais ils se déplaceront dans cette direction.

(37:49) Comment vous défendre contre cela ou comment faire pour, vous savez, tester en conditions réelles, ce que j’ai compris, c’est que vous continuez à vérifier ce qui se passe et à les ajuster lorsque vous avez vu ce qui se passe. Vous ne pouvez pas tester pour tout, donc il y a un point très réel que Yuval soulève, à savoir que à mesure que les capacités augmentent, les risques d’en dépendre et d’autres entreprises créatrices augmentent. C’est une question très juste, c’est pourquoi

(38:20) j’appelle de mes vœux depuis longtemps le principe de précaution. Nous devrions mettre de côté certaines capacités et les classer comme à haut risque. Je veux dire, franchement, le projet de loi sur l’IA de l’UE, qui est en projet depuis trois ans et demi, est très sensé. Il a un cadre basé sur le risque qui s’applique à chaque domaine d’application, qu’il s’agisse de la santé, de la conduite autonome ou de la reconnaissance faciale. Et il retire certaines capacités de la table lorsque ce seuil est dépassé. J’en ai énuméré quelques-unes plus tôt, l’autonomie, par exemple, c’est

(38:48) clairement une capacité qui a le potentiel d’être à haut risque. L’amélioration autonome récursive, c’est la même chose. C’est le moment d’adopter un principe de précaution, non pas par peur, mais comme une manière logique et sensée de procéder. Un autre modèle que je trouve très sensé est d’adopter une approche de type GIEC, un consensus international autour d’un pouvoir d’enquête pour établir les faits scientifiques sur l’endroit où nous en sommes en matière de capacités. Cela a été un processus incroyablement précieux

(39:18) mise de côté les négociations et la prise de décision, juste l’observation des preuves. Où en sommes-nous ? Vous n’avez pas à me croire, vous devriez pouvoir consulter un panel indépendant d’experts à qui j’accorderais personnellement l’accès à tout dans mon entreprise s’ils étaient un acteur véritablement impartial et digne de confiance. Sans poser de questions, nous accorderions un accès complet, et je sais que

beaucoup d’autres entreprises feraient de même. Encore une fois, les gens sont attirés par le scénario de l’IA qui crée un virus mortel, Ebola plus Covid, et tue tout le monde. Allons plutôt dans

(39:49) la direction de The Economist. Des systèmes financiers, comme vous l’avez proposé comme nouveau test de Turing, l’idée de l’IA gagnant de l’argent. Qu’y a-t-il de mal à gagner de l’argent ? Une chose merveilleuse. Donc, disons que vous avez une IA qui a une meilleure compréhension du système financier que la plupart des humains, la plupart des politiciens, peut-être la plupart des banquiers. Et, repensons à la crise financière de 2007-2008. Cela a commencé avec, comment était-ce, qu’est-ce qu’ils appellent, des CDO, c’est cela ? Exactement, quelque chose que ces mathématiciens de génie ont inventé. Personne ne les comprenait à part quelques-uns.

(40:31) Des mathématiciens de génie à Wall Street, c’est pourquoi personne ne les a réglementés et presque personne n’a vu venir l’effondrement financier. Que se passe-t-il à nouveau, ce genre de scénario apocalyptique que vous ne voyez pas dans les films de science-fiction hollywoodiens : l’IA invente une nouvelle classe d’instruments financiers que personne ne comprend. C’est au-delà de la capacité humaine à comprendre, c’est des mathématiques tellement compliquées, tellement de données, que personne ne le comprend. Elle fait des milliards de dollars, des milliards et des milliards de dollars, puis elle fait s’effondrer l’économie mondiale et aucun être humain

(41:05) ne comprend ce qui se passe, comme les premiers ministres, les présidents, les ministres des finances. Qu’est-ce qui se passe ? Et encore une fois, ce n’est pas fantastique. Je veux dire, nous l’avons vu avec des mathématiciens humains en 2007-2008. Je pense que c’est l’un des scénarios, vous pouvez facilement imaginer des situations ici qui vous font vouloir sauter du haut d’une falaise, et c’est l’une d’elles. Mais ma réponse à Mustafa, c’est de revenir aux questions géopolitiques.

(41:37) Est-il judicieux pour un pays d’exclure certaines capacités si l’autre camp ne va pas les exclure ? Donc vous avez un problème d’économie politique. C’est un moment où nous, collectivement en Occident, devons établir nos valeurs et les défendre. Ce que nous ne pouvons pas avoir, c’est une course vers le bas qui dit que juste parce qu’ils le font, nous devrions prendre le même risque. Si nous adoptons cette approche et prenons des raccourcis à gauche et à droite, nous en paierons finalement le prix.

(42:09) Ce n’est pas une réponse à « bien, ils vont le faire de toute façon ». Nous l’avons certainement vu avec les armes autonomes létales. Il y a eu des négociations à l’ONU pour réguler ces armes pendant plus de 20 ans et ils ont à peine trouvé un accord sur la définition des armes autonomes létales, sans parler d’un consensus. Mais nous devons accepter que c’est la trajectoire inévitable. Et de notre point de vue, nous devons décider ce que nous sommes prêts à tolérer dans la société en matière de reconnaissance

(42:35) faciale et de systèmes généralement autonomes. Jusqu’à présent, nous avons adopté une approche assez prudente. Nous n’avons pas de drones qui volent partout. C’est techniquement possible de faire voler un drone de façon autonome pour naviguer autour de Londres. Nous l’avons exclu. Nous n’avons pas encore de voitures autonomes même si, dans une certaine mesure, elles fonctionnent bien. Le processus réglementaire est

(43:03) également un processus culturel qui définit ce que nous considérons comme socialement et politiquement acceptable à un moment donné. Et je pense qu’un niveau approprié de prudence est ce que nous voyons. Mais je suis tout à fait d’accord pour dire que nous avons besoin, dans de nombreux domaines, d’une coalition de pays volontaires. Si certains acteurs dans le monde ne veulent pas adhérer, pour protéger nos sociétés, c’est toujours une

(43:34) C’est une très bonne idée d’avoir ce genre de régulations. Ce point d’accord est une bonne manière de conclure. Mais je veux finir en demandant à tous les deux, d’abord à toi Mustafa. Vous lancez tous les deux des alertes, mais tu es profondément impliqué dans la création de ce futur. Pourquoi continues-tu ? Je crois personnellement qu’il est possible d’obtenir les avantages et de minimiser les inconvénients de l’IA que nous avons créée. Pi, qui signifie « intelligence personnelle », est l’une des plus sûres au monde aujourd’hui. Elle ne génère pas les biais racistes, toxiques et avides

(44:08) qu’elle produisait il y a deux ans. Elle ne succombe à aucune des évasions, des hacks ou des attaques des équipes adverses rouges. Rien de cela ne fonctionne et nous avons fait de la sécurité une priorité absolue dans la conception de notre produit. Mon objectif a été de faire de mon mieux pour montrer une voie à suivre de la meilleure manière possible. C’est une évolution inévitable sur plusieurs décennies. Cela se produit vraiment, la prochaine vague arrive et je pense que ma contribution est d’essayer de montrer de la meilleure façon possible une manifestation d’une intelligence personnelle

(44:37) qui respecte vraiment les meilleures contraintes de sécurité que nous pouvons imaginer. Alors Yuval, après avoir entendu l’explication de Mustafa, en regardant l’histoire humaine et en envisageant l’avenir, pensez-vous que cette technologie et ce rythme d’innovation seront regrettés par l’humanité ? Ou Mustafa devrait-il continuer ? Je ne peux pas prédire l’avenir. Nous investissons tellement dans le développement de l’intelligence artificielle et ce n’est que le début.

(45:08) En termes d’évolution, c’est comme une amibe, un embryon d’intelligence artificielle. Et il ne faudra pas des millions d’années pour arriver à un T-Rex, peut-être 20 ans. Mais il faut se rappeler que nos propres esprits ont aussi un immense potentiel de développement. En tant qu’humanité, nous n’avons pas encore vu tout notre potentiel. Si pour chaque dollar et chaque minute que nous investissons dans l’intelligence artificielle, nous investissons également dans le développement de notre propre conscience, (45:44) je pense que nous irons bien. Mais je ne le vois pas se produire. Je ne vois pas ce type d’investissement chez les êtres humains comme nous le voyons dans les machines. Pour moi, cette conversation avec vous deux a été un tel investissement. Merci beaucoup à vous deux. Merci, merci, merci, merci.

Un commentaire sur « Yuval Noah Harari et Mustafa Suleiman en entrevue avec the Economist pour parler de l’IA »

Partager votre opinion permet d'élever la discussion!

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.