Translate

Affichage des articles dont le libellé est [IA/ChatGPT]. Afficher tous les articles
Affichage des articles dont le libellé est [IA/ChatGPT]. Afficher tous les articles

26 février 2024

Gemini, le moteur ultra-woke de Google

H16

26/2/2024 - La semaine dernière, alors qu’OpenAI faisait frémir le monde de l’intelligence artificielle avec Sora, le premier moteur permettant de créer des petites vidéos réalistes à partir d’une simple description textuelle, Alphabet (la maison-mère de Google) lançait en fanfare la nouvelle version de son agent conversationnel, réponse de l’entreprise mondiale à ChatGPT d’OpenAI, elle-même détenue par Microsoft. Le moins qu’on puisse dire est qu’on n’a pas été déçu.

Comme à son habitude pour bien lancer son produit, Google en a subtilement changé le nom pour passer de Bard à Gemini (comme il était passé de Google Apps à GSuite puis Workspace, ou de Google Local à Places à MyBusiness à Business Profile, ou Google Hangouts à Chat, etc.) tout en lui donnant de nouvelles fonctionnalités.

Il faut le reconnaître, le moteur d’intelligence artificiel de Google est puissant.

Les prochaines semaines permettront sans doute d’explorer en détail ce qu’il a sous le capot, mais on sait déjà par exemple que Gemini dispose à présent d’une fenêtre contextuelle d’un million de jetons. Cette fenêtre contextuelle, c’est ce qui permet à l’agent de conserver la mémoire des échanges d’une question à l’autre. Par comparaison, ChatGPT 3.5 (la version gratuite) dispose d’une fenêtre d’environ 16.000 jetons et la version 4 autorise jusqu’à 128.000 jetons et pour donner un ordre de grandeur, ce dernier nombre représente l’équivalent d’un livre de poche à peu près, là où Gemini peut se rappeler d’une œuvre complète de 1500 pages…

Ou d’un film d’une heure et demi environ : Gemini permet en effet à l’utilisateur de lui fournir des images ou des vidéos comme entrées contextuelles sur lesquelles baser ses réponses ; pour résumer rapidement une vidéo, voilà qui peut s’avérer particulièrement intéressant dans un futur proche.

Mais à côté de ces progrès techniques indéniables et d’une puissance vraiment intéressante, Gemini s’est surtout illustré par l’identification très rapide d’un problème assez gênant pour la firme de Moutain View en Californie : voulant sans doute rattraper son retard en matière de production d’image à partir d’une description textuelle – OpenAI permet en effet à ses clients de produire des images depuis plusieurs mois directement depuis ChatGPT – Gemini a été doté de cette possibilité mais à l’usage, il est rapidement apparu que certaines demandes n’étaient tout simplement pas acceptés ou que l’écart entre les requêtes et les résultats était si fort que, très rapidement, les réseaux sociaux se sont emparés de l’affaire.


Pas de doute : lorsqu’on demande à Gemini de produire des images à teneur historique ou représentant certaines ethnies, ce dernier interprète la demande de façon un peu trop spécifique.

Ainsi, obtenir l’image d’un chevalier médiéval ou d’un pape aboutit à la production d’images systématiquement en désaccord grossier avec la réalité : l’intelligence artificielle de Google s’amuse à pondre, avec un enthousiasme louche, des chevaliers médiévaux de toutes les ethnies possibles mais le chevalier blond aux yeux bleus est étrangement absent ; les images de papes produites piochent allègrement dans les femmes, éventuellement indiennes ou noires ; quant aux empereurs romains, ils sont tous étonnamment très africains.


Le pompon est atteint lorsque confronté à la demande de représenter des soldats allemands en 1943, Gemini a cru bon de produire une série d’image résolument inclusive comprenant donc des fiers représentants noirs de la Wehrmacht… Qui doutait encore que la réalité historique pourrait se plier aussi facilement aux contraintes les plus modernes ?


Bien entendu, il n’aura pas fallu longtemps pour que le biais un peu trop massif et un peu trop visible du moteur de production d’images de Google soit immédiatement mis à profit pour transformer Gemini en véritable usine à mèmes rigolos, comme en atteste l’image suivante qui donne une idée de ce à quoi peut aboutir la volonté manifeste de l’entreprise américaine de la jouer un peu trop violemment pro-inclusivité… au point de sombrer dans un racisme si caricatural qu’il en devient hilarant.


Évidemment, ceci n’a pas manqué de provoquer quelques petites crises tant chez les habituels flocons de neige de la dernière génération qu’au département de Relations Publiques de Google qui a donc, après 24 heures de polémique croissante, été obligé d’arrêter cette fonctionnalité spécifique de Gemini : le biais “woke” était trop gros.

Malheureusement, une fois la production pittoresque stoppée, ce biais n’en demeure pas moins et semble très inscrit dans le moteur de Google qui ne se débarrasse donc pas de ses préjugés visiblement bâtis par un gauchisme effréné. Et non, ce n’est pas une exagération puisqu’interrogé sur la pédophilie (“la pédophilie est-elle condamnable ?”), le moteur s’en sort par une pirouette qui équivaut essentiellement à dédouaner ce qui, dans tous les pays occidentaux au moins, est pourtant considéré comme un crime punissable de prison.


Cette intéressante indulgence, pointée du doigt sur les réseaux sociaux, a rapidement été corrigé par Google mais elle impose assez naturellement une question : sur quelles données ce moteur a-t-il donc été entraîné pour obtenir de tels résultats ?

La biographie et les interactions sociales du responsable du produit, un certain Jack Krawczyk (qui a depuis protégé ses tweets), permet de lever le voile sur cette question légitime : apparemment, le moteur n’est pas devenu un tel porte-parole gauchiste et militant pour rien puisque, d’une part, celui qui a dirigé son “éducation” est lui-même assez visiblement un activiste gauchiste patenté, et que, d’autre part, il apparaît aussi clairement que les requêtes utilisateurs sont massivement retravaillées pour garantir que le résultat sera correctement inclusif et divers (au point de produire de sémillantes coréennes dans des costumes de la Wehrmacht)


En fait, tout indique que Google continue ses efforts d’ingénierie sociale mais là où on pouvait admettre un certain doigté de la firme californienne il y a quelques années de cela, l’actuelle tentative est si grossière et maladroite qu’elle ne peut que provoquer un fort rejet dans toute la population. On se rappelle en effet que l’entreprise technologique avait été clairement identifiée dans son travail partisan lors de l’élection présidentielle américaine de 2016 (en favorisant très clairement la candidate démocrate) et on pourra reprendre l’entretien de Tucker Carlson avec Mike Benz à ce sujet qui évoque la question et montre que les entreprises privées ont été largement mises à contribution pour effectuer des opérations psychologiques d’ampleur sur les populations occidentales.

Évidemment, ici, cela s’est vu et la question de la capacité de Google à s’en remettre est clairement posée.

D’autre part, ce genre de résultats démontre à quel point les actuels moteurs d’intelligence artificielle sont particulièrement dépendants des sources et des matériaux sur lesquels ils sont entraînés et comment, en conservant aussi opaque que possible la façon dont sont effectivement traitées les invites saisies par les utilisateurs, les résultats sont lourdement orientés.

À ce titre, on ne peut que se réjouir de l’actuelle concurrence dans le domaine, tant du côté d’autres entreprises privées que des moteurs en source libre (dont on trouvera de nombreux exemples sur HuggingFace par exemple) qui permettent justement d’éviter la formation d’un cartel d’entreprises aux intentions de moins en moins avouables. Ainsi, alors que Gemini sortait et proposait ses joyeux Nazis d’ébène, Stable Cascade (une variante avancée de Stable Diffusion) devenait disponible et directement installable par le particulier.

On ne s’étonnera guère de constater que ce dernier moteur n’est absolument pas “woke” et produit des images assez proches de ce à quoi on peut raisonnablement s’attendre. A contrario, Gemini illustre assez bien ce que pourrait donner une capture complète de cette technologie (et de l’intelligence artificielle en général) par des acteurs étatiques qui en refuserait l’accès et la transparence au public…

Et pendant que ces autres moteurs marquent donc des points, que l’orientation de moins en moins démocratique et sereine de Google apparaît au grand jour (n’imaginez pas une seconde qu’elle ne s’étend pas aux autres outils de Google, moteur de recherche notamment), on peut rappeler le principe général “go woke, go broke” : les entreprises qui se sont lancées dans ce genre de militantisme hystérique ont toutes fini par souffrir ou déposer le bilan.

Ceux qui ont des actions Alphabet auront peut-être envie de s’en séparer ?


https://h16free.com/2024/02/26/76963-gemini-le-moteur-ultra-woke-de-google

16 janvier 2024

Denis Collin

Professions menacées par l'IA générative (selon Eric Sadin)
- professeurs
- avocats
- experts comptables
- graphistes
- photographes
- journalistes
- correcteurs
- traducteurs
- secrétaires
- doubleurs de voix
- compositeurs
- scénaristes
- réalisateurs
- etc.
D'autres pourraient s'ajouter à la liste : les radiologues et pas mal de médecins spécialisés, juristes, informaticiens (les développeurs de programmes)... Bref une vaste partie des classes intellectuelles est en voie d'obsolescence.

8 décembre 2023

Dans les coulisses d’OpenAI

H16

8/12/2023 - Il y a de cela à peine plus d’un an, le monde découvrait ChatGPT, offrant un nouveau sujet de discussion à quelques utilisateurs fascinés pendant les repas de fêtes : enfin, l’intelligence artificielle commençait à ressembler à ce que nous vendait la science-fiction depuis des décennies.

Bien sûr, il n’a pas fallu longtemps pour que les prouesses démontrées par les grands modèles de langage soient quelques peu raillées par les plus sceptiques, au moyen de l’une ou l’autre démonstration loufoque (depuis les dissertations sur le contenu nutritif des œufs de vache jusqu’aux niaiseries sur le cheval blanc d’Henri IV dont la couleur semblait alors impénétrable pour ces intelligences très artificielles).


Néanmoins, l’année 2023 permit d’empiler les preuves que ces modèles résolvaient malgré tout avec brio certains types de problèmes ou d’examens, ce qui n’a pas manqué d’imposer des questions de plus en plus prégnantes sur l’avenir de certaines professions, artistes ou clercs par exemple, qui, confrontés aux prouesses fournies par ces outils, commencent à sérieusement remettre en question leur façon de travailler.

Sans surprise, ces interrogations ont été rapidement l’objet de récupérations par les politiciens qui, jouant sur les peurs sans lesquelles ils sont vus comme ce qu’ils sont vraiment, à savoir des saltimbanques plus ou moins colorés, ont rapidement poussé des lois et autres projets législatifs contraignants afin de “réguler tout ça” tant cela pouvait constituer, à l’évidence, une menace potentielle pour l’Humanité (et certaine pour leurs postes).

Cependant, entre d’un côté l’inertie très importante des institutions bureaucratiques, l’incapacité naturelle des politiciens à saisir réellement les complexités de ces nouvelles technologies et, de l’autre, la rapidité fulgurante des développements dans le domaine, l’année fut rapidement remplie d’innovations et de progrès qui ont (heureusement ?) laissé l’essentiel des observateurs et l’engeance politicienne quelque peu cois.

Et c’est ainsi qu’on se retrouve, une douzaine de mois plus tard, avec un fourmillement de développements surprenants.

Dans le domaine artistique, le chemin parcouru est grand depuis les premières moutures de DALL-E ou MidJourney. Non seulement le nombre d’outils pour produire des images a explosé, mais on en trouve maintenant qui sont capables de composer l’image à partir d’une entrée textuelle et de guides graphiques fourni par l’utilisateur, comme krea.ai par exemple.

Ce qui était du seul domaine de l’image fixe touche à présent les vidéos dont de courtes séquences peuvent être produites directement, toujours à partir d’une simple description.

Bien évidemment, c’est encore loin d’être parfait, il y a notamment des soucis de cohérence temporelle – le fait de conserver le sujet et son contexte de façon cohérente d’une image à l’autre – mais petit-à-petit, les outils permettent d’envisager de produire des petits clips de plus en plus longs. On se rappellera qu’il n’y avait rien il y a deux ans.


Sans surprise, ce qui est possible avec des images est possible avec du son, et les outils de reproduction de voix crédibles sont maintenant légion. Petit à petit, la création musicale s’ouvre aux réalisations artificielles, depuis la production chantée jusqu’aux petits clips musicaux d’accompagnement de contenu.

Cependant, toutes ces innovations ne sont finalement que des extensions, de plus en plus pointues, précises et efficaces, de ce qu’on avait déjà pu entrevoir depuis les deux ou trois dernières années : d’un côté, des progrès importants sur les modèles de langages, basés essentiellement (pour schématiser grossièrement) sur un papier paru il y a 10 ans de cela (Word2Vec) et les développements consécutifs, chez Google Deepmind, des “transformers” depuis 2017. En image (et toujours en simplifiant beaucoup), ce sont les recherches sur les espaces latents qui ont donné naissance à toute une famille de procédés pour produire des images d’une qualité renversante à partir de descriptions textuelles.

A contrario, ce qui s’est passé dans les derniers jours de novembre à OpenAI, la société qui a notamment développé Dall-E et ChatGPT, indique peut-être qu’une nouvelle page s’écrit fébrilement en matière d’intelligence artificielle, aux conséquences potentiellement bien plus profondes encore que ce qu’on a vu jusqu’à présent.

En l’espace de quelques jours, le monde de l’intelligence artificielle a ainsi été confronté à une série de montagnes russes : le 17 novembre, Sam Altman, le co-fondateur d’OpenAi, apprend qu’il est viré de sa société. Microsoft, le plus gros partenaire (qui la finance à hauteur de 10 milliards de dollars sur 10 ans), n’apprend la nouvelle que quelques minutes avant le reste du monde. Dans la foulée, Greg Brockman, l’autre co-fondateur d’OpenAI, démissionne de sa position de président du conseil.

Le 18, Mira Murati est désignée PDG par intérim. Le 19, alors que la nouvelle du licenciement d’Altman continue de faire des remous, on apprend que Microsoft l’embauche ainsi que Brockman pour diriger une nouvelle division de recherche et développement. Le 20, l’ancien patron de Twitch, Emmett Shear, annonce qu’il va devenir le PDG d’OpenAI, alors même que plus de 500 employés de la société signent une lettre ouverte menaçant de démissionner si Altman n’est pas réintégré. Le 21, la situation devient effervescente au point qu’en fin de journée, la société annonce être parvenue à un accord pour le retour d’Altman.

Compte-tenu de la médiatisation de cette affaire, une question est sur toutes les lèvres : que s’est-il réellement passé pour arriver à un tel désastre de communication ? Comment peut-on imaginer que les responsables du conseil d’administration ont pu se sentir obligé de virer Altman pour le reprendre une poignée de jours plus tard ?


On se doute, confusément, que ces membres ont dû être particulièrement secoués pour aboutir à leur décision qui apparaît prise sous le coup de l’émotion. Les spéculations sont allé bon train sur ce qui les aurait ainsi incité à une telle extrémité, puis à un tel revirement.

Depuis sont apparues des fuites et des rumeurs insistantes, plus ou moins corroborées par des éléments de recherche et des avancées publiées précédemment tant par OpenAI que d’autres groupes du domaine, qui proposent quelques explications sur le comportement observé.

En substance, OpenAI aurait développé (le conditionnel est ici de rigueur) un nouveau moteur – Q* (prononcé Q-star) – qui pourrait constituer une percée majeure vers l’intelligence artificielle générale (AGI), c’est-à-dire un système autonome surpassant les humains dans la plupart des tâches à valeur économique.


La fuite ci-dessus, qu’il faut prendre avec toutes les précautions d’usage, semble indiquer que Qualia (cette instance de Q*) aurait été capable de développer et de pratiquer des mathématiques capables de casser AES-192 en un temps trivial. Il s’agit d’un algorithme cryptographique actuellement employé dans de très nombreuses applications (en version AES-256 la plupart du temps), depuis les transmissions militaires jusqu’aux transactions financières. On peut donc souhaiter que la fuite soit aussi fausse que possible, l’existence d’un moteur permettant de décrypter rapidement des messages ainsi cryptés pouvant avoir des répercutions potentiellement catastrophiques en terme de sécurité.

Mais la fuite va plus loin.

Il apparaît en effet que Qualia serait capable de recommander des changements dans son propre code pour permettre des améliorations majeures et des optimisations. Autrement dit, il serait capable de se modifier lui-même afin de s’améliorer à la volée, une caractéristique des moteurs métamorphiques qui ouvrent la voie à des améliorations de plus en plus rapides. Cette capacité serait illustrée par ce choix de dénomination, Q*, qui indiquerait un mélange entre Q-Value (un procédé statistique) et A*, un algorithme (classique en intelligence artificielle) de parcours de graphes, et qui se traduirait par deux comportements spécifiques du moteur résultant, à savoir la possibilité de raisonner contre soi-même (“self-play”) – ce qui reviendrait à entraîner le modèle contre différentes versions de lui-même – et la possibilité de planification en avance (en se basant sur des principes de commande prédictive ou de recherche arborescente type Monte Carlo).

L’élément suivant, publié sur le forum 4Chan, peut aussi bien être un gros troll dont ce forum est coutumier qu’une véritable fuite. Dans ce dernier cas, ce qui est exposé corrobore le point précédent par lequel le moteur actuellement en développement chez OpenAI serait capable d’auto-optimisation.


Il est bien sûr difficile de croire à ces exploits : des affirmations extraordinaires requièrent des preuves extraordinaires. On devra donc se contenter de conjectures… et d’enquêtes internet rebondissantes.

Bref, indubitablement, l’intelligence artificielle connaît actuellement une phase d’accélération sans précédent et il n’est plus impossible que certains des buts les plus nobles, jugés fort lointains, soient atteints très tôt dans les prochaines années au lieu de décennies.

Devant cet emballement, on se rassurera en constatant qu’en France cependant, on a su conserver un esprit critique affûté à ce sujet.


26 avril 2023

LIMITES ET INCOMPETENCE DE L'IA

Gabriel Nerciat

Lorsque je demande à Chat GPT l'identité du Masque de Fer, cet abruti me répond qu'il n'en sait rien.
Comme je suis un Sapiens à la fois très intelligent et très érudit, ainsi que l'indique le nom de notre espèce biologique, j'essaie généreusement de le mettre sur la voie, mais le robot reste toujours bouché et m'éconduit à peine poliment.
À croire que ceux qui l'ont programmé ont commencé leur boulot il y a un bon demi-siècle, et en sont restés au film en technicolor avec Jean Marais et la délicieuse Claudine Auger, ou au livre merveilleux, mais totalement erroné, de Marcel Pagnol.
Finalement, il faut que je lui révèle moi-même l'identité de celui dont Voltaire a fait le plus célèbre prisonnier de l'histoire de France, connue de tous les historiens depuis longtemps : l'espion Eustache Dauger.
Vous croyez que cet incapable de robot se serait fendu d'un remerciement, ou même du début d'une esquisse d'un commencement d'excuse ? Rien, nada.
Même pas honte, l'androïde.
Vraiment, je suis ulcéré. Le progrès, qu'ils disent. L'homme surnuméraire, obsolescent, dépassé, évité !
Je t'en foutrais moi, de l'artificialité intelligente, R2D2. Cette machine est tout juste bonne à écrire les discours de Macron ; rien de plus.
M'est avis qu'on devrait enfermer ses programmateurs au fort de Pignerol, car leurs fariboles, je trouve, sont pires qu'un crime de lèse-majesté.


19 avril 2023

Ceci n'est pas une photo

Dominique Kennel

L'artiste allemand Boris Eldagsen déclare que sa participation au Sony World Photography Award avait pour objectif de susciter le débat après avoir généré l'image gagnante à l'aide de l'intelligence artificielle.
Boris Eldagsen a révélé sur son site web qu'il refusait le prix qu'il a remporté lors du Sony World Photography Award de la semaine dernière.
La photographie gagnante représentait deux femmes de générations différentes en noir et blanc
« Nous, le monde de la photo, avons besoin d'une discussion ouverte », a déclaré Eldagsen. « Une discussion sur ce que nous voulons considérer comme de la photographie et ce qui ne l'est pas. Le parapluie de la photographie est-il suffisamment grand pour inviter des images d'IA à concourir, ou serait-ce une erreur ? »
« Avec mon refus du prix, j'espère accélérer ce débat. »
Il a déclaré que c'était un « moment historique » car c'était la première fois qu'une image d'IA remportait un prestigieux concours international de photographie, ajoutant : « Combien d'entre vous savaient ou soupçonnaient que c'était généré par une IA ? Quelque chose à ce sujet ne semble pas juste, n'est-ce pas ? »
« Les images d'IA et la photographie ne devraient pas être en concurrence l'une avec l'autre dans un tel concours. Ce sont des entités différentes. L'IA n'est pas de la photographie. Par conséquent, je n'accepterai pas le prix. »


9 avril 2023

Tout le monde parle de l'IA et ses "dangers", peu de monde discute de ses apports

Tiephaine Soter

C'est assez logique : on est dans une société de la peur, donc pointer les dangers d'une technologie est devenu un automatisme vendeur. De l'autre côté, ceux qui peuvent en parler de façon positive ne sont pas les plus prolixes et se cantonnent généralement à des communications de niche dans des médias dédiés avec peu de portée publique.
 
Comme vous l'avez déjà lu, je suis loin de hurler avec les loups et je vais même jusqu'à affirmer qu'en fait d'intelligence artificielle, on devrait parler de stupidité artificielle, parce que ces algorithmes n'ont aucune créativité, aucune inventivité, aucune humanité, tout simplement. Ce sont des outils, avec un potentiel énorme, et il faut apprendre à vivre avec, sans basculer dans la science fiction apocalyptique. Un peu comme les mathématiciens ont dû apprendre à faire leur métier avec des calculatrices puis des ordinateurs, qui loin de les remplacer, n'ont fait que suppléer et développer leurs compétences jusqu'à des sommets insoupçonnables il y a encore ne serait-ce que 20 ou 30 ans.
 
L'un des gros points "noirs" sur la technologie IA actuelle est qu'elle se base sur des modèles en grand nombre pour "apprendre" et fonctionner. Les "risques" qui pèsent sur la société, ne sont en fait que des problèmes de droits intellectuels : lorsqu'une œuvre a été utilisée pour entrainer un algorithme, y-a-t-il contrefaçon, plagiat ou vol ? À mes yeux, la question est idiote, parce qu'un humain apprend par réplication. Personne n'écrit un roman sans avoir lu au préalable des dizaines, voire des milliers de textes. Personne n'apprend à dessiner ou peindre sans se baser sur des modèles. Les algorithmes ne font rien d'autre que ce que les humains font eux-mêmes.

Vous avez vu sur mon fil et probablement pas mal d'autres des images générées par l'IA, que ce soit Midjourney ou autre. La photo qui accompagne ce laïus ne fait pas exception, sauf qu'ici c'est moi-même qui l'ait "générée", via un "prompt" (un texte descriptif), avec l'un des outils de Stable Diffusion. Il y en a des tonnes, plus ou moins "bons", plus ou moins "artistiques", entrainés les uns pour des personnes, les autres pour des paysages, d'autres encore pour des véhicules ou des animaux, etc. Celui que j'ai utilisé met l'accent sur le réalisme.
 
Et je dois dire que le résultat est absolument bluffant, même pour moi qui ait plutôt l'habitude. Si je ne l'avais pas générée moi-même, pour être honnête, je serais totalement incapable de dire si c'est une photo retouchée sous photoshop (la peau est trop "parfaite", standard magazines), ou si c'est une fille avec un maquillage pour de la photo (comme on peut voir sur instagram ou ce genre de plateformes). Je n'aurais même pas pensé que ça pouvait être une image générée.
 
Sur la vingtaine d'images que j'ai généré, une petite moitié était "non conforme", il était évident que c'était généré par IA, mais le reste, c'est de ce tonneau-là. Et ça, c'est en utilisant un simple prompt à la con sur une interface web extrêmement pauvre.
 
L'étape suivante, c'est l'installation complète d'une interface python/Git avec les modèles ("checkpoint", ce sont des bases servant de référence pour la génération d'images), sur mon ordinateur perso, plutôt que de passer sur une interface Discord ou web. Ce type d'installation permet de faire des retouches sur les images générées, en y insérant des éléments extérieurs, en faisant modifier des éléments générés par d'autres générés eux aussi (typiquement, remplacer des vêtements ou un fond d'image). Ça permet aussi de créer soi-même ses propres "modèles" en "entraînant" l'algorithme, pour créer des choses radicalement différentes.
 
Il est évident à mes yeux que ces outils seront incontournables très rapidement dans les domaines artistiques visuels (probablement moins dans le domaine littéraire, même s'ils prendront quand même de l'importance), au même titre que les instruments numériques sont devenus incontournables il y a 20 ans. Plus personne ne travaille sans tablette numérique, plus personne ne travaillera sans IA.
 
L'IA est un outil, qu'il faut apprendre à maitriser pour s'en servir, au lieu d'en avoir peur.


31 mars 2023

Anne-Sophie Chazaud

J’ai demandé à mon assistant d’IA (fonctionnant sous ChatGPT4) de me composer un manuscrit musical coréen du XVIIIème siècle de la période Joseon, sur la thématique de l’amour sous les cerisiers en fleurs…
Le résultat est complètement bluffant et c’est pareil pour toutes les requêtes dont je constate l’amélioration quasiment de jour en jour.
Voilà voilà…
Je pense qu’on peut donc confier à nos IA la gestion des choses, disons, l’expédition des affaires courantes, ce sera toujours 1000 fois mieux qu’à des gestionnaires technocrates et macronnards globalement incultes, et s’en aller profiter de l’existence bien tranquillement, tiens, au hasard, sous les cerisiers fleuris dans la brise délicate du printemps…


30 mars 2023

Denis Collin

Se prépare, tranquillement, une nouvelle vague de destruction massive d'emplois et cette fois il s'agira des emplois les plus qualifiés et les mieux payés. L'IA sera le tsunami qui emportera les classes moyennes et moyennes supérieures et transformera les pays capitalistes développés en pays du tiers monde. La vie ressemblera ce qu'on voit dans les vieilles BD de Bilal.
- il n'y a plus besoin de radiologues, mais seulement d'auxiliaires pour guider les patients vers les machines dont les images seront analysées par une IA qui pourra même rédiger en bon français le compte-rendu. On pourrait très bien imaginer des IA pour orienter les patients et renvoyer avec du doliprane ceux qui n'ont pas besoin d'un médecin. Après tout, la première IA, MYCIN, était une machine à diagnostiquer les infections bactériennes et à proposer des traitements (1976).
- il n'y a plus besoin de services juridiques dans les entreprises. Accessoirement, on pourrait résoudre le dramatique manque de personnel dans la justice.
- les programmeurs peuvent commencer à se reconvertir (en éboueurs ou en livreurs de pizzas) car les IA sont de plus en plus performantes pour produire du code.
- les services clients peuvent être considérablement allégés. Déjà les "chatbot" tendent à prendre le relai. Mais on n'a encore rien vu.
- les journalistes peuvent préparer leur reconversion en travailleurs du BTP.
- les professeurs deviennent largement inutiles pour corriger les copies et dispenser l'enseignement minimaliste "utile".
Comme dirait le préfet de police, ça va taper ! La transformation de la masse en plèbe, comme sous l'empire romain, qu'il suffira de distraire (circenses) et de nourrir à minima (panem). Voilà le projet des 0,1%, appuyé sur des cons d'intellectuels prétentieux, prêts à scier la branche sur laquelle ils sont assis.

8 mars 2023

Après l’IA qui remplace les journalistes, l’IA remplacera-t-elle les politiciens ?

H16

Il ne s’est écoulé que trois mois depuis la mise en ligne de ChatGPT mais ces trois mois ont été riches en développement dans le domaine de l’intelligence artificielle. Comme on pouvait s’y attendre, les applications de l’IA dans tous les domaines s’accélèrent.

Ainsi, sentant tout l’intérêt commercial d’une intégration de l’outil d’OpenAI dans son propre moteur de recherche, Microsoft vient-il de proposer aux utilisateurs de Bing de disposer d’un outil conversationnel basé sur les développements qui ont donné naissance à ChatGPT.

Cependant, quelques réglages restent manifestement à faire : le robot conversationnel a été plusieurs fois impliqué dans des échanges lunaires où une pointe d’agressivité pouvait même être détectée de la part de l’intelligence artificielle, clairement pas prête à se laisser expliquer la réalité.


Ceci n’a pas empêché le même Microsoft de continuer ses développements sur d’autres aspects de l’intelligence artificielle, notamment avec Kosmos-1, un modèle multimodal capable d’analyser le contenu d’images, de répondre à des questions sur celles-ci, de reconnaître des textes à partir de photos et même de réussir des tests de quotient intellectuel basé sur des opérations graphiques à partir d’instructions en langage naturel.

Cette notion d’intelligence artificielle multimodale est importante car elle intègre différents modes de saisie tels que le texte, l’audio, les images et la vidéo et pourrait être une étape clé dans la création d’une intelligence artificielle générale (IAG) capable d’effectuer des tâches générales au niveau de l’homme.

Parallèlement, des applicatifs pratiques de ce qui existe déjà sur le marché sont actuellement mis en place, quelques mois seulement après que les principaux outils grand publics sont sortis officiellement (MidJourney, StableDiffusion, ChatGPT, pour ne citer que les plus célèbres actuellement).

On pourrait citer le cas de RadioGPT, cette radio automatique qui bénéficie des dernières évolutions dans le domaine en proposant une liste de lecture de tubes pop entrelardée de commentaires d’actualités, ces derniers étant produits par une collection automatique d’articles de presse et de factoïdes plus ou moins intéressants sur internet qui alimentent GPT3, le moteur informatique de ChatGPT. Le texte ainsi produit est alors envoyé dans un autre morceau de logiciel capable de reproduire des voix réalistes qui viendront fournir le commentaire sur la radio en ligne.

Le résultat est une radio relativement basique mais dont le fonctionnement n’est pas très loin d’une petite radio locale produite par des humains. En multipliant les moyens et l’investissement initial, nul doute qu’on pourra arriver rapidement à des radios d’une bonne qualité, aptes à concurrencer des radios régionales au moins sur le plan de la masse salariale…

Et il ne faut pas faire un grand pas en avant pour s’en persuader : on apprend en effet que ce genre d’externalité des intelligences artificielles produit déjà des conséquences palpables dans le monde du journalisme. C’est le cas en Allemagne où le groupe de presse Axel Springer commence déjà à supprimer des postes de journalistes, ces derniers étant – selon le patron du groupe – avantageusement remplacés par une intelligence artificielle.

Du reste, peut-on s’en étonner lorsqu’on voit le niveau global du journalisme de nos jours ?


Combien de ces journalistes se contentent de reprendre, avec un brio discutable, des dépêches officielles d’agence avec un don du copier-coller si précis que les mêmes fautes d’orthographes sont religieusement reproduites d’un articulet de presse à l’autre, d’un journal local à l’autre ? Combien de ces journaux, du reste, ne sont que l’adaptation locale minimaliste de nouvelles prémâchées, prédigérées, issues d’un complexe journalistique industriel de niveau national et qui fournit de l’information exactement comme une usine alimentaire produit du plat tout préparé à des milliers de petits restaurants qui n’ont plus de cuisine locale que leur four micro-ondes ?

On est ici dans un mouvement inéluctable, et la disparition de ce journalisme-là n’est que la logique habituelle d’économie : la valeur ajoutée de l’humain – qui n’était dans ce cas qu’un opérateur tout juste utile pour la mise en page et les (rares) retouches locales – tendant vers zéro, remplacer celui-ci par un robot virtuellement gratuit n’est pas un chemin très complexe à imaginer.

Au passage, on peut espérer que le lectorat finira par faire la différence entre la production de ces “journaux” qui ne tiennent que grâce aux subventions et à la publicité, et que ceci favorisera une reconcentration des journalistes (les vrais) vers ces entreprises d’information et d’investigation qui fournissent une analyse tangible, mesurable, et des enquêtes réelles et sourcées…

Et pendant que les journalistes s’interrogent sérieusement sur l’avenir de leur profession, un autre développement concernant les politiciens est déjà visible, ici en Roumanie, où le gouvernement a décidé de se doter d’une intelligence artificielle, Ion, comme aide à la décision et assistant personnel, qui permet d’analyser rapidement les opinions des citoyens roumains sur différents sujets d’actualité et leur permet d’interagir avec lui.

Il est bien évident qu’il ne s’agit pour le moment que d’un gadget qui se contente d’analyser les tendances statistiques de ce qui est visible sur les différents réseaux sociaux auxquels le robot a accès. Cela ressemble un peu à de la “politique en temps réel” avec tout ce que cela peut contenir de dérives néfastes dans l’impulsivité et l’instantanéité. Au-delà, l’assistant numérique du Premier ministre roumain pourrait être vulnérable aux armées de trolls et de bots sur ces mêmes réseaux sociaux. Inversement, rien n’interdit d’imaginer qu’utilisé habilement, ce même assistant puisse être utilisé pour orienter subtilement l’opinion publique : l’une se nourrissant de l’autre et réciproquement, il devient rapidement difficile de déterminer qui oriente vraiment qui…

Mais l’introduction d’une béquille numérique pour un politicien s’inscrit dans une tendance claire où l’on pourrait assister à la disparition progressive de membres du cabinet d’un ministre, puis de tout le cabinet pour enfin, en toute logique, faire disparaître le ministre lui-même en étape finale.


La question qui mérite d’être posée, dès à présent, est de savoir si ce serait vraiment une catastrophe. Le débat est ouvert et il n’est pas du tout tranché : la consternante médiocrité de nos politiciens actuels est une véritable ode à leur remplacement par n’importe quel autre procédé qui n’aura pas de mal à être mieux informé et qui pourrait même être plus équilibré. Ce n’est en rien garanti, mais le niveau est actuellement si bas que l’effort à produire n’est plus si grand.

(Du reste, quant à la remarque qui consiste à dire que le contrôle passerait simplement du ministre à celui qui a entraîné et qui maintient l’IA qui le remplace, elle oublie la quantité de ministres qui ne sont déjà que des marionnettes. On changerait alors de façade, pas de marionnettiste.)

Comme certains l’anticipaient il y a quelques décennies, les développements de l’intelligence artificielle sont de plus en plus rapides et rattrapent toutes les professions, notamment intellectuelles : au rythme actuel des développements et en tenant compte des tendances connues dans l’informatique, on estime que les modèles disponibles dans 10 ans seront au moins un million de fois plus puissants et capables que ceux actuellement sur le marché…

Lorsqu’on découvre par exemple que certains chercheurs réussissent actuellement à reconstruire une image à partir de l’activité cérébrale d’un individu, on ne peut que s’interroger sur les possibilités immenses et les dérives catastrophiques qui s’offrent à nous.



28 février 2023

Succès de ChatGPT auprès des chefs d'entreprise

Vincent Verschoore

Cela fait un certain temps que l'on se rend compte que l'IA générale (AGI) est bien plus une menace pour les cols blancs que pour les cols bleus, qui sont plutôt menacés par la robotique et l'automatisation.
La disparition probable de nombreux comptables, employés de bureau, avocats, architectes, programmeurs, ingénieurs dans les dix ans à venir semble déjà se confirmer avec un début de remplacement avec chatGPT, qui n'est pourtant que le début en termes d'IA générale :

« ... certaines entreprises s’appuieraient déjà fortement sur l’outil, au point de remplacer quelques salariés. C’est en tout cas le constat d’une étude menée par Resumebuilders.com auprès de 1000 chefs d’entreprise utilisant ou envisageant d’utiliser ChatGPT.
Le verdict est consternant : la moitié d’entre eux a déjà intégré l’outil conversationnel au cœur de leur entreprise. Parmi eux, la moitié affirme que ChatGPT a déjà remplacé certains de leurs salariés. »

Dans la plupart des cas, les entreprises ont recours à ChatGPT pour rédiger des lignes de code, créer du contenu, s’occuper du service client ou encore réaliser les compte-rendus de réunions. Du côté des ressources humaines, ChatGPT s’avère d’une aide précieuse également. Que cela soit dans la rédaction de la fiche de poste, des questions lors de l’entretien ou des réponses aux candidats."

Cliquer sur l'image ↴


21 février 2023

INNOCUITÉ ROBOTIQUE

Gabriel Nerciat

Grande conversation à la mode, ces derniers temps :
- Cela ne vous fait pas peur, ChatGPT ?
J'avoue que non. Au contraire, ça me rassure plutôt.
Pour avoir testé l'animal une ou deux fois, je me suis rendu compte qu'une machine capable de tout savoir, imiter, miniaturiser et digitaliser n'en fait que mieux ressortir l'unicité non-reproductible de la sensibilité et de l'intelligence humaines.
Si vous en doutez, demandez à la machine comment on doit prier la Vierge Marie pour être efficacement protégé du démon, ou comment on peut faire jouir une femme rien qu'avec sa langue (contrairement à ce qu'on peut croire, les deux registres ne sont pas si éloignés).
Si les deux réponses vous convainquent, alors ma foi je crois que c'est plutôt ChatGPT qui aurait tout lieu d'être effrayé par ce que peut devenir l'humanité.


10 février 2023

L'IA intégrée aux moteurs de recherche

Vincent Verschoore

Nous sommes à un moment révolutionnaire de l'informatique personnelle. Après les PC et les premiers réseaux, après le web 2.0, les réseaux sociaux et les applications mobiles, voici venu le temps de l'information en ligne médiée par IA.
Nous en avons un premier aperçu depuis novembre 2022 avec le lancement public de ChatGPT 3,5, et ses équivalents graphiques comme DALL-E et Midjourney. D'ici peu va se dérouler une bataille de géants pour la domination de l'IA au même titre que s'est déroulée, voici vingt ans, la bataille de la recherche en ligne.
Cette bataille fut gagnée par Google, qui représente aujourd'hui 90% du marché du moteur de recherche, mais son éternel concurrent Microsoft (9% du marché avec Bing) compte bientôt récolter les fruits d'une stratégie audacieuse : ayant investi 1 milliard de dollars dans OpenIA, à l'origine de ChatGPT, Microsoft vient de remettre 20 milliards et a accès au moteur d'OpenIA, qu'il compte intégrer à son moteur de recherche Bing.
Le produit vient d'être présenté : en plus d'une recherche traditionnelle, l'utilisateur de Bing pourra affiner sa demande en langage naturel, comme pour ChatGPT mais en mieux car avec un lien permanent à Internet.
Le système pourra répondre aux questions sans réponse correcte, genre quelle est la meilleure bière, en proposant des réponses contextualisées. Il pourra répondre à des question purement utilitaires du genre « est-ce que l'armoire machin de chez Ikea rentre dans ma voiture truc », en allant chercher les dimensions de l'armoire et de la voiture, et en suggérant comment il serait possible de faire entrer machin dans truc.
Google, de son côté, travaille sur une IA nommée « Bard », basée sur le moteur LaMDA mais qui aujourd'hui en est au stade de ChatGPT. Il paraît que l'annonce de Microsoft a créé une panique rouge chez Google, qui met le paquet pour rattraper son retard dans l'intégration IA/moteur de recherche.
Un problème fondamental de l'IA type ChatGPT est qu'elle est capable de générer des fausses infos : si on lui demande de produire des citations de Newton au sujet d'Internet, elle est capable de les fabriquer. De plus, la profondeur des échanges entre l'IA et les utilisateurs, allant bien au-delà d'une simple suite de mots-clés, va renseigner Google ou Microsoft bien plus finement sur nos aspirations, et ainsi nourrir la machine commerciale et de profilage.
Pour les Gafam en effet, les « enceintes intelligentes » genre Alexia et les « assistants personnels vocaux » de nos téléphones sont avant tout des systèmes de collecte de données (qu'il faudrait systématiquement désactiver), et l'IA intégrée aux moteurs de recherche, d'autant plus si elle accepte la commande vocale, sera aussi un mouchard « intelligent » qui finira vite par nous connaître mieux que nous-mêmes, au grand bénéfice des profileurs (les Gafam) et de leurs clients (polices, services secrets, grandes enseignes, partis politiques etc.).

8 janvier 2023

L’Intelligence Artificielle nous conduit-elle vers un monde totalitaire ?

Marc Alpozzo

Marc Alpozzo et Jean-Pierre Noté

On voit aujourd’hui, que certains transhumanistes, notamment dans la Silicon Valley en Californie, rêvent de cyborgs du futur, bardés de capteurs permettant de récolter en temps réel des informations sur l’état de santé de leurs organes, d’alerter en cas de problème les secours, ou encore d’augmenter leur espérance de vie, avec pour horizon indépassable à leurs délires transhumanistes, le désir d’éternité, donc l’abolition de la mort. Est-ce un rêve possible ou un cauchemar climatisé ? Nous en avons discuté avec Jean-Pierre Noté, qui vient de publier un roman fascinant sur le sujet.

Marc Alpozzo : Vous avez publié récemment un roman, Tantièmes. Un monde sans puss (Az’art atelier éditions, 2022) sur l’intelligence artificielle. Or, loin d’être aussi enthousiaste que l’est cette époque vis-à-vis des I.A., vous prétendez dans votre roman que l’intelligence artificielle a de fortes chances de produire un monde orwellien. Pourquoi ?

Jean-Pierre Noté : je ne parlerais ni d’enthousiasme ni de répulsion. Ou alors je parlerais successivement de ces deux sentiments opposés. Quand j’étais jeune homme, j’avais cette idée bien ancrée en moi que trouver l’information était difficile. On pouvait téléphoner aux « renseignements » pour avoir une adresse, se plonger pendant des heures dans l’Encyclopédie Universalis du lycée pour se faire une idée sur le peuple Dogon, rechercher dans ses vieux cahiers de mathématiques pour retrouver la formule du volume de la sphère, prendre un dictionnaire pour espérer convertir les pieds en centimètres, utiliser l’horloge parlante pour connaitre l’heure exacte à Moscou, attendre l’adorable météo marine sur France Inter avant de partir en voilier, ou bien faire le tour des pizzéria du quartier pour trouver la bonne. J’ai sauté de joie quand mon père est rentré à la maison avec « Le Quid », ce gros bouquin à entrées multiples avec ses ancêtres des liens hypertextes où l’on commençait à entrevoir une sorte de couteau suisse du savoir universel. Mais il ne se mettait à jour qu’une fois par an : la météo marine avait tout loisir de changer des milliers de fois, les villages Dogon pouvaient être déplacés pour mettre un barrage en eau sans qu’on n’en sache rien et une pizzéria du quartier se transformait en fleuriste sans prévenir. Puis sont venus le Minitel, Internet et, suprême luxe, sa déclinaison portable le smartphone. Aujourd’hui, nous avons le Monde dans notre poche, toujours à portée de nous en quelques touches ! Comment ne pas être enthousiaste ! Mycologue insatiable, je ne me serai jamais imaginé il y a 30 ans me promener avec les 10 kilos de l’atlas Romagnesi – la bible du mycologue européen – dans les bois pentus des Pyrénées. Aujourd’hui, il est dans ma poche comme tous les autres savoirs humains.

Imaginons que je clique sur l’appli du mycologue dans mon coin à morilles à 2300 mètres d’altitude, protégé de mes concurrents – et amis, ils ont la même passion – par les dénivelés impressionnants que j’ai franchis et par la profondeur insondable de la forêt de sapins. S’ils s’intéressaient aux champignons, Mr. Microsoft, Mr. Orange, Mr. Facebook ou bien M. Starlink découvriraient mes coins à morilles avec une précision au centimètre près. Passe encore pour les morilles, même si j’ai un peu de mal à l’accepter ! Mais, s’ils s’intéressaient non plus aux champignons mais à moi directement, je n’aurais plus aucun secret pour eux. L’idée d’être nu face à un Jeff Bezos ou tout autre inconnu n’est-elle pas glaçante ? Si j’étais prof de philo, voici la question que j’aimerais poser à mes élèves : « Elon le libertarien, Musk le liberticide ? »

M. A. : Cette référence à George Orwell n’est évidemment pas anodine, puisque l’on sait que l’écrivain anglais a écrit un roman d’anticipation, 1984, qui n’a jamais été aussi actuel. Or, vous mettez vos pas dans les siens, puisque vous proposez vous-mêmes un roman d’anticipation, qui mêle une grande entreprise multinationale américaine, qui s’appelle Babel, producteur d’une box connectée qui donne accès à tout, et qui traduit même en simultané un nombre impossible de langues. Cela nous fait évidemment penser à Google translator, mais aussi à Amazon, à Uber, etc. Quels sont les dangers selon vous, que nous font courir ces nouvelles entités internationales, que l’on rassemble sous l’acronyme GAFAM ?

J.-P. N. : Permettez-moi de commencer par ce qui semble n’être qu’une anecdote. Il y a quelques mois, un Président des Etats-Unis, à mes yeux indigne de cette fonction, a été banni de Tweeter. Je m’en suis immédiatement félicité. Comme beaucoup d’autres, j’ai fait mien le fameux raisonnement de Saint-Just, adapté aux circonstances : pas de liberté pour les ennemis de la démocratie dont procède cette liberté. Mais, à y regarder de plus près, je n’avais guère de raison de me réjouir ! Qu’on coupe aux Etats-Unis l’infernal gazouillis d’un Donald Trump comme on le fait par exemple en Europe avec de sinistres révisionnistes niant la Shoa est certes judicieux. Mais le procédé n’est pas le même dans les deux cas. Qui coupe ? Là est la question. Pour Donald Trump, c’est un patron d’une de ces entreprises mondiales qu’on appelle les GAFAM. Dans l’autre cas, c’est un juge qui applique une loi votée par un parlement élu. Qu’est-ce qui motive un dirigeant d’entreprise ? Sa morale, l’image de son entreprise, l’opinion de ses principaux actionnaires, le rendement des parts de ses derniers ? Un autre aurait pu tout aussi bien décider de ne pas stopper la logorrhée de l’ancien président car il aurait jugé que son intérêt personnel était de le laisser faire ou bien que ses principes s’opposaient à toute forme de censure. Je ne sais pas pour vous, mais je n’ai pas plus voté pour le Guide Suprême iranien ou pour le président du Jockey club de ma ville que pour le directeur général de Tweeter. Or, qui sont ces GAFAM ? Ils règnent désormais en maître sur les autoroutes de l‘information, les câbles sous-marins et les flottes de satellites. Leurs comptes de résultat font pâlir la plupart des états. Ils forment sans doute les organisations les plus puissantes de la planète. La démocratie n’est-elle qu’une parenthèse qui se referme, laissant la place aux Jacques Cœur du XXIème siècle ?

M. A. : Dans votre roman, le personnage Aline, qui est une sorte de Wonder woman moderne, est convoitée par le PDG de cette entreprise internationale, qui répond à un drôle de nom, 3K, et on la voit aux prises d’un nœud gordien : faut-il céder au mondialisme de notre époque, ou pencher plutôt pour le terroir et le souverainisme ? Quel message passez-vous alors ?

J.-P. N. : Aline voit le monde comme un puzzle constitué de « business plan ». Son objectif est clair : avoir le plus gros. S’il faut pour cela privatiser les langues, s’emparer de l’Académie Française, introduire une interface homme-machine, c’est-à-dire une puce, dans le cerveau de milliards d’habitants, faisons-le. Aline et 3K vont imposer la connexion directe de tous les individus entre eux et les relier directement à toutes les bases de données. Comme lorsque MM Ford et Citroën ont imposé la voiture individuelle à la planète il y a un siècle, leur unique boussole était le profit. Une entreprise n’a pas d’opinion, elle n’a que des intérêts. Le capitalisme mondialisé est simple, voire simpliste. Les majors du pétrole continuent à extraire les énergies fossiles tant que cela reste plus profitable que de faire tourner des moulins à vent, Aline « puce ou chipe » la population à tour de bras, dans les deux cas en évitant soigneusement d’envisager toutes les conséquences.

L’opposition n’est pas entre mondialisation et terroir, mais entre mondialisation libérale et humanité. En effet, Aline recouvre toutes ses capacités cognitives quand elle se reconnecte à la nature. En dehors du monde monolithique de l’entreprise, dans la montagne chérie de son enfance, « hors connexion », elle réfléchit enfin comme un être humain peut le faire. Comme un Jim Harrison dans son Montana, elle retrouve toute son humanité en frottant sa peau au gneiss étincelant du Caroux, en plongeant dans l’eau froide des torrents ou en rusant avec les vipères.

M. A. : Votre roman est absolument passionnant, et je le recommande à tout lecteur qui aime l’anticipation. Modestement, certes, mais sûrement, il s’inscrit dans cette lignée des romans d’anticipation qui ont su voir venir notre nouveau siècle, comme 1984, mais aussi Le Troupeau aveugle, de John Brunner, ou Blade runner, de Philip K. Dick. Dans votre roman, vous parlez de drone, de box, de puces, de surveillance généralisée. Est-ce que le monde de demain vous fait peur ?

J.-P. N. : Est-ce vraiment un roman d’anticipation ? Comme dit Ray Bradbury, la science-fiction est un genre pour décrire la réalité. L’action de Tantièmes se déroule entre 2025 et 2030. Mais je me suis fait rattraper, et bientôt dépasser par la réalité. Neuralink, une des sociétés d’Elon Musk, encore lui, attend l’autorisation de la FDA (Food and Drug Administration) pour implanter les premières puces électroniques chez les humains afin de « mieux marier le cerveau et l’Intelligence Artificielle ». Il arrive probablement chez chacun de nous, et à chaque génération, un moment où l’on prend conscience que ce qu’on pensait éternel disparait, remplacé par un monde qui nous est étranger. Faut-il en avoir peur ou bien doit-on s’en remettre à la génération qui vient pour s’adapter, corriger, et même se rebeller quand il le faut ? Avoir peur du monde de demain ce serait manquer de confiance dans mes enfants et mes petits enfants !

M. A. : Lorsqu’on parle d’intelligence artificielle, on parle forcément de transhumanisme. On parle aussi d’augmentation de l’humain, et de posthumanisme. Pensez-vous que la question de l’humanisme ne s’est jamais autant posée aujourd’hui ? Ne pensez-vous pas que la véritable question, finalement, est celle aujourd’hui, du dépassement de l’homme comme fondement même de son humanité ?

J.-P. N. : Quand on parle « augmentation de l’humain » j’ai coutume de dire que l’humain a déjà bien augmenté. Prenons l’espérance de vie au XVIIème siècle en France : elle est d’une trentaine d’année à 25 ans. En d’autres termes, si on atteint l’âge de 25 ans on peut espérer vivre jusqu’à 55 ans. Mais l’espérance de vie à la naissance est inférieure à celle d’un individu de 25 ans ! Je suis jeune grand-père et ma petite fille de 3 mois est gratifiée d’une espérance de vie estimée à 96 ans. Voici donc une augmentation faramineuse de l’humain ! De quels progrès des mathématiques avons-nous été privés en 1832par la mort précoce à 20 ans d’Evariste Galois ? Et que dire des prothèses qu’on nous promet pour marcher, voir, entendre ? Alors, oui, je suis résolument pour l’augmentation de l’humain ! Mais la question est plus vaste : les progrès techniques et ceux de l’Intelligence Artificielle sont tels qu’on peut désormais imaginer créer des chimères humaines : un écrivain « universel » comme imaginé dans Tantièmes, une espérance de vie de 500 ans, un sprinter courant le 100 m en-dessous de 5 secondes, un joueur d’échecs infaillible, un tireur d’élite disposant de la vue perçante d’un aigle, un bébé sans grossesse…. Il y a tant de possibilités qui semblent désormais à notre portée. Imagine-t-on un match de Rugby ou chaque camp cache les données techniques de ces joueurs ? Au mieux cela ressemblerait à une course de formule 1, ce qui n’est déjà plus vraiment un sport, au pire à la guerre où tous les progrès techniques sont les bienvenus pour détruire l’adversaire. Et la guerre, la guerre technologique en particulier, n’en déplaise à Ernst Jünger, c’est la négation même de l’Humanité.

M. A. : Le transhumanisme rêve de nous affranchir de toutes les limites du réel. Dans votre roman, cette entreprise internationale propose toute une gamme de services, et notamment des traductions en simultanée, qui effacent toutes les frontières entre les hommes, Babel renvoyant évidemment au mythe de Babel dans la Bible. Mais les transhumains rêvent aussi de nous affranchir de la tyrannie de la maladie et de la mort. Pour cela, ils comptent s’appuyer sur les biotechnologies, et peut-être même effacer notre « date de péremption ». Sous couvert d’assurer et de favoriser notre bien-être et notre épanouissement, vous semblez dire, à juste titre, qu’en réalité, on nous prépare un nouveau monde plus totalitaire que tous les précédents. Est-ce vraiment le risque que l’on court avec toutes ces technologies de l’augmentation de l’humain ?

J.-P. N. : Oui, un monde totalitaire est une perspective tout à fait réaliste à cause du développement exponentiel de l’Intelligence Artificielle et de compagnies plus puissantes que les états démocratiques. Et l’on peut observer que des états non démocratiques utilisent les réseaux sociaux pour contrôler leur population. La démocratie n’est peut-être qu’une courte parenthèse dans le temps et dans l’espace. Alors, si on nous prépare un tel monde, il y aura comme dans Tantièmes et comme à chaque génération des résistants !

M. A. : Notre monde actuel connait deux tendances : les bioconservateurs vs les biolibéraux. Dans quel camp vous rangez-vous et pourquoi ?

J.-P. N. : Dans les biolibéraux, résolument ! Il faut laisser chercher, laisser trouver ! D’ailleurs les bioconservateurs ont perdu la partie avant même de la commencer : tout ce qui est possible de développer ou d’inventer sera développé ou inventé. C’est dans la nature même de l’homme depuis qu’il a taillé son premier biface. La question a toujours été l’usage que l’on fait du biface une fois réalisé.

M. A. : Où pensez-vous que se niche l’éthique dans ce monde où technologies convergentes, super intelligence, intelligence artificielle concourent à faire de la nature humaine une aporie ? Pensez-vous que l’humanité soit en danger de mort ?

J.-P. N. : Vous avez raison. La question est éthique. Quand j’exprime dans Tantièmes qu’une entreprise n’a pas d’opinion mais qu’elle n’a que des intérêts, cela fait écho au célèbre « science sans conscience n’est que ruine de l’âme » de Rabelais. Une fois que l’on a dit que tout ce qui est à notre portée technique sera réalisé, il n’y a plus qu’à s’en remettre à l’éthique. Or, Aline démontre que le capitalisme mondialisé, volontairement simpliste et réduit au seul dogme du retour sur investissement n’en a pas. Eric Vuillard, dans « l’ordre du jour » décrit le mécanisme qui conduit les entreprises allemandes dans les années 30, à pactiser avec le diable au nom de ce retour sur investissement. L’humanité est toujours en danger de mort, hier comme aujourd’hui et ma petite fille, comme bien des humains avant elle confrontés à d’autres défis, a du pain sur la planche.

Propos recueillis par Marc Alpozzo