Translate

Affichage des articles dont le libellé est intelligence artificielle (IA). Afficher tous les articles
Affichage des articles dont le libellé est intelligence artificielle (IA). Afficher tous les articles

19 juillet 2025

Intelligence artificielle : l’instant Grok

H16
18/7/2025

La dizaine de jours qui vient de s’écouler ne fut pas de tout repos pour Grok, l’intelligence artificielle d’Elon Musk. En effet, ce 8 juillet, elle a connu d’intéressants moments d’égarements…

Tout s’est essentiellement déroulé entre le 7 et le 9 juillet, et pour les utilisateurs du moteur d’intelligence artificielle de Musk, disponible directement ou au travers de la plateforme X, ce fut une expérience qui n’est pas sans rappeler le dérapage tragi-comique de Microsoft avec ses premiers essais de robot conversationnel en ligne en 2016 : Tay, lâchée sur les réseaux sociaux de l’époque, était très rapidement devenue complètement extrémiste et s’était assez vite répandue en messages racistes ou à fortes connotations sexuelles voire sexistes.

Ici, cependant, les choses furent un peu plus subtiles : en quelques heures, les internautes habitués à interagir avec Grok au travers de la plateforme X se sont rendus compte que certains des filtres du moteur semblaient avoir disparu au point de ne plus s’embarrasser du moindre vernis politiquement correct, quitte à carrément verser dans les affirmations antisémites.


Au même moment, pour d’autres utilisateurs, c’est la douche froide : le moteur, loin de leur remonter le moral ou leur indiquer une position aussi neutre que possible, se lâche complètement quitte à les vexer de façon assez… comique :


Cette franchise assez politiquement incorrecte a d’ailleurs été l’occasion pour certains de tester l’intelligence artificielle sur d’autres questions aux ramifications économiques croustillantes, comme par exemple les efforts à réaliser en matière de restrictions budgétaires afin de juguler l’actuelle dette abyssale de l’État français. Les réponses, loin d’être absurdes, méritent qu’on s’y attarde :


Parions cependant que François Bayrou n’accordera aucun crédit aux chafouins algorithmes d’Elon Musk. Pendant ce temps, du côté anglophone, le moteur s’en donnait à cœur-joie et décidait d’explorer avec gourmandise le côté obscur de la force, sans plus prendre de gants :


On comprend qu’avec ce genre de dérives, la fête fut de courte durée et le patron a rapidement fait arrêter le service pour comprendre pourquoi, en si peu de temps, le moteur qui s’était fort bien comporté jusqu’à présent (au moins au plan légal) avait viré de bord à ce point.

La journée du 9 juillet aura permis d’évoquer des pistes dont la plus sérieuse (ici) se résume à un changement intervenu le 7 juillet vers 23:00 (fuseau de la Côte ouest américaine) dans la pré-invite de commande, c’est-à-dire le texte inséré automatiquement en préfixe de toute requête utilisateur et qui va donc imposer certains traitements avant toute réponse du moteur, incluant des filtres et des orientations tant dans le formatage que dans le contenu :


Le 12 juillet, l’explication officielle de xAI, la firme en charge du développement de Grok, viendra du reste confirmer cette piste : ce sont bien des modifications sur le préfixe de requête (détaillé ici) qui ont entraîné le déchaînement du moteur et son exploration d’un politiquement incorrect réellement débridé.

Pour certains, c’est l’introduction de cette erreur dans le préfixe, et le débridage du moteur les heures suivant qui justifieront l’annonce assez inopinée du départ, le 9 juillet, de Linda Yaccarino, la directrice générale de la plateforme X ; d’autres y verront le nécessaire rafraîchissement de la direction de la plateforme alors que celle-ci entame manifestement une nouvelle étape dans son développement dans lequel Grok semble jouer un rôle de plus en plus prépondérant, à tel point que les gaffes comme celle du 7 juillet justifient amplement quelques mesures de rétorsion rapides…

Car le 9 juillet coïncide aussi avec la date de la mise à jour du moteur de Grok 3 vers Grok 4.

Et alors que les utilisateurs, amusés ou courroucés, se remettaient à peine des récents écarts de Grok, la mise à jour proposée par l’équipe de xAI dévoilait de nouvelles capacités du moteur, plaçant ce dernier nettement en tête des actuels moteurs d’intelligence artificielle sur plusieurs critères. En substance, Musk entend mettre à disposition un moteur qu’il explique meilleur que tous les doctorants humains existants, dans tous les domaines… et apparemment avec raison si l’on épluche les tests et les résultats fournis : ainsi, comme le montre le graphique ci-dessous, avec le « Humanity’s Last Exam », un test de référence comprenant 2500 questions de niveau doctoral et plusieurs matières couvertes (la chimie, l’ingénierie, la linguistique, les mathématiques et la physique), Grok 4 devance la concurrence avec un taux de réussite de 38,6 % et plus de 44% pour Grok 4 Heavy (contre moins de 30% pour Gemini 2.5 Pro, la version la plus avancée des moteurs de Google).


Et si la presse, tant américaine qu’européenne, semble essentiellement retenir les frasques de Grok du 7 et 8 juillet, il n’en reste pas moins que cette nouvelle mouture offre un saut qualitatif marqué dans les fonctionnalités disponibles. Comme le dit Musk, s’il est encore clair que Grok 4 manque parfois de sens commun que seule une vie dans le monde réel permet vraiment d’acquérir, les capacités disponibles laissent songeur puisqu’en plus de la version grand public, la version « multi-agents » permet à la fois de créer des études, de faire travailler en tâche de fond différents agents sophistiqués destinés à collecter, analyser et élaborer des réponses à des problèmes complexes et surtout de comparer les réponses reçues pour en tirer des analyses.

À ceci s’ajoute la promesse de Musk de proposer une intelligence artificielle avec moins de biais, ce qui sera probablement mis à rude épreuve alors que, dans le même temps, les autorités françaises viennent de lancer une enquête sur d’éventuelles ingérences du réseau X dans la politique de l’Hexagone : le régime de Macron accuserait ainsi le réseau social d’avoir modifié ses algorithmes d’affichage de contenus pour mettre en avant des thématiques favorables à l’opposition, i.e. l’extrême droite dans le novlangue actuel.

Bref, comme on le voit, la semaine fut décidément bien remplie pour Musk et son moteur, Grok.

Parions cependant qu’avec l’envol manifeste de l’intelligence artificielle dans tous les domaines, ce genre de semaine va très probablement se reproduire très vite, très souvent.


https://h16free.com/2025/07/18/81357-intelligence-artificielle-linstant-grok

22 juin 2025

Marc Amblard
22/6/2025

CHATGPT FINIRA-T-IL PAR NOUS RENDRE IDIOTS ?
L’UTILISATION PROLONGÉE DE L’IA ATROPHIERAIT NOTRE CERVEAU

Une étude récente menée par des chercheurs du MIT a révélé que l'utilisation de ChatGPT peut entraîner un déclin des fonctions cognitives, en particulier des capacités de pensée critique.
L'étude a consisté à diviser les sujets en 3 groupes :
G1 – personnes utilisant ChatGPT
G2 – personnes utilisant Google
G3 – personnes s'appuyant uniquement sur leurs propres connaissances « cerveau seul ».
L'activité cérébrale de chaque participant a été surveillée par électroencéphalographie pendant qu'ils rédigeaient plusieurs dissertations.
Les résultats ont été stupéfiants. Les sujets ayant utilisé ChatGPT pendant plusieurs mois ont systématiquement affiché le plus faible engagement cérébral et des performances inférieures aux niveaux neuronal, linguistique et comportemental.
Au départ, le groupe 1 (ChatGPT) utilisait le dialogue artificiel pour alimenter leurs dissertations, mais à la fin, l'étude a montré que les participants abandonnaient l’usage de leurs fonctions cérébrales et se contentaient de copier-coller le contenu généré.
En revanche, le groupe utilisant le moteur de recherche Google a montré une mobilisation cérébrale modérée, tandis que le groupe « cerveau seul » présentait les réseaux neuronaux les plus puissants et les plus étendus.
Ces résultats suggèrent que le recours à L’IA peut avoir des effets néfastes sur les fonctions cognitives d'un utilisateur à long terme. Les chercheurs se sont dit très préoccupés par ces résultats, notamment pour les jeunes utilisateurs dont le cerveau est en développement.


30 mai 2025

Intelligence artificielle : le rythme s’accélère

H16
30/5/2025

Le 20 et 21 mai dernier, Google présentait – dans son Google I/O – ses dernières avancées en matière d’intelligence artificielle. Très manifestement, ceux qui pensaient que le géant de Californie semblait marquer le pas face à OpenAI (notamment) en furent pour leur frais.

Sur les douzaines de nouveautés, de logiciels, de plateformes et de présentations qui furent présentées, on peut noter la forte intégration de l’IA dans les e-mails et au niveau des recherches, Meet qui permet la traduction vocale en temps réel, une meilleure intégration de la réalité augmentée via des lunettes connectées (Android XR, Beam), et des démonstrations de Veo 3 et Flow véritablement stupéfiantes puisque ces applications permettent, à partir d’une simple requête textuelle, de produire une vidéo de quelques secondes avec effets sonores et dialogues.


Parallèlement à ces développements, Google continue de spécialiser certains de ses moteurs d’intelligence artificielle pour des tâches scientifiques ; on se souvient que c’est la société californienne qui avait, avec AlphaGo (2014) puis AlphaZero (2017), permis à des machines de détrôner durablement les humains dans le jeu de go. D’une façon similaire, elle a développé AlphaFold (2018) pour étudier le repliement des protéines.

À partir de ces différentes applications et des concepts sous-jacents, Google a depuis développé AlphaEvolve (2025) qui se spécialise dans différentes tâches notamment mathématiques et qui vient d’apporter des solutions originales à des problèmes connus (empaquetages optimaux, optimisation de calculs matriciels, …). Dans une branche un peu différente, il a été employé pour améliorer la conception des prochaines générations de puces spécialisées en intelligence artificielle (« tensor processing unit ») et a trouvé un moyen d’exploiter plus efficacement la capacité informatique mondiale de Google, en économisant 0,7 % des ressources totales, comme le relate le papier sorti à ce sujet dans Nature.

L’intelligence artificielle touche un nombre rapidement croissant de domaines : appliquée à l’éducation, elle permet par exemple d’amener les enfants qui l’utilisent dans les meilleurs 2% des élèves à l’échelle d’une nation, et ce en un minimum de temps. Une étude – elle aussi récemment parue dans Nature – montre par exemple que l’effet de ChatGPT utilisé en apprentissage se traduit par une amélioration globale des performances observées.

Bref, si l’accélération des innovations en matière technologique est en général tout juste perceptible, elle ne fait en revanche plus aucun doute et est réellement visible en intelligence artificielle et en robotique notamment.


Il faut se souvenir de la toute première version de ChatGPT ouverte au public, dont les capacités permettait essentiellement d’écrire des cartes de vœux : c’était en novembre 2022, il y a deux ans et demi. 36 mois plus tard, les derniers moteurs disponibles fournissent des aides au développement informatique se classant dans les meilleurs, résolvent des problèmes au niveau de la médaille d’argent dans les Olympiades internationales de mathématiques et commencent à proposer des matériaux et des protéines de plus en plus ciblées et efficaces. Quant à la robotique, la possibilité actuelle de simuler avec une grande précision l’environnement physique permet d’entraîner des machines et des robots dans un environnement virtuel, des centaines ou des milliers de fois plus vite qu’en réalité ; ainsi, au lieu de mois d’entraînements pour qu’un robot soit capable de réaliser des tâches complexes (déplacer des pièces, ranger des éléments, marcher, etc.), quelques heures en simulation numérique suffisent.

Comme le mentionnent les chercheurs d’Anthropic – la firme productrice de Claude, l’un des meilleurs moteurs d’IA actuellement – la situation dans ce domaine est telle qu’à présent, même un arrêt de tout progrès supplémentaire (qui rendrait impossible d’atteindre le niveau d’intelligence d’un humain moyen par exemple) n’empêchera pas l’automatisation rapide de tous les emplois de bureau dans les cinq à dix prochaines années, et justifie en tant que tel tous les investissements massifs qui sont actuellement réalisés.


En pratique et sans gros effort d’imagination, tout indique que les 10 prochaines années verront de profonds bouleversements s’installer très rapidement dans toutes les sociétés humaines.

Ainsi, dans 10 ans, il est très probable que la conduite individuelle de véhicules aura largement reculé, laissant place à des voitures autopilotées, non seulement parce que c’est plus pratique, mais aussi parce que c’est beaucoup moins dangereux – d’autant plus que les statistiques actuelles montrent déjà un net avantage aux pilotes automatiques.

Ainsi, dans 10 ans, il est assez probable que beaucoup d’entreprises et certains particuliers disposeront de leurs robots (humanoïdes ou non) pour les assister et réaliser certaines tâches répétitives.


Ainsi, l’utilisation des écrans va progressivement diminuer à la faveur d’interfaces homme-machine beaucoup plus intuitives : il est beaucoup plus intéressant d’expliquer ce qu’on veut de vive voix que d’entrer une invite textuelle, ou de péniblement programmer un automate en appuyant sur des boutons.

Ainsi, dans 10 ans, il est assez peu probable que les chaînes de diffusion de contenus (information notamment) existent encore dans le format qu’on connaît actuellement : divertissement, actualité, débats seront à la fois produit pour des marchés de plus en plus spécialisés et étroits, et en grande partie rassemblés, filtrées et sélectionnées par des agents « intelligents » qui connaîtront assez précisément nos goûts et nos besoins.

Il semble dès lors assez évident que la structure même des sociétés va changer et les individus vont devoir s’adapter à de profonds changements de paradigmes.

Devant ce tsunami de changements qui grossit devant nous et les opportunités que l’intelligence artificielle représente, certains pays se préparent. Avec évidemment la Chine, c’est le cas des États-Unis dont l’administration a même lancé les démarches nécessaires pour faciliter le développement des sources d’énergie dont les grandes firmes d’intelligence artificielle auront besoin : un récent ordre exécutif de Trump vise ainsi à déployer rapidement des technologies nucléaires pour permettre l’alimentation des centres de calcul.

De façon tragicomique, au même moment en France, des experts autoproclamés gesticulent pour que l’opération inverse soit menée sans tarder : Jancovici, pourtant parfaitement incompétent sur la question de l’intelligence artificielle, écume les plateaux radio pour expliquer à quel point cette technologie est un gadget, en montrant au passage qu’il a parfaitement raison lorsqu’il répète que les radios persistent à inviter des incompétents.

Manifestement, Donald Trump, multimilliardaire élu deux fois président des États-Unis contre une adversité assez exceptionnelle, n’est décidément pas du même avis que notre Jancovici national qui tente de vendre ses idées (et formations) par le truchement des médias de masse. L’un parie sur une importance croissante, cruciale, de l’intelligence artificielle. L’autre explique que c’est un gadget.

Lequel des deux se trompe ? À l’aune de tout ce qui a été présenté dans ce billet, on peut dire que la question est assez vite répondue…


https://h16free.com/2025/05/30/80971-intelligence-artificielle-le-rythme-saccelere

27 mai 2025

Vincent Verschoore

-24/5/2025- Le film Ex Machina, sorti voici dix ans, illustrait la capacité d'une IA à manipuler ses interlocuteurs humains grâce à une compréhension de leur psychologie.
Cette capacité s'illustre désormais "pour de vrai", selon ce test où une IA, ici GPT-4, débat avec des humains afin d'essayer d'orienter leurs opinions. Et cela semble fonctionner, que l'IA ait connaissance des caractéristiques psychologiques et sociales de son interlocuteur, ou pas.
L'IA utilise une rigueur algorithmique évitant les erreurs (jugements de valeur, contre-sens etc.) pour aboutir à un succès qui semble remarquable :
"Dans ses échanges, GPT-4 semble surtout briller par la cohérence de ses propos et sa capacité à éviter les raccourcis idéologiques. Le Washington Post souligne ainsi que l’IA parvient à convaincre, même sans profil précis à cibler, sur des sujets aussi sensibles que la peine de mort ou le revenu universel. L’influence politique des IA résiderait donc davantage dans la qualité intrinsèque de leurs messages que dans leur finesse de ciblage."
N'importe quel régime peut désormais mettre en ligne des faux comptes visant à convaincre le public de l'évidente nécessité de sa politique, quelle qu'elle soit :
"Ces nouveaux outils reprennent les codes du microciblage politique révélés dans l’affaire Cambridge Analytica, mais les rendent accessibles à une échelle inédite."

3 mars 2025

Macron se mêle d’IA, le désarroi s’installe

H16

- 3/3/2025 - Comme l’annonce Emmanuel Macron en fanfaronnant depuis son compte X, la formidable dynamique du Sommet de l’IA à Paris se poursuit, alors bon, c’est décidé, fini de rire, et en avant ! La France, fermement cornaquée par son extraordinaire président, se lance à l’assaut de l’Intelligence Artificielle et entraînera avec elle toute l’Europe dans une conquête triomphale de l’avenir de l’Humanité. Envoyez la musique !


Cependant, avant cette consécration, il faudra probablement régler quelques petits soucis, car pendant que ça cabotine joyeusement du côté de l’Élysée, les services administratifs de l’État continuent d’empiler les échecs informatiques avec une constance troublante : dans une presse particulièrement discrète, on apprend ainsi que le projet informatique Scribe, ce logiciel de rédaction de procédures pénales destinés à la police et la magistrature françaises, vient d’être abandonné après neuf longues années de merdoiements intenses.

Son histoire mérite d’être contée, tant elle se rapproche des précédentes foirades mémorables de l’État en matière d’informatique et dont ces colonnes font la recension régulière, et peut remonter au remplacement, déjà chaotique, d’un outil logiciel des années 90, le LRP, qui fonctionnait avec une relative satisfaction de ses utilisateurs mais, malheureusement sur un système d’exploitation plus que vieillissant (MS-DOS).

En 2010, LRPPN est donc déployé dans le but de le remplacer. Sans même évoquer les ratages que furent, en parallèle et dans les mêmes domaines, les logiciels ARDOISE et CASSIOPEE, force est de constater que c’est un douloureux échec : plantages, lenteurs, difficile adaptation par rustines multiples aux changements constants de procédure pénale, l’informatique pénale tourne au cauchemar pour la police.

En 2016, il est donc décidé de lancer un nouveau projet, Scribe, dont CapGemini remportera l’appel d’offre. Cependant, après 13 millions d’euros (sur les 8 prévus au départ) et neuf années de bricolages frénétiques, le constat est sans appel : c’est un fiasco. Le souci étant que le logiciel LRPPN, toujours en usage, n’est plus apte à faire son travail et entraîne une multiplication des vices de procédures dont profitent directement les prévenus…

En somme, le président d’un pays incapable de doter ses administrations des outils informatiques essentiels se croit capable de lancer sa bureaucratie sur l’intelligence artificielle avec cet aplomb que seuls les cuistres peuvent déployer en braillant, l’air bravache, « l’intendance suivra ! » avant de trotter, sabre au clair, au milieu d’un champ de betteraves.


Heureusement et pendant ce temps, les entreprises privées du reste du monde n’attendent pas les gesticulations du président français, virilement parti de son côté pour faire avancer les IA « frugales et respectueuses de l’environnement dans une gouvernance mondiale inclusive » et patin-couffin.

Ainsi, outre les modèles de moteur d’IA les plus avancés (Grok 3, GPT 4.5, Gemini 2.0, …) dont les dernières versions sont maintenant disponibles et qui dépassent chaque mois les capacités et performances des précédentes versions, l’intelligence artificielle commence à voir ses domaines d’application s’étendre de plus en plus vite.

C’est par exemple le cas dans celui de la modélisation des génomes avec le modèle d’IA Evo-2 : avec ce moteur totalement open-source, l’IA ne se contente plus de décrire la biologie, elle peut la concevoir et créer une vie synthétique à partir de zéro, des génomes complets ou simuler des cellules entières. Evo-2 prédit les effets des mutations sur les protéines et l’ARN, et les aptitudes des organismes à partir de leur génome.

Les potentialités sont stupéfiantes et les dérives possibles évidemment énormes.


Dans le domaine de la santé, l’IA assiste de plus en plus le personnel médical et si on l’utilise déjà pour l’analyse de l’imagerie médicale, son taux de succès étant maintenant meilleur que celui des radiologues, d’autres usages se font jour chaque mois qui passe. Dernièrement, il apparaît que l’analyse des signaux d’électrocardiogramme par l’IA permet d’obtenir une aussi bonne mesure de l’état du myocarde que des procédures jusqu’alors invasives (ici, la pose d’un cathéter sur le muscle cardiaque droit, ou CCD).

On peut aussi citer les avancées de l’IA en cybersécurité, soit du côté offensif (l’IA est utilisée pour attaquer une cible et produire ensuite un rapport circonstancié des points faibles repérés pour que le client puisse mieux se protéger, comme le propose Dreadnode), soit du côté défensif (l’IA est utilisée pour construire, dans le contexte d’une entreprise, l’ensemble des stratégies de protection et les règles à appliquer pour obtenir le niveau de protection désirée), les deux approches pouvant se complémenter.

Bien sûr, il ne s’agit ici que de quelques exemples saillants d’un mouvement d’ensemble plus profond : tous les domaines d’activités sont (ou seront très bientôt) touchés par l’intelligence artificielle et on comprend, dans ce cadre, les frétillements de la classe politique pour feindre d’organiser ce qui leur échappe complètement.

En outre et pour ceux qui en doutaient encore, ces évolutions en matière d’intelligence artificielle marquent le fossé – voire le véritable canyon – qui se creuse entre l’Europe d’un côté, et la Chine et les États-Unis de l’autre. La première a vigoureusement choisi de réglementer et de lancer sa bureaucratie à l’assaut des entreprise qui investissent le domaine, pendant que les seconds déblaient autant de terrain que possible pour qu’elles se développent.

Cependant, à l’instar de l’informatisation de la société qui a permis dans tout l’Occident d’engloutir les gains de productivité ainsi obtenus dans des États providence obèses, on peut à présent redouter que l’Europe et la France choisissent résolument d’utiliser l’intelligence artificielle pour aider le continent à s’accommoder de sa bureaucratie paralysante.

Malgré tout et comme le prouve le projet Scribe, le calibre phénoménal des incapables de compétition qui nous gouvernent actuellement permet de rester optimiste : l’Europe et la France s’effondreront heureusement sous le poids de leur bureaucratie, l’IA n’y pourra rien et c’est tant mieux.


https://h16free.com/2025/03/03/80330-macron-se-mele-dia-le-desarroi-sinstalle

29 janvier 2025

Intelligence artificielle : le coup de tonnerre DeepSeek

H16

- 29/1/2025 - Ces derniers jours, le monde de l’intelligence artificielle est entré en ébullition : en plus des progrès stupéfiants déjà enregistrés ces quelques années, ce qui s’est passé rebat fondamentalement les cartes tant dans le domaine de l’IA qu’au niveau de la géopolitique internationale…


Ici, on pourrait par exemple évoquer les dernières avancées qui ne cessent de surprendre comme, par exemple, un papier de Meta (la firme de Zuckerberg, très investie dans le domaine) qui relate les performances du projet SEAMLESSM4T dont les prémices remontent à 2022 et qui vise à permettre la traduction linguistique à la volée, sans passer par l’écrit.

Traditionnellement, les outils de traductions vocale enregistrent le locuteur dans une langue, produisent un texte à partir de ce qui est compris, traduisent le texte dans la langue cible et utilisent un outil de vocalisation pour le résultat final. Les progrès de Meta proposent de se passer des étapes intermédiaires et offrent à présent un « speech-to-speech translation » de 101 vers 36 langues, le tout en une paire de secondes de retard au plus, et en conservant l’intonation de la voix du locuteur. Il s’agit maintenant d’une solution robuste pour la traduction à la volée de niveau quasiment professionnelle, les métaphores et certaines subtilités culturelles ou linguistiques n’étant pas encore bien gérées.

Beaucoup d’argent… pour pas grand-chose ?

On pourrait aussi évoquer les 500 milliards de dollars d’appels de fonds largement médiatisés par Trump la semaine passée, et mis en place par les principales sociétés technologiques impliquées dans la course à l’intelligence artificielle : manifestement, les Américains n’hésitent pas à mobiliser de très larges sommes pour parvenir à développer des moteurs d’intelligence artificielle toujours plus pointus et performants. Cela explique au passage la transformation d’OpenAI, auparavant une fondation sans but lucratif, en une société capitaliste en bonne et due forme : beaucoup, outre-Atlantique, ont compris qu’il n’y avait pas une minute à perdre pour garantir que les prochaines avancées majeures dans le domaine seront de leur côté et non ailleurs.

Cependant, ces sommes et ces exemples, aussi importants soient-ils, viennent d’être complètement remis en cause par les derniers résultats de DeepSeek, une start-up chinoise qui avait jusqu’à présent déjà produit d’intéressants moteurs aux performances comparables aux acteurs les plus connus du marché (OpenAI, Meta, Anthropic, etc.).


Dans un ensemble de papiers et de sources logicielles publiés la semaine dernière, DeepSeek annonce son moteur R1 qui permet d’atteindre (au moins) les performances de o1 de chatGPT, l’un des modèles les plus performants actuellement disponibles. Et après analyse, les évaluations confirment en effet ces affirmations avec un point fondamental : R1 est disponible pour 3% du prix proposé par OpenAI. Mieux encore, étant « open source », chacun peut analyser, évaluer et mieux encore, reproduire le moteur chez soi en version raffinée, plus petite mais adaptée aux machines de bureau, ou en version complète lorsqu’on dispose d’une grosse machine ou d’une infrastructure informatique idoine.

Le point fondamental est que DeepSeek est une structure chinoise qui subit l’embargo plus ou moins ferme des États-Unis sur les puces les plus avancées qui comptent parmi elles celles consacrées à l’intelligence artificielle. Elle a donc développé ce moteur aux performances redoutables pour une petite fraction – les responsables de DeepSeek évoquent ainsi 6 millions de dollars – du coût de ChatGPT d’OpenAi qui ont, eux, investi des centaines de millions de dollars dans leur moteur actuel.

Et même si on se doute que l’embargo aura été contourné (et donc que l’investissement matériel serait très conséquent), même si certains se consolent en espérant que les Chinois n’auraient que « recopié » les principes développés par OpenAi, pour ceux qui ont déjà passé un peu de temps sur les sources publiées et les explications détaillées par DeepSeek dans ses papiers, il ne fait aucun doute que ses développeurs ont réalisé de vraies prouesses d’optimisation et de raffinement pour obtenir leurs résultats. Autrement dit, le matériel peut bien avoir été coûteux, l’entraînement du moteur, auparavant hors de prix, devient soudainement très abordable.

Au passage, ceci illustre une nouvelle fois que des contraintes fortes (ici, en terme de technologies et de fonds) génèrent des améliorations et des optimisations essentielles par nécessité, et démontre que les modèles produits jusqu’à présent sont largement optimisables et n’ont probablement pas les besoins énergétiques et financiers aussi énormes qu’on envisageait jusqu’alors.

Un impact géopolitique certain

Avec un tel moteur, DeepSeek bouleverse complètement l’écosystème de l’intelligence artificielle tel qu’il existait jusqu’à présent.


D’une part, en entraînant un modèle à 670 milliards de paramètres pour 6 millions de dollars, DeepSeek démontre une performance opérationnelle des dizaines de fois meilleure que celles des autres grands acteurs du marchés. Le saut qualitatif est si impressionnant qu’il signifie par exemple que des douzaines de laboratoires de développement d’intelligence artificielle peuvent potentiellement obtenir des résultats égaux ou supérieurs avec des financements bien plus faibles que prévus.

En outre, cela veut dire que la stratégie américaine d’embargo et de sécurisation des technologies correspondantes ne marche absolument pas et, même, se retourne contre eux : la relative aisance technologique et financière dans laquelle ont baigné les entreprises de la Silicon Valley ont certes permis leur émergence et leur ont donné une certaine avance, mais cette dernière est à présent presque évaporée. Les processeurs les plus avancés dont disposent les Américains (au contraire des Chinois) ne leur offrent finalement qu’une avance modeste. On peut même parier que seront possibles de nombreux autres gains par optimisation, rendant l’écart encore plus criant.

Mais surtout, en rendant leur modèle complètement libre d’accès (il est sous licence MIT, ce qui veut dire que n’importe qui peut récupérer le code et le modifier à sa guise pour ses propres besoins) et en fournissant l’ensemble des résultats de leurs recherches, les équipes de DeepSeek ont largement réduit la barrière à l’entrée de production des larges modèles de langage, offrant la possibilité à des petits acteurs de rejoindre la course.

Mieux encore : sur le plan géopolitique, cela veut dire qu’on peut abandonner l’idée jusqu’à présent en vogue (et notamment décrite dans un récent et touffu papier sur Situational Awareness) selon laquelle on allait s’acheminer vers un monopole en matière d’IA. Pour beaucoup d’observateurs et d’acteurs du milieu, tout indiquait que les Américains cherchaient à obtenir la suprématie dans le domaine et qu’une fois obtenue, il serait à peu près impossible de les en déloger. DeepSeek, en publiant l’intégralité de son moteur, égalise le terrain de la façon la plus radicale.

Enfin, avec DeepSeek comme point de repère, Grok, OpenAi ou Meta vont devoir faire beaucoup, beaucoup mieux pour justifier l’écart de prix facturé à leurs clients… Ceci explique assez probablement pourquoi Grok est à présent disponible gratuitement sur X, la plateforme de Musk, et pourquoi OpenAi a rendu son moteur o3-mini gratuit ou précipité la disponibilité de ses agents…

Pendant ce temps, en Europe…

Les prochains mois promettent encore de nombreux rebondissements. Cependant, une grande absente de ce qui se passe dans le domaine de l’intelligence artificielle reste l’Europe. Les gesticulations de Breton, qui se sont soldées par une régulation étouffante du domaine, se traduisent essentiellement par une disparition des Européens, et ce alors que beaucoup d’entre eux se sont (habilement) exfiltrés outre-Atlantique pour rejoindre les Américains.

Peut-être l’arrivée de DeepSeek mettra enfin l’intelligence artificielle à portée des administrations françaises, ce qui nous évitera les regrettables productions d’entreprises financées par l’État français, comme celle d’un copain de Macron qui a pondu Lucie, ce moteur plus proche des meilleures saillies de Lucie Castets que des performances de Lucy dans le film éponyme de Luc Besson.

Peut-être. Mais vu les directions prises, ne pariez pas trop dessus.


https://h16free.com/2025/01/29/79943-intelligence-artificielle-le-coup-de-tonnerre-deepseek

13 décembre 2024

Adriana Kezaco

J'ai testé Grok, ben c'est pas mal

- 12/12/2024 - Grock est une IA accessible gratuitement sur X.
Elle peut répondre à des questions comme toute IA classique mais surtout elle peut générer des images gratuitement.
Le Prompt (le texte décrivant ce que Grok doit générer) peut être écrit en français. Plus on donne de détails dans le prompt et mieux sera produite l'image.
Pour que Grok comprenne qu'on ne pose pas une question mais que l'on veut générer une image, il suffit de débuter le prompt par "crée une image", suivi des détails lui permettant de savoir ce que l'on veut générer.







22 mai 2024

Alain Hanel

JUSTE POUR DIRE...


Les images en intelligence artificielle envahissent les réseaux sociaux, les agences de publicité commencent elles aussi à les utiliser pour plusieurs raisons :
- plus besoin de modèles ou  mannequins à rémunérer, ils sont créés à la chaîne avec un simple logiciel ;
- plus besoin de payer à ceux-ci un droit à l’image puisqu’ils sont virtuels ;
- plus besoin de photographe, l’informaticien suffit et il est désormais intégré dans l’agence de publicité et peut illustrer une multitude de secteurs ;
- plus besoin non plus, de payer des droits de reproduction pour les « faussestographies » créées ;
- plus besoin de payer de frais de studio, la conception se fait avec un ordinateur dans l'agence ;
- d’autres professions comme, les assistants des photographes, les loueurs de matériel de studio, la coiffure des mannequins et le maquillage sont effacées ;
Les dommages collatéraux sont énormes pour des professions déjà en difficulté qui finiront à la rue, alors que les agences feront exploser leurs profits…
Quand vous « likez » ce genre d’images avec beaucoup d'enthousiasme pour certains, pensez à ceux qui en créant de vraies photographies ne travailleront bientôt plus...

3 mai 2024

La réelle faisant défaut, l’administration française va tenter l’intelligence artificielle

H16

2/5/2024 - Avec les développements récents de l’intelligence artificielle, il apparaît clair que cette technologie va, progressivement, tous nous toucher d’une façon ou d’une autre : comme le mentionnaient ces colonnes il y a quelques jours, l’intelligence artificielle s’adresse à tous, et c’est tellement vrai que, comprenant la tendance et l’importance de s’inscrire avec elle, l’administration française s’y met à son tour !


Oui, vous avez bien lu : mue par l’une de ces pulsions que seule notre Belle & Grande République du Bisounoursland est capable de produire, la jeunesse pensante de notre gouvernement a décidé de pousser l’intelligence artificielle sur l’ensemble de notre administration qui, à l’évidence n’attendait que ça. Ainsi, lors d’un déplacement à Sceaux dans une maison “France services” – ce guichet unique regroupant fisc, poste, Pôle emploi et CPAM autre débit d’argent des autres – le premier ministre Attal s’est fendu d’une déclaration pour annoncer la création d’une intelligence artificielle “à la française”.

Selon le premier ministre, cette nouveauté technologique sobrement baptisée Albert sera déployée dans la plupart de nos services publics, propulsant la France dans un chapitre neuf de ce XXIème siècle pourtant encore jeune, celui où le pays sera le premier à disposer d’une telle technologie “100% souveraine”. Le fait qu’aucun autre pays, y compris même les plus puissants, ne se soit pas déjà lancés dans cette aventure ne semble pas refroidir l’actuel locataire de Matignon : la France sera la première à mettre vigoureusement et courageusement le doigt dans l’engrenage de la technologie souveraine d’intelligence bureaucratique artificielle, dont l’évocation seule déclenche des frissons de plaisir chez tous nos ministres.

On notera l’utilisation du prénom “Albert” pour l’IA, à la fois bien français et peut-être choisi pour rappeler une sorte de majordome qu’on pourrait ainsi convoquer pour régler ses petits soucis avec l’administration et sa bureaucratie aussi compréhensive que ses procédures sont simples et souples pour s’adapter aux exigences du terrain.

D’ailleurs, le frétillant Attal a précisé en quoi cette nouveauté allait changer le quotidien des cobayes administrés français : il s’agit essentiellement d’obtenir des procédures plus simples et plus rapides, tant pour les gens devant les guichets que pour ceux derrière, qui pourront, l’assure le Premier Ministre, se recentrer sur le contact relationnel, dont on sait qu’ils sont tous absolument friands.


À titre d’exemple, Attal explique qu’Albert permettra à l’administration fiscale de rédiger des “pré-réponses” aux usagers lorsqu’ils viendront tenter de comprendre pourquoi, subitement, ils ont été ponctionnés trois fois ou qu’on leur a taxé à nouveau un héritage qu’ils ont pourtant déjà déclaré il y a trois ans, ou pourquoi on leur réclame une taxe foncière sur un bien qu’ils ont vendu cinq ans plus tôt, etc. On attend avec gourmandises les pré-réponses à des questions sur des contrôles fiscaux farfelus : Albert promet déjà des prouesses.

De la même façon, on imagine déjà l’aide qu’une telle IA pourra fournir, depuis la liste des démarches détaillées pour obtenir toutes les subventions même les plus cachées, jusqu’aux moyens légaux et argumentés pour réduire ses cotisations ou ses taxes dans différents domaines. Nul doute que les administrations seront au taquet pour garantir de telles performances, hein.

De façon générale, ce nouveau gadget bond technologique dans les administrations ressemble à s’y méprendre aux propositions déjà formulées par nul autre que notre Bruneau de Bercy concernant moult simplifications qu’il entend mener pour aider tout le monde et son chat.


Du reste, on a une idée assez précise de ce que va donner cette initiative.

D’une part, le passé de l’État français en matière d’informatique à la sauce publique suffit à se rassurer : Louvois (la paie des militaires), Numergy ou Cloudwatt (le “cloud souverain”), l’ONP (paie du personnel public), Genesis (Justice), Faeton et la numérisation des cartes grises ou des permis de conduire, Salto, j’en passe et des pires, tout l’historique de l’informatisation des administrations est maintenant truffé de ces pépites majeures que les Français regardent à présent, les yeux humides d’émotion et de gratitude, et que le monde entier nous envie évidemment. Dans ce contexte, l’avenir d’Albert est déjà assuré.

D’autre part, on a la preuve que l’intelligence artificielle fait des miracles puisqu’elle est déjà employée dans l’administration fiscale. Eh oui, l’institution pionnière qui a lancé l’usage de cette technologie dans l’administration française, rappelez-vous, ce fut le fisc avec son utilisation pour repérer les piscines non déclarées.

Une fois mis en place, l’administration n’avait pas hésité à fanfaronner de façon peu prudente : 140.000 piscines avaient ainsi été débusquées par la puissance de calcul des ordinateurs de Bercy et la finesse de l’intelligence artificielle mise en place. Les Français n’avaient plus qu’à bien se tenir, les photos satellites et l’IA les ont à l’œil.

Cela a d’ailleurs tellement bien marché qu’on a rapidement envisagé d’étendre cette pratique à d’autres domaines comme les cabanes de jardin (combien de fortunes ont ainsi été cachées aux services de Bercy derrière ces anodines constructions, combien de nababs des potagers se dissimulent derrière ces cahutes faussement modestes ?)…

Malheureusement, quelques mois sont passés et l’analyse a posteriori et loin des caméras et des micros appelle à plus de sobriété. En substance, les piscines n’en sont pas toutes et l’IA de Bercy fait un peu trop de zèle : une fois sur trois, elle trouve une piscine là où il n’y en a pas.


Enfin, dans un pays où les Français se plaignent chaque jour plus que leur administration est déshumanisée et hors sol, que ses procédures de moins en moins empreintes de bon sens écrabouillent toujours plus les individus dans la machine bureaucratique, dans un pays où l’administration semble chaque jour s’éloigner un peu plus des citoyens, des contribuables et des individus qu’elle est censée servir, Attal – qui a décidément tout compris – propose donc d’ajouter à cette relation déjà distendue un nouvel intermédiaire… Sous la forme d’un outil informatique qui plus est, avec le passif de l’État en la matière.

Forcément, cela va très bien se passer.


26 avril 2024

L’intelligence artificielle pour tous ?

H16

26/4/2024 - Malgré une géopolitique internationale toujours plus tendue, malgré les odeurs de crise économique et financière toujours plus fortes, le monde de l’intelligence artificielle continue d’avancer et le précédent billet relatif à ce domaine, pourtant vieux de quelques semaines seulement, semble déjà fort lointain tant les nouveautés se sont accumulées depuis.

Ainsi, les questions posées sur le droit d’auteur pour les IA génératrices d’images (comme MidJourney ou Dall-E par exemple) que ces colonnes évoquaient à la fin de l’année 2022 – et qui n’avaient que très partiellement trouvé de réponses – risquent de se poser à nouveau avec encore plus d’insistance alors que viennent de sortir de grosses nouveautés en matière de musique cette fois-ci.

En effet, en l’espace de quelques semaines sont apparus deux nouveaux moteurs de générations de musique qui permettent de créer différents types de productions musicales, avec ou sans paroles, sur différents styles extrêmement variés depuis la musique “classique” jusqu’au rap en passant par le rock, le blues, la pop ou les musiques électroniques. Ainsi, à partir d’une simple invite de l’utilisateur, l’un et l’autre de moteurs permettent de créer une musique ou une chanson dans le style de son choix ou au hasard de la machine.


Le premier à se faire connaître est Suno dont la production est maintenant assez copieuse. Le moteur d’IA permet des mélanges de genre assez hétéroclites, depuis “l’acoustic acid rock” jusqu’au “swing samba” en passant par le “celtic boogie”. Sans mal, les résultats sont surprenants : la qualité n’est pas différente de ce qu’on entend tous les jours à la radio et les textes ne sont pas tous mauvais, loin s’en faut (et certaines “références” françaises souffrent mal la comparaison avec ces productions mécaniques)… Bref : si on ne tient pas encore le prochain Mozart dans ce moteur d’intelligence artificielle, on se place, en terme de production musicale, dans la moyenne de ce qu’on trouve déjà un peu partout.

Le second, apparu quelques semaines seulement après, offre une qualité de création encore supérieure : Udio répond globalement aux mêmes principes et permet, avec quelques instructions simples concernant le style et l’organisation du morceau que l’on souhaite créer d’obtenir en quelques minutes un résultat tout à fait comparable avec la production musicale courante.

Dans ce contexte, on se demande exactement ce qui va empêcher certaines radios de diffuser en continu les productions choisies de ces moteurs, et on commence à entrevoir un monde où la musique d’ambiance (dans les magasins par exemple) ne sera plus produite par des artistes, enregistrée puis distribuée, mais produite à la volée en fonction du lieu, de l’ambiance choisie par le propriétaire ou de critères du moment. Dans ce cadre, on s’amuse déjà des excitations qui s’empareront (en vain) des personnels chargés des inspections de la SACEM… La collecte des droits d’auteur promet d’être un tantinet plus complexe.

Le marché de la musique commerciale et d’ambiance promet donc d’être abondamment bouleversé par l’arrivée de ces nouveaux moteurs, au même titre que celui des applications de rencontres sur internet : la possibilité, bien réelle, de créer des “copines virtuelles” crédibles – aussi bien du côté visuel que du côté des éventuelles conversations – ouvre depuis peu un marché que certains évaluent à plus d’un milliard de dollars.


Pendant ce temps, les moteurs larges de langage (“LLM”) continuent leur course à la performance, en tentant chaque jour de résoudre des problèmes de plus en plus complexes et abstraits que leur soumettent leurs utilisateurs. Il est fini le temps où les moteurs proposaient très sérieusement des recettes pour cuire les œufs de vache et si les règles communes et les lois les plus basiques de la physique qui nous entoure échappent encore parfois à ces intelligences artificielles, c’est de moins en moins fréquent.

La version 5 de ChatGPT d’OpenAI n’est toujours pas sortie, mais depuis ChatGPT 4, des moteurs concurrents ont affiché des résultats et des métriques particulièrement enthousiasmants. Ainsi, Claude (de la société Anthropic) montre des capacités proches ou supérieures à celle du dernier moteur d’OpenAI.

Mais récemment, c’est Meta, la firme de Mark Zuckerberg, qui a surpris le milieu en publiant Llama3, leur dernier moteur dont il existe à présent deux versions, l’une à 8 milliards de paramètres et l’autre à 70 milliards. Cette dernière affiche des performances comparables ou meilleures que Claude et ChatGPT4… tout en étant intégralement “open source”, c’est-à-dire que l’intégralité du code est disponible pour tous, ce qui permet à des millions de développeurs et de curieux de tester le moteur, de le modifier ou de participer à son évolution.

Ce dernier rebondissement montre plusieurs choses intéressantes.

D’une part, cette course qui s’est établie entre les différentes entreprises pour produire le modèle le plus affûté confirme à quel point le “phénomène” ChatGPT, survenu en novembre 2022, n’était pas qu’une intéressante curiosité.

D’autre part, la présence extrêmement modeste de l’Europe dans les sociétés qui se sont lancées dans cette course – seule Mistral, française, semble pouvoir participer – montre une fois encore que les gesticulations européennes, essentiellement à base de régulation, n’ont absolument pas permis l’émergence d’un véritable terreau fertile aux développements de nombreuses entreprises dans le domaine.


Mais surtout, cette compétition montre une fois encore les bienfaits d’une concurrence qui impose une amélioration constante des moteurs et des performances, et l’accélération de la tendance générale à la puissance des modèles proposés. Si, fin 2022, OpenAi semblait disposer d’une véritable suprématie dans le domaine, ce n’est plus le cas à présent.

En somme, les moteurs d’intelligence artificielle sont en train de grignoter le fondement même de certaines professions, depuis les artistes (dans le graphisme et maintenant la musique) jusqu’aux professions littéraires (journalistes ou traducteurs pour ne citer que celles-là), et de plus en plus rapidement, avec une qualité de production, de raisonnement ou de déduction toujours meilleure.

Ce constat peut légitimement inquiéter à peu près tout le monde, d’autant plus que ces moteurs alimenteront les “cerveaux” électroniques de robots humanoïdes dont le développement connaît, lui aussi, de belles avancées.

Cependant, l’arrivée de Llama3 marque deux points très importants dans ces développements.

Le premier est que ce modèle “open source” marche très bien, mieux que prévu même : avec un modèle sensiblement plus petit que la concurrence, on obtient des résultats égaux ou supérieurs à ceux de Chatgpt qui, pour rappel, comporte 1500 milliards de paramètres contre 70 pour le plus gros des Llama3. En fait, ce dernier a beaucoup bénéficié de temps d’entraînement supérieurs et d’une grande qualité des données sources ainsi qu’un meilleur raffinement de l’apprentissage. Au passage, cela peut signifier que les modèles actuels seraient plutôt sous-entraînés et qu’à nombre égal de paramètres, on pourrait espérer avoir des résultats encore bien meilleurs moyennant un entraînement plus long et plus fin.

Du reste, Meta travaille sur le prochain modèle (à 405 milliards de paramètres !) qui pourrait dépasser les modèles actuels, et qui sera lui aussi open source.

Le fait d’être en modèle ouvert évite les dérives de certains moteurs : si Google pouvait tenter de proposer une IA complètement woke, ou si ChatGPT se retrouve châtré avec l’impossibilité de remettre en question certains dogmes du moment (changement climatique anthropique, théorie du genre et autres folies progressistes du même acabit, etc.), le moteur open source peut, lui, tourner sur un environnement complètement indépendant et donc hors des limitations imposées aux précédents.

Oui, nous nous acheminons vraisemblablement vers un monde où chacun pourra disposer de son propre modèle d’IA, entraîné de façon généraliste et spécialisé pour son propre usage, et dont le fonctionnement ne sera limité ni par le fabricant, ni par le politiquement correct. Il est sans doute assez proche le moment où vous pourrez faire fonctionner un agent “open source” sur votre téléphone, sans que cet agent fuite vos données vers des services commerciaux ou gouvernementaux, sans qu’il ait été contraint par l’une ou l’autre agence, l’une ou l’autre société.

Et ceci est une excellente nouvelle.


https://h16free.com/2024/04/26/77430-lintelligence-artificielle-pour-tous

26 février 2024

Gemini, le moteur ultra-woke de Google

H16

26/2/2024 - La semaine dernière, alors qu’OpenAI faisait frémir le monde de l’intelligence artificielle avec Sora, le premier moteur permettant de créer des petites vidéos réalistes à partir d’une simple description textuelle, Alphabet (la maison-mère de Google) lançait en fanfare la nouvelle version de son agent conversationnel, réponse de l’entreprise mondiale à ChatGPT d’OpenAI, elle-même détenue par Microsoft. Le moins qu’on puisse dire est qu’on n’a pas été déçu.

Comme à son habitude pour bien lancer son produit, Google en a subtilement changé le nom pour passer de Bard à Gemini (comme il était passé de Google Apps à GSuite puis Workspace, ou de Google Local à Places à MyBusiness à Business Profile, ou Google Hangouts à Chat, etc.) tout en lui donnant de nouvelles fonctionnalités.

Il faut le reconnaître, le moteur d’intelligence artificiel de Google est puissant.

Les prochaines semaines permettront sans doute d’explorer en détail ce qu’il a sous le capot, mais on sait déjà par exemple que Gemini dispose à présent d’une fenêtre contextuelle d’un million de jetons. Cette fenêtre contextuelle, c’est ce qui permet à l’agent de conserver la mémoire des échanges d’une question à l’autre. Par comparaison, ChatGPT 3.5 (la version gratuite) dispose d’une fenêtre d’environ 16.000 jetons et la version 4 autorise jusqu’à 128.000 jetons et pour donner un ordre de grandeur, ce dernier nombre représente l’équivalent d’un livre de poche à peu près, là où Gemini peut se rappeler d’une œuvre complète de 1500 pages…

Ou d’un film d’une heure et demi environ : Gemini permet en effet à l’utilisateur de lui fournir des images ou des vidéos comme entrées contextuelles sur lesquelles baser ses réponses ; pour résumer rapidement une vidéo, voilà qui peut s’avérer particulièrement intéressant dans un futur proche.

Mais à côté de ces progrès techniques indéniables et d’une puissance vraiment intéressante, Gemini s’est surtout illustré par l’identification très rapide d’un problème assez gênant pour la firme de Moutain View en Californie : voulant sans doute rattraper son retard en matière de production d’image à partir d’une description textuelle – OpenAI permet en effet à ses clients de produire des images depuis plusieurs mois directement depuis ChatGPT – Gemini a été doté de cette possibilité mais à l’usage, il est rapidement apparu que certaines demandes n’étaient tout simplement pas acceptés ou que l’écart entre les requêtes et les résultats était si fort que, très rapidement, les réseaux sociaux se sont emparés de l’affaire.


Pas de doute : lorsqu’on demande à Gemini de produire des images à teneur historique ou représentant certaines ethnies, ce dernier interprète la demande de façon un peu trop spécifique.

Ainsi, obtenir l’image d’un chevalier médiéval ou d’un pape aboutit à la production d’images systématiquement en désaccord grossier avec la réalité : l’intelligence artificielle de Google s’amuse à pondre, avec un enthousiasme louche, des chevaliers médiévaux de toutes les ethnies possibles mais le chevalier blond aux yeux bleus est étrangement absent ; les images de papes produites piochent allègrement dans les femmes, éventuellement indiennes ou noires ; quant aux empereurs romains, ils sont tous étonnamment très africains.


Le pompon est atteint lorsque confronté à la demande de représenter des soldats allemands en 1943, Gemini a cru bon de produire une série d’image résolument inclusive comprenant donc des fiers représentants noirs de la Wehrmacht… Qui doutait encore que la réalité historique pourrait se plier aussi facilement aux contraintes les plus modernes ?


Bien entendu, il n’aura pas fallu longtemps pour que le biais un peu trop massif et un peu trop visible du moteur de production d’images de Google soit immédiatement mis à profit pour transformer Gemini en véritable usine à mèmes rigolos, comme en atteste l’image suivante qui donne une idée de ce à quoi peut aboutir la volonté manifeste de l’entreprise américaine de la jouer un peu trop violemment pro-inclusivité… au point de sombrer dans un racisme si caricatural qu’il en devient hilarant.


Évidemment, ceci n’a pas manqué de provoquer quelques petites crises tant chez les habituels flocons de neige de la dernière génération qu’au département de Relations Publiques de Google qui a donc, après 24 heures de polémique croissante, été obligé d’arrêter cette fonctionnalité spécifique de Gemini : le biais “woke” était trop gros.

Malheureusement, une fois la production pittoresque stoppée, ce biais n’en demeure pas moins et semble très inscrit dans le moteur de Google qui ne se débarrasse donc pas de ses préjugés visiblement bâtis par un gauchisme effréné. Et non, ce n’est pas une exagération puisqu’interrogé sur la pédophilie (“la pédophilie est-elle condamnable ?”), le moteur s’en sort par une pirouette qui équivaut essentiellement à dédouaner ce qui, dans tous les pays occidentaux au moins, est pourtant considéré comme un crime punissable de prison.


Cette intéressante indulgence, pointée du doigt sur les réseaux sociaux, a rapidement été corrigé par Google mais elle impose assez naturellement une question : sur quelles données ce moteur a-t-il donc été entraîné pour obtenir de tels résultats ?

La biographie et les interactions sociales du responsable du produit, un certain Jack Krawczyk (qui a depuis protégé ses tweets), permet de lever le voile sur cette question légitime : apparemment, le moteur n’est pas devenu un tel porte-parole gauchiste et militant pour rien puisque, d’une part, celui qui a dirigé son “éducation” est lui-même assez visiblement un activiste gauchiste patenté, et que, d’autre part, il apparaît aussi clairement que les requêtes utilisateurs sont massivement retravaillées pour garantir que le résultat sera correctement inclusif et divers (au point de produire de sémillantes coréennes dans des costumes de la Wehrmacht)


En fait, tout indique que Google continue ses efforts d’ingénierie sociale mais là où on pouvait admettre un certain doigté de la firme californienne il y a quelques années de cela, l’actuelle tentative est si grossière et maladroite qu’elle ne peut que provoquer un fort rejet dans toute la population. On se rappelle en effet que l’entreprise technologique avait été clairement identifiée dans son travail partisan lors de l’élection présidentielle américaine de 2016 (en favorisant très clairement la candidate démocrate) et on pourra reprendre l’entretien de Tucker Carlson avec Mike Benz à ce sujet qui évoque la question et montre que les entreprises privées ont été largement mises à contribution pour effectuer des opérations psychologiques d’ampleur sur les populations occidentales.

Évidemment, ici, cela s’est vu et la question de la capacité de Google à s’en remettre est clairement posée.

D’autre part, ce genre de résultats démontre à quel point les actuels moteurs d’intelligence artificielle sont particulièrement dépendants des sources et des matériaux sur lesquels ils sont entraînés et comment, en conservant aussi opaque que possible la façon dont sont effectivement traitées les invites saisies par les utilisateurs, les résultats sont lourdement orientés.

À ce titre, on ne peut que se réjouir de l’actuelle concurrence dans le domaine, tant du côté d’autres entreprises privées que des moteurs en source libre (dont on trouvera de nombreux exemples sur HuggingFace par exemple) qui permettent justement d’éviter la formation d’un cartel d’entreprises aux intentions de moins en moins avouables. Ainsi, alors que Gemini sortait et proposait ses joyeux Nazis d’ébène, Stable Cascade (une variante avancée de Stable Diffusion) devenait disponible et directement installable par le particulier.

On ne s’étonnera guère de constater que ce dernier moteur n’est absolument pas “woke” et produit des images assez proches de ce à quoi on peut raisonnablement s’attendre. A contrario, Gemini illustre assez bien ce que pourrait donner une capture complète de cette technologie (et de l’intelligence artificielle en général) par des acteurs étatiques qui en refuserait l’accès et la transparence au public…

Et pendant que ces autres moteurs marquent donc des points, que l’orientation de moins en moins démocratique et sereine de Google apparaît au grand jour (n’imaginez pas une seconde qu’elle ne s’étend pas aux autres outils de Google, moteur de recherche notamment), on peut rappeler le principe général “go woke, go broke” : les entreprises qui se sont lancées dans ce genre de militantisme hystérique ont toutes fini par souffrir ou déposer le bilan.

Ceux qui ont des actions Alphabet auront peut-être envie de s’en séparer ?


https://h16free.com/2024/02/26/76963-gemini-le-moteur-ultra-woke-de-google