Translate

Affichage des articles dont le libellé est intelligence artificielle (IA). Afficher tous les articles
Affichage des articles dont le libellé est intelligence artificielle (IA). Afficher tous les articles

29 octobre 2025

Vincent Verschoore
Ze Rhubarbe Blog

-28/10/2025- Plus de 700 scientifiques, personnalités politiques, entrepreneurs de la tech, religieux ou célébrités demandent ce mercredi 22 octobre l’arrêt des travaux liés au développement de la superintelligence artificielle, susceptible de surpasser les capacités humaines.
On peut d'ores et déjà constater la bouillie informationnelle ("slop") issue des millions d'agents IA qui produisent du contenu en bonne partie généré par d'autres IA, menaçant de tuer Internet par asphyxie. Dans un tel contexte où plus rien ne peut être considéré comme vrai, les opportunités de manipulation ne manquent pas et développer à l'arrache une superintelligence, au sens d'une entité capable de raisonner et de développer des objectifs propres qu'elle sait cacher, capable de se copier elle-même (donc indestructible) et de s'auto-améliorer, c'est en effet appeler à une forme de suicide collectif aux mains d'une entité dont le fameux Skynet, de la série Terminator, reste le modèle de référence.
"Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population", indique le texte relié à l’initiative lancée par le Future of Life Institute, un organisme non lucratif basé aux États-Unis.
Ils mettent en garde contre les usages délétères de l'IA, aux mains de terroristes ou de régimes mal intentionnés. La course à la superintelligence est en même temps commerciale et géopolitique, et personne n'a l'autorité pour imposer un moratoire. Nous sommes donc embarqué dans un camion fou où plusieurs conducteurs se battent pour le volant, chacun sachant qu'il y a un mur barrant la route quelque part devant...

3 octobre 2025

H16
3/10/2025

Adieu les pubs, bonjour les micropaiements AI ? Le partenariat Google Deepmind et Coinbase qui pourrait booster les créateurs

Enfin, les geeks vont enfin pouvoir avoir des copines virtuelles qui leur réclament de l’argent !


Eh oui, dans l’intelligence artificielle, les choses avancent décidément très vite et même si le précédent billet sur le sujet ne date que d’un mois, l’actualité impose d’y revenir alors que Google et Coinbase viennent de créer un partenariat afin de créer une économie virtuelle, ou au moins les outils permettant de la construire et destinés aux agents d’intelligence artificielle.

Pour situer un peu, rappelons qu’un agent, dans le contexte de l’intelligence artificielle, est un programme ou un ensemble de programmes conçu pour être relativement autonome, qui perçoit son environnement (via des entrées logicielles) qui lui permettent de prendre des décisions et exécuter des actions concrètes afin d’atteindre un objectif spécifique assigné à son lancement.

Même si les agents qui existent actuellement sont, pour la plupart, relativement embryonnaires et d’une autonomie limitée, ils disposent d’une capacité à tenir un raisonnement, c’est-à-dire de décomposer un objectif complexe en plusieurs étapes, de choisir les outils appropriés (recherche web, connexion à des bases de données ou des programmes, etc.) et d’adapter son plan en temps réel en fonction des informations qu’il reçoit.

Au contraire des « chatbots » classiques qui se contentent de bavarder comme un oncle un peu lourd à un dîner de famille, l’agent peut aller bien au-delà de la fourniture d’une réponse puisqu’il est capable d’effectuer des actions pour le compte de son propriétaire : moyennant les bons outils, il peut agir exactement comme le ferait un utilisateur humain en ligne, depuis effectuer des recherches jusqu’à prendre des rendez-vous en passant par synthétiser des documents ou des vidéos ou automatiser des flux de travail complexes comme des opérations logistiques par exemple. En somme, c’est le stagiaire parfait sans les erreurs à la photocopieuse ou la machine à café.

Cependant, très souvent, ces opérations nécessitent des transactions financières. Or, pour le moment, il n’existe pas, à proprement parler, de protocole standardisé permettant à un agent d’effectuer un paiement ou d’en réclamer un. C’est précisément pour cela que Google (Deepmind) et Coinbase (une plateforme d’échange de crypto-monnaies) se sont retrouvés afin de créer un protocole autorisant des agents à négocier entre eux. Pour cela, Google DeepMind vient de publier un document sur l’économie dans le cadre d’agents virtuels et s’associe à Coinbase pour lancer le Protocole de Paiement Agentique (AP2), avec une extension appelée X402.


Ce protocole permet donc aux agents d’effectuer des transactions rapides et transparentes, des micro-paiements, de monétiser leurs propres services et de payer d’autres agents automatiquement au nom des utilisateurs. Ce système utilise des stablecoins (comme l’USDC) qui sont des cryptomonnaies adossées à une devise (ici, le dollar), ce qui permet des transactions rapides, sans les frais élevés des systèmes de paiement traditionnels comme Visa ou Mastercard, et surtout très fractionnables puisqu’on peut envisager des échanges pour l’équivalent d’un cent ou moins, ouvrant la voie à des microtransactions très peu chères (un millier de transactions pour un euro par exemple) mais très nombreuses, l’équivalent d’un pourboire numérique à un article.

Les applications ne manquent pas : l’exemple fourni imagine une personne en charge de ressources humaines qui utilise un agent pour filtrer les CV reçus et les faire correspondre au poste ouvert. Cet agent de Ressource Humaine pourrait aussi être chargé de la vérification des antécédents (diplômes bidons, casier judiciaire garni, par exemple, ou plus prosaïquement des accréditations pour certains types d’emplois) : cette vérification pourrait être effectuée par des agents spécialement développés pour cet objet. Le coût de la vérification pourrait être aisément négocié et facturé de ces agents vers l’agent RH, de manière transparente et sans intervention humaine directe.

De façon intéressante, un lien direct peut être fait avec le précédent billet consacré à l’intelligence artificielle. En effet, de plus en plus, certains producteurs de contenus voient leurs efforts contournés par l’intelligence artificielle : un article, lorsqu’il est vu par un humain, peut être rentabilisé au travers des publicités affichées autour de l’article ; un robot de « scrapping » qui va lire exclusivement le contenu de l’article ne regardera pas les publicités. L’annonceur ne rémunèrera pas, à raison, la vue correspondante.

L’usage des agents et de ce protocole de paiement peut, dans ce cas, ouvrir la voie à une résolution harmonieuse de la perte de revenus observée par les créateurs de contenus « aspirés » par les modèles d’IA : un agent pourrait par exemple payer des frais « d’exploration » (per-crawl fee) de quelques centimes ou fractions de centime pour accéder et utiliser des informations spécifiques, assurant ainsi une rémunération pour les publications, les créations originales, les artistes, les auteurs, les journalistes, etc.

Si l’on pousse le raisonnement un peu plus loin, on peut imaginer sans mal que l’infrastructure mise en place par Google et Coinbase (A2A, AP2/X402) ouvre la voie à des entreprises entièrement autonomes dirigées par de tels agents : non seulement, l’intelligence artificielle permet de voir des voitures autonomes se multiplier dans nos villes, mais on peut aller plus loin et disposer d’un véritable taxi autonome qui se gère lui-même, paye sa maintenance, et engage d’autres agents pour créer son site web ou gérer son marketing, l’humain intervenant ici au départ pour constituer le capital de départ (l’automobile, par exemple).


À terme, en utilisant ce genre de protocoles et de principes, on peut voir éclore un marché complet, avec des places de négociations sur toutes sortes de prestations et de prix dès lors qu’une automatisation est possible.

L’ampleur de la révolution qui se met en place est largement comparable à ce qui s’est passé lorsqu’internet s’est démocratisé au milieu des années 90, en mode turbo pour l’impact économique, avec des agents gérant un empire depuis votre chambre d’amis.

Ceux qui se placeront judicieusement dans ce qui est en train de se mettre en place seront les multimilliardaires de demain… Ou au pire, des geeks avec des copines virtuelles qui paieront leurs factures.


https://h16free.com/2025/10/03/82057-adieu-les-pubs-bonjour-les-micropaiements-ai-le-partenariat-google-deepmind-et-coinbase-qui-pourrait-booster-les-createurs

29 août 2025

Intelligence artificielle et web parallèle

H16

-29/8/2025- Internet est en train de changer, et de changer plus vite que vous ne pouvez l’imaginer : d’un côté, jamais produire du contenu n’a été aussi facile mais de l’autre, jamais le contenu réellement humain et original n’a été aussi rare…


La tendance est évidente pour qui regarde avec attention ce qui se passe depuis quelques années avec, notamment, l’arrivée de l’intelligence artificielle : on assiste actuellement à une déferlante de contenus, ces derniers étant de plus en plus créés par des moteurs d’intelligence artificielle. Que ce soit pour l’image, la musique, la vidéo, le texte, la production des moteurs d’intelligence artificielle s’étend tous les jours un peu plus et ce d’autant plus que ces contenus sont, à leur tour, utilisés par les moteurs pour nourrir leurs bases d’apprentissage.

En effet, à mesure qu’enflent les capacités des moteurs grossissent aussi leurs besoins de données pour s’entraîner : dans ce cadre, la production de données « synthétiques » devient nécessaire. Or, au-delà même de la question de savoir si ces données synthétiques permettent réellement une amélioration des apprentissages, un autre phénomène est en train d’émerger.

Sur les deux dernières décennies, Google et Meta ont dominé le web en échangeant gratuitement leurs services contre des publicités. Dans ce cadre, les utilisateurs obtenaient du contenu, les créateurs de ce contenu pouvaient obtenir du trafic de la part de ces deux firmes, et les annonceurs, de leur côté, obtenaient des audiences ciblées et détaillées sur lesquelles pousser leurs messages construits sur mesure.

L’essor de l’intelligence artificielle a bouleversé ce triptyque : le nombre de créateurs a explosé au point de rattraper celui des utilisateurs, une partie grandissante des utilisateurs est maintenant représentée par des bots qui viennent extraire des contenus nécessaire pour les inférences des moteurs, et dans les cas les plus extrêmes, les publicitaires se retrouvent obligés d’utiliser des bots pour… vendre à des bots, ce qui n’est guère efficace commercialement parlant.

Cette situation est en train de pousser l’internet vers une « fracturation par facturation » : l’accès gratuit n’est plus possible par défaut.

En 2022, avec l’arrivée de ChatGPT, les utilisateurs ont modifié de façon brutale leurs comportements : au lieu d’utiliser Google pour chercher internet, ils ont commencé à utiliser les explications fournies par l’IA, privant de fait les éditeurs du trafic habituel alors même que leur contenu sert de base aux réponses fournies par les modèles. À présent, la recherche assistée par l’IA de Google, qui apparaît automatiquement sur certains types de questions, réduit de plus de la moitié les clics sur les liens de sites web. Parallèlement, les recettes publicitaires du géant informatique ont pourtant augmenté de 10% en 2024 (265 milliards de dollars au total).


Les éditeurs et producteurs de contenus, comprenant la situation, multiplient donc actuellement les exigences avant connexion à leurs sites : « murs de paiement » pour imposer un revenu d’abonnement, Captchas et, pour certains sites (Reddit, StackOverflow par exemple), exigence d’un paiement pour les robots qui viennent pomper les données, selon le modèle « Pay To Crawl » mis en place par Cloudflare.

Autrement dit, le web tel qu’il existait jusqu’à présent est rapidement en train de se scinder en deux communautés pour les différents types d’utilisateurs : le web gratuit mais sans barrières, dont une partie croissante est composée de contenu synthétique, et qui est systématiquement utilisée par les moteurs, et un autre web plus restreint, composé des services exclusivement destinés à des humains (newsletters, groupes Discord, forums niche), géré et entretenu par des humains et seulement des humains.

Petit-à-petit apparaissent les deux couches de ce nouveau web, l’une fournie et entretenue par l’IA, alimentée par la publicité et optimisée pour fournir des réponses rapides, instantanées, pendant que l’autre est réservée – sur base d’abonnement ou de contraintes spécifiques – à des humains.

Si l’on projette cette tendance à plus long terme, avec d’un côté les données synthétiques dont le nombre explose et de l’autre les données humaines qui sont de moins en moins accessibles, on comprend que le ratio des données humaines sur les données totales va donc décroître. Inévitablement, les données générées par l’homme vont donc se raréfier en rapport, gagnant en valeur et ce d’autant plus que les données de l’internet sont toujours plus contaminées par les résultats de l’intelligence artificielle. Il n’est pas déraisonnable d’imaginer que, dans un futur proche, le paiement à la recherche ou le paiement au « scrapping » de données remplaceront l’octroi de licences sur le contenu ou les droits d’auteur.


À la longue, on peut même envisager que le paiement de ces parcours, qui sont plus faciles à gérer et rapidement plus rentables que la gestion des droits d’auteur pour les créateurs de contenus et les éditeurs, fasse progressivement disparaître les droits d’auteurs traditionnels, de la même façon que la disparition des frictions dans l’accès à l’information a fait s’écrouler les prix de beaucoup de services (les agences de voyage, de taxi, d’immobilier en savent quelque chose). De ce point de vue, le paiement au parcours tel qu’il est expliqué ici trouve un bon équilibre : d’un côté les humains peuvent circuler librement, et de l’autre les robots payent à l’entrée de chacun des sites.

Au début d’internet, seuls les spécialistes et les passionnés se connectaient entre eux. L’arrivée des firmes commerciales, le développement des communications bien au-delà de ces utilisateurs spécifiques a permis au plus grand nombre d’accéder au partage d’information, au détriment évident de la qualité des contenus.

Cependant, l’étape suivante dont on observe la naissance pourrait renvoyer le balancier dans l’autre sens, forçant le retour ou la création de communautés plus spécialisées. Alternativement, on peut imaginer la dystopie dans laquelle les humains, noyés dans les contenus synthétiques, finissent par perdre complètement pied et ne plus pouvoir former ces communautés autrement que dans le monde réel, loin du monde numérique ainsi réservé aux bots.

Mais quoi qu’il en soit, rien ne nous aura préparé à ce qui va arriver dans les prochaines années.


https://h16free.com/2025/08/29/81590-intelligence-artificielle-et-web-parallele

19 juillet 2025

Intelligence artificielle : l’instant Grok

H16
18/7/2025

La dizaine de jours qui vient de s’écouler ne fut pas de tout repos pour Grok, l’intelligence artificielle d’Elon Musk. En effet, ce 8 juillet, elle a connu d’intéressants moments d’égarements…

Tout s’est essentiellement déroulé entre le 7 et le 9 juillet, et pour les utilisateurs du moteur d’intelligence artificielle de Musk, disponible directement ou au travers de la plateforme X, ce fut une expérience qui n’est pas sans rappeler le dérapage tragi-comique de Microsoft avec ses premiers essais de robot conversationnel en ligne en 2016 : Tay, lâchée sur les réseaux sociaux de l’époque, était très rapidement devenue complètement extrémiste et s’était assez vite répandue en messages racistes ou à fortes connotations sexuelles voire sexistes.

Ici, cependant, les choses furent un peu plus subtiles : en quelques heures, les internautes habitués à interagir avec Grok au travers de la plateforme X se sont rendus compte que certains des filtres du moteur semblaient avoir disparu au point de ne plus s’embarrasser du moindre vernis politiquement correct, quitte à carrément verser dans les affirmations antisémites.


Au même moment, pour d’autres utilisateurs, c’est la douche froide : le moteur, loin de leur remonter le moral ou leur indiquer une position aussi neutre que possible, se lâche complètement quitte à les vexer de façon assez… comique :


Cette franchise assez politiquement incorrecte a d’ailleurs été l’occasion pour certains de tester l’intelligence artificielle sur d’autres questions aux ramifications économiques croustillantes, comme par exemple les efforts à réaliser en matière de restrictions budgétaires afin de juguler l’actuelle dette abyssale de l’État français. Les réponses, loin d’être absurdes, méritent qu’on s’y attarde :


Parions cependant que François Bayrou n’accordera aucun crédit aux chafouins algorithmes d’Elon Musk. Pendant ce temps, du côté anglophone, le moteur s’en donnait à cœur-joie et décidait d’explorer avec gourmandise le côté obscur de la force, sans plus prendre de gants :


On comprend qu’avec ce genre de dérives, la fête fut de courte durée et le patron a rapidement fait arrêter le service pour comprendre pourquoi, en si peu de temps, le moteur qui s’était fort bien comporté jusqu’à présent (au moins au plan légal) avait viré de bord à ce point.

La journée du 9 juillet aura permis d’évoquer des pistes dont la plus sérieuse (ici) se résume à un changement intervenu le 7 juillet vers 23:00 (fuseau de la Côte ouest américaine) dans la pré-invite de commande, c’est-à-dire le texte inséré automatiquement en préfixe de toute requête utilisateur et qui va donc imposer certains traitements avant toute réponse du moteur, incluant des filtres et des orientations tant dans le formatage que dans le contenu :


Le 12 juillet, l’explication officielle de xAI, la firme en charge du développement de Grok, viendra du reste confirmer cette piste : ce sont bien des modifications sur le préfixe de requête (détaillé ici) qui ont entraîné le déchaînement du moteur et son exploration d’un politiquement incorrect réellement débridé.

Pour certains, c’est l’introduction de cette erreur dans le préfixe, et le débridage du moteur les heures suivant qui justifieront l’annonce assez inopinée du départ, le 9 juillet, de Linda Yaccarino, la directrice générale de la plateforme X ; d’autres y verront le nécessaire rafraîchissement de la direction de la plateforme alors que celle-ci entame manifestement une nouvelle étape dans son développement dans lequel Grok semble jouer un rôle de plus en plus prépondérant, à tel point que les gaffes comme celle du 7 juillet justifient amplement quelques mesures de rétorsion rapides…

Car le 9 juillet coïncide aussi avec la date de la mise à jour du moteur de Grok 3 vers Grok 4.

Et alors que les utilisateurs, amusés ou courroucés, se remettaient à peine des récents écarts de Grok, la mise à jour proposée par l’équipe de xAI dévoilait de nouvelles capacités du moteur, plaçant ce dernier nettement en tête des actuels moteurs d’intelligence artificielle sur plusieurs critères. En substance, Musk entend mettre à disposition un moteur qu’il explique meilleur que tous les doctorants humains existants, dans tous les domaines… et apparemment avec raison si l’on épluche les tests et les résultats fournis : ainsi, comme le montre le graphique ci-dessous, avec le « Humanity’s Last Exam », un test de référence comprenant 2500 questions de niveau doctoral et plusieurs matières couvertes (la chimie, l’ingénierie, la linguistique, les mathématiques et la physique), Grok 4 devance la concurrence avec un taux de réussite de 38,6 % et plus de 44% pour Grok 4 Heavy (contre moins de 30% pour Gemini 2.5 Pro, la version la plus avancée des moteurs de Google).


Et si la presse, tant américaine qu’européenne, semble essentiellement retenir les frasques de Grok du 7 et 8 juillet, il n’en reste pas moins que cette nouvelle mouture offre un saut qualitatif marqué dans les fonctionnalités disponibles. Comme le dit Musk, s’il est encore clair que Grok 4 manque parfois de sens commun que seule une vie dans le monde réel permet vraiment d’acquérir, les capacités disponibles laissent songeur puisqu’en plus de la version grand public, la version « multi-agents » permet à la fois de créer des études, de faire travailler en tâche de fond différents agents sophistiqués destinés à collecter, analyser et élaborer des réponses à des problèmes complexes et surtout de comparer les réponses reçues pour en tirer des analyses.

À ceci s’ajoute la promesse de Musk de proposer une intelligence artificielle avec moins de biais, ce qui sera probablement mis à rude épreuve alors que, dans le même temps, les autorités françaises viennent de lancer une enquête sur d’éventuelles ingérences du réseau X dans la politique de l’Hexagone : le régime de Macron accuserait ainsi le réseau social d’avoir modifié ses algorithmes d’affichage de contenus pour mettre en avant des thématiques favorables à l’opposition, i.e. l’extrême droite dans le novlangue actuel.

Bref, comme on le voit, la semaine fut décidément bien remplie pour Musk et son moteur, Grok.

Parions cependant qu’avec l’envol manifeste de l’intelligence artificielle dans tous les domaines, ce genre de semaine va très probablement se reproduire très vite, très souvent.


https://h16free.com/2025/07/18/81357-intelligence-artificielle-linstant-grok

22 juin 2025

Marc Amblard
22/6/2025

CHATGPT FINIRA-T-IL PAR NOUS RENDRE IDIOTS ?
L’UTILISATION PROLONGÉE DE L’IA ATROPHIERAIT NOTRE CERVEAU

Une étude récente menée par des chercheurs du MIT a révélé que l'utilisation de ChatGPT peut entraîner un déclin des fonctions cognitives, en particulier des capacités de pensée critique.
L'étude a consisté à diviser les sujets en 3 groupes :
G1 – personnes utilisant ChatGPT
G2 – personnes utilisant Google
G3 – personnes s'appuyant uniquement sur leurs propres connaissances « cerveau seul ».
L'activité cérébrale de chaque participant a été surveillée par électroencéphalographie pendant qu'ils rédigeaient plusieurs dissertations.
Les résultats ont été stupéfiants. Les sujets ayant utilisé ChatGPT pendant plusieurs mois ont systématiquement affiché le plus faible engagement cérébral et des performances inférieures aux niveaux neuronal, linguistique et comportemental.
Au départ, le groupe 1 (ChatGPT) utilisait le dialogue artificiel pour alimenter leurs dissertations, mais à la fin, l'étude a montré que les participants abandonnaient l’usage de leurs fonctions cérébrales et se contentaient de copier-coller le contenu généré.
En revanche, le groupe utilisant le moteur de recherche Google a montré une mobilisation cérébrale modérée, tandis que le groupe « cerveau seul » présentait les réseaux neuronaux les plus puissants et les plus étendus.
Ces résultats suggèrent que le recours à L’IA peut avoir des effets néfastes sur les fonctions cognitives d'un utilisateur à long terme. Les chercheurs se sont dit très préoccupés par ces résultats, notamment pour les jeunes utilisateurs dont le cerveau est en développement.


30 mai 2025

Intelligence artificielle : le rythme s’accélère

H16
30/5/2025

Le 20 et 21 mai dernier, Google présentait – dans son Google I/O – ses dernières avancées en matière d’intelligence artificielle. Très manifestement, ceux qui pensaient que le géant de Californie semblait marquer le pas face à OpenAI (notamment) en furent pour leur frais.

Sur les douzaines de nouveautés, de logiciels, de plateformes et de présentations qui furent présentées, on peut noter la forte intégration de l’IA dans les e-mails et au niveau des recherches, Meet qui permet la traduction vocale en temps réel, une meilleure intégration de la réalité augmentée via des lunettes connectées (Android XR, Beam), et des démonstrations de Veo 3 et Flow véritablement stupéfiantes puisque ces applications permettent, à partir d’une simple requête textuelle, de produire une vidéo de quelques secondes avec effets sonores et dialogues.


Parallèlement à ces développements, Google continue de spécialiser certains de ses moteurs d’intelligence artificielle pour des tâches scientifiques ; on se souvient que c’est la société californienne qui avait, avec AlphaGo (2014) puis AlphaZero (2017), permis à des machines de détrôner durablement les humains dans le jeu de go. D’une façon similaire, elle a développé AlphaFold (2018) pour étudier le repliement des protéines.

À partir de ces différentes applications et des concepts sous-jacents, Google a depuis développé AlphaEvolve (2025) qui se spécialise dans différentes tâches notamment mathématiques et qui vient d’apporter des solutions originales à des problèmes connus (empaquetages optimaux, optimisation de calculs matriciels, …). Dans une branche un peu différente, il a été employé pour améliorer la conception des prochaines générations de puces spécialisées en intelligence artificielle (« tensor processing unit ») et a trouvé un moyen d’exploiter plus efficacement la capacité informatique mondiale de Google, en économisant 0,7 % des ressources totales, comme le relate le papier sorti à ce sujet dans Nature.

L’intelligence artificielle touche un nombre rapidement croissant de domaines : appliquée à l’éducation, elle permet par exemple d’amener les enfants qui l’utilisent dans les meilleurs 2% des élèves à l’échelle d’une nation, et ce en un minimum de temps. Une étude – elle aussi récemment parue dans Nature – montre par exemple que l’effet de ChatGPT utilisé en apprentissage se traduit par une amélioration globale des performances observées.

Bref, si l’accélération des innovations en matière technologique est en général tout juste perceptible, elle ne fait en revanche plus aucun doute et est réellement visible en intelligence artificielle et en robotique notamment.


Il faut se souvenir de la toute première version de ChatGPT ouverte au public, dont les capacités permettait essentiellement d’écrire des cartes de vœux : c’était en novembre 2022, il y a deux ans et demi. 36 mois plus tard, les derniers moteurs disponibles fournissent des aides au développement informatique se classant dans les meilleurs, résolvent des problèmes au niveau de la médaille d’argent dans les Olympiades internationales de mathématiques et commencent à proposer des matériaux et des protéines de plus en plus ciblées et efficaces. Quant à la robotique, la possibilité actuelle de simuler avec une grande précision l’environnement physique permet d’entraîner des machines et des robots dans un environnement virtuel, des centaines ou des milliers de fois plus vite qu’en réalité ; ainsi, au lieu de mois d’entraînements pour qu’un robot soit capable de réaliser des tâches complexes (déplacer des pièces, ranger des éléments, marcher, etc.), quelques heures en simulation numérique suffisent.

Comme le mentionnent les chercheurs d’Anthropic – la firme productrice de Claude, l’un des meilleurs moteurs d’IA actuellement – la situation dans ce domaine est telle qu’à présent, même un arrêt de tout progrès supplémentaire (qui rendrait impossible d’atteindre le niveau d’intelligence d’un humain moyen par exemple) n’empêchera pas l’automatisation rapide de tous les emplois de bureau dans les cinq à dix prochaines années, et justifie en tant que tel tous les investissements massifs qui sont actuellement réalisés.


En pratique et sans gros effort d’imagination, tout indique que les 10 prochaines années verront de profonds bouleversements s’installer très rapidement dans toutes les sociétés humaines.

Ainsi, dans 10 ans, il est très probable que la conduite individuelle de véhicules aura largement reculé, laissant place à des voitures autopilotées, non seulement parce que c’est plus pratique, mais aussi parce que c’est beaucoup moins dangereux – d’autant plus que les statistiques actuelles montrent déjà un net avantage aux pilotes automatiques.

Ainsi, dans 10 ans, il est assez probable que beaucoup d’entreprises et certains particuliers disposeront de leurs robots (humanoïdes ou non) pour les assister et réaliser certaines tâches répétitives.


Ainsi, l’utilisation des écrans va progressivement diminuer à la faveur d’interfaces homme-machine beaucoup plus intuitives : il est beaucoup plus intéressant d’expliquer ce qu’on veut de vive voix que d’entrer une invite textuelle, ou de péniblement programmer un automate en appuyant sur des boutons.

Ainsi, dans 10 ans, il est assez peu probable que les chaînes de diffusion de contenus (information notamment) existent encore dans le format qu’on connaît actuellement : divertissement, actualité, débats seront à la fois produit pour des marchés de plus en plus spécialisés et étroits, et en grande partie rassemblés, filtrées et sélectionnées par des agents « intelligents » qui connaîtront assez précisément nos goûts et nos besoins.

Il semble dès lors assez évident que la structure même des sociétés va changer et les individus vont devoir s’adapter à de profonds changements de paradigmes.

Devant ce tsunami de changements qui grossit devant nous et les opportunités que l’intelligence artificielle représente, certains pays se préparent. Avec évidemment la Chine, c’est le cas des États-Unis dont l’administration a même lancé les démarches nécessaires pour faciliter le développement des sources d’énergie dont les grandes firmes d’intelligence artificielle auront besoin : un récent ordre exécutif de Trump vise ainsi à déployer rapidement des technologies nucléaires pour permettre l’alimentation des centres de calcul.

De façon tragicomique, au même moment en France, des experts autoproclamés gesticulent pour que l’opération inverse soit menée sans tarder : Jancovici, pourtant parfaitement incompétent sur la question de l’intelligence artificielle, écume les plateaux radio pour expliquer à quel point cette technologie est un gadget, en montrant au passage qu’il a parfaitement raison lorsqu’il répète que les radios persistent à inviter des incompétents.

Manifestement, Donald Trump, multimilliardaire élu deux fois président des États-Unis contre une adversité assez exceptionnelle, n’est décidément pas du même avis que notre Jancovici national qui tente de vendre ses idées (et formations) par le truchement des médias de masse. L’un parie sur une importance croissante, cruciale, de l’intelligence artificielle. L’autre explique que c’est un gadget.

Lequel des deux se trompe ? À l’aune de tout ce qui a été présenté dans ce billet, on peut dire que la question est assez vite répondue…


https://h16free.com/2025/05/30/80971-intelligence-artificielle-le-rythme-saccelere

27 mai 2025

Vincent Verschoore

-24/5/2025- Le film Ex Machina, sorti voici dix ans, illustrait la capacité d'une IA à manipuler ses interlocuteurs humains grâce à une compréhension de leur psychologie.
Cette capacité s'illustre désormais "pour de vrai", selon ce test où une IA, ici GPT-4, débat avec des humains afin d'essayer d'orienter leurs opinions. Et cela semble fonctionner, que l'IA ait connaissance des caractéristiques psychologiques et sociales de son interlocuteur, ou pas.
L'IA utilise une rigueur algorithmique évitant les erreurs (jugements de valeur, contre-sens etc.) pour aboutir à un succès qui semble remarquable :
"Dans ses échanges, GPT-4 semble surtout briller par la cohérence de ses propos et sa capacité à éviter les raccourcis idéologiques. Le Washington Post souligne ainsi que l’IA parvient à convaincre, même sans profil précis à cibler, sur des sujets aussi sensibles que la peine de mort ou le revenu universel. L’influence politique des IA résiderait donc davantage dans la qualité intrinsèque de leurs messages que dans leur finesse de ciblage."
N'importe quel régime peut désormais mettre en ligne des faux comptes visant à convaincre le public de l'évidente nécessité de sa politique, quelle qu'elle soit :
"Ces nouveaux outils reprennent les codes du microciblage politique révélés dans l’affaire Cambridge Analytica, mais les rendent accessibles à une échelle inédite."

3 mars 2025

Macron se mêle d’IA, le désarroi s’installe

H16

- 3/3/2025 - Comme l’annonce Emmanuel Macron en fanfaronnant depuis son compte X, la formidable dynamique du Sommet de l’IA à Paris se poursuit, alors bon, c’est décidé, fini de rire, et en avant ! La France, fermement cornaquée par son extraordinaire président, se lance à l’assaut de l’Intelligence Artificielle et entraînera avec elle toute l’Europe dans une conquête triomphale de l’avenir de l’Humanité. Envoyez la musique !


Cependant, avant cette consécration, il faudra probablement régler quelques petits soucis, car pendant que ça cabotine joyeusement du côté de l’Élysée, les services administratifs de l’État continuent d’empiler les échecs informatiques avec une constance troublante : dans une presse particulièrement discrète, on apprend ainsi que le projet informatique Scribe, ce logiciel de rédaction de procédures pénales destinés à la police et la magistrature françaises, vient d’être abandonné après neuf longues années de merdoiements intenses.

Son histoire mérite d’être contée, tant elle se rapproche des précédentes foirades mémorables de l’État en matière d’informatique et dont ces colonnes font la recension régulière, et peut remonter au remplacement, déjà chaotique, d’un outil logiciel des années 90, le LRP, qui fonctionnait avec une relative satisfaction de ses utilisateurs mais, malheureusement sur un système d’exploitation plus que vieillissant (MS-DOS).

En 2010, LRPPN est donc déployé dans le but de le remplacer. Sans même évoquer les ratages que furent, en parallèle et dans les mêmes domaines, les logiciels ARDOISE et CASSIOPEE, force est de constater que c’est un douloureux échec : plantages, lenteurs, difficile adaptation par rustines multiples aux changements constants de procédure pénale, l’informatique pénale tourne au cauchemar pour la police.

En 2016, il est donc décidé de lancer un nouveau projet, Scribe, dont CapGemini remportera l’appel d’offre. Cependant, après 13 millions d’euros (sur les 8 prévus au départ) et neuf années de bricolages frénétiques, le constat est sans appel : c’est un fiasco. Le souci étant que le logiciel LRPPN, toujours en usage, n’est plus apte à faire son travail et entraîne une multiplication des vices de procédures dont profitent directement les prévenus…

En somme, le président d’un pays incapable de doter ses administrations des outils informatiques essentiels se croit capable de lancer sa bureaucratie sur l’intelligence artificielle avec cet aplomb que seuls les cuistres peuvent déployer en braillant, l’air bravache, « l’intendance suivra ! » avant de trotter, sabre au clair, au milieu d’un champ de betteraves.


Heureusement et pendant ce temps, les entreprises privées du reste du monde n’attendent pas les gesticulations du président français, virilement parti de son côté pour faire avancer les IA « frugales et respectueuses de l’environnement dans une gouvernance mondiale inclusive » et patin-couffin.

Ainsi, outre les modèles de moteur d’IA les plus avancés (Grok 3, GPT 4.5, Gemini 2.0, …) dont les dernières versions sont maintenant disponibles et qui dépassent chaque mois les capacités et performances des précédentes versions, l’intelligence artificielle commence à voir ses domaines d’application s’étendre de plus en plus vite.

C’est par exemple le cas dans celui de la modélisation des génomes avec le modèle d’IA Evo-2 : avec ce moteur totalement open-source, l’IA ne se contente plus de décrire la biologie, elle peut la concevoir et créer une vie synthétique à partir de zéro, des génomes complets ou simuler des cellules entières. Evo-2 prédit les effets des mutations sur les protéines et l’ARN, et les aptitudes des organismes à partir de leur génome.

Les potentialités sont stupéfiantes et les dérives possibles évidemment énormes.


Dans le domaine de la santé, l’IA assiste de plus en plus le personnel médical et si on l’utilise déjà pour l’analyse de l’imagerie médicale, son taux de succès étant maintenant meilleur que celui des radiologues, d’autres usages se font jour chaque mois qui passe. Dernièrement, il apparaît que l’analyse des signaux d’électrocardiogramme par l’IA permet d’obtenir une aussi bonne mesure de l’état du myocarde que des procédures jusqu’alors invasives (ici, la pose d’un cathéter sur le muscle cardiaque droit, ou CCD).

On peut aussi citer les avancées de l’IA en cybersécurité, soit du côté offensif (l’IA est utilisée pour attaquer une cible et produire ensuite un rapport circonstancié des points faibles repérés pour que le client puisse mieux se protéger, comme le propose Dreadnode), soit du côté défensif (l’IA est utilisée pour construire, dans le contexte d’une entreprise, l’ensemble des stratégies de protection et les règles à appliquer pour obtenir le niveau de protection désirée), les deux approches pouvant se complémenter.

Bien sûr, il ne s’agit ici que de quelques exemples saillants d’un mouvement d’ensemble plus profond : tous les domaines d’activités sont (ou seront très bientôt) touchés par l’intelligence artificielle et on comprend, dans ce cadre, les frétillements de la classe politique pour feindre d’organiser ce qui leur échappe complètement.

En outre et pour ceux qui en doutaient encore, ces évolutions en matière d’intelligence artificielle marquent le fossé – voire le véritable canyon – qui se creuse entre l’Europe d’un côté, et la Chine et les États-Unis de l’autre. La première a vigoureusement choisi de réglementer et de lancer sa bureaucratie à l’assaut des entreprise qui investissent le domaine, pendant que les seconds déblaient autant de terrain que possible pour qu’elles se développent.

Cependant, à l’instar de l’informatisation de la société qui a permis dans tout l’Occident d’engloutir les gains de productivité ainsi obtenus dans des États providence obèses, on peut à présent redouter que l’Europe et la France choisissent résolument d’utiliser l’intelligence artificielle pour aider le continent à s’accommoder de sa bureaucratie paralysante.

Malgré tout et comme le prouve le projet Scribe, le calibre phénoménal des incapables de compétition qui nous gouvernent actuellement permet de rester optimiste : l’Europe et la France s’effondreront heureusement sous le poids de leur bureaucratie, l’IA n’y pourra rien et c’est tant mieux.


https://h16free.com/2025/03/03/80330-macron-se-mele-dia-le-desarroi-sinstalle

29 janvier 2025

Intelligence artificielle : le coup de tonnerre DeepSeek

H16

- 29/1/2025 - Ces derniers jours, le monde de l’intelligence artificielle est entré en ébullition : en plus des progrès stupéfiants déjà enregistrés ces quelques années, ce qui s’est passé rebat fondamentalement les cartes tant dans le domaine de l’IA qu’au niveau de la géopolitique internationale…


Ici, on pourrait par exemple évoquer les dernières avancées qui ne cessent de surprendre comme, par exemple, un papier de Meta (la firme de Zuckerberg, très investie dans le domaine) qui relate les performances du projet SEAMLESSM4T dont les prémices remontent à 2022 et qui vise à permettre la traduction linguistique à la volée, sans passer par l’écrit.

Traditionnellement, les outils de traductions vocale enregistrent le locuteur dans une langue, produisent un texte à partir de ce qui est compris, traduisent le texte dans la langue cible et utilisent un outil de vocalisation pour le résultat final. Les progrès de Meta proposent de se passer des étapes intermédiaires et offrent à présent un « speech-to-speech translation » de 101 vers 36 langues, le tout en une paire de secondes de retard au plus, et en conservant l’intonation de la voix du locuteur. Il s’agit maintenant d’une solution robuste pour la traduction à la volée de niveau quasiment professionnelle, les métaphores et certaines subtilités culturelles ou linguistiques n’étant pas encore bien gérées.

Beaucoup d’argent… pour pas grand-chose ?

On pourrait aussi évoquer les 500 milliards de dollars d’appels de fonds largement médiatisés par Trump la semaine passée, et mis en place par les principales sociétés technologiques impliquées dans la course à l’intelligence artificielle : manifestement, les Américains n’hésitent pas à mobiliser de très larges sommes pour parvenir à développer des moteurs d’intelligence artificielle toujours plus pointus et performants. Cela explique au passage la transformation d’OpenAI, auparavant une fondation sans but lucratif, en une société capitaliste en bonne et due forme : beaucoup, outre-Atlantique, ont compris qu’il n’y avait pas une minute à perdre pour garantir que les prochaines avancées majeures dans le domaine seront de leur côté et non ailleurs.

Cependant, ces sommes et ces exemples, aussi importants soient-ils, viennent d’être complètement remis en cause par les derniers résultats de DeepSeek, une start-up chinoise qui avait jusqu’à présent déjà produit d’intéressants moteurs aux performances comparables aux acteurs les plus connus du marché (OpenAI, Meta, Anthropic, etc.).


Dans un ensemble de papiers et de sources logicielles publiés la semaine dernière, DeepSeek annonce son moteur R1 qui permet d’atteindre (au moins) les performances de o1 de chatGPT, l’un des modèles les plus performants actuellement disponibles. Et après analyse, les évaluations confirment en effet ces affirmations avec un point fondamental : R1 est disponible pour 3% du prix proposé par OpenAI. Mieux encore, étant « open source », chacun peut analyser, évaluer et mieux encore, reproduire le moteur chez soi en version raffinée, plus petite mais adaptée aux machines de bureau, ou en version complète lorsqu’on dispose d’une grosse machine ou d’une infrastructure informatique idoine.

Le point fondamental est que DeepSeek est une structure chinoise qui subit l’embargo plus ou moins ferme des États-Unis sur les puces les plus avancées qui comptent parmi elles celles consacrées à l’intelligence artificielle. Elle a donc développé ce moteur aux performances redoutables pour une petite fraction – les responsables de DeepSeek évoquent ainsi 6 millions de dollars – du coût de ChatGPT d’OpenAi qui ont, eux, investi des centaines de millions de dollars dans leur moteur actuel.

Et même si on se doute que l’embargo aura été contourné (et donc que l’investissement matériel serait très conséquent), même si certains se consolent en espérant que les Chinois n’auraient que « recopié » les principes développés par OpenAi, pour ceux qui ont déjà passé un peu de temps sur les sources publiées et les explications détaillées par DeepSeek dans ses papiers, il ne fait aucun doute que ses développeurs ont réalisé de vraies prouesses d’optimisation et de raffinement pour obtenir leurs résultats. Autrement dit, le matériel peut bien avoir été coûteux, l’entraînement du moteur, auparavant hors de prix, devient soudainement très abordable.

Au passage, ceci illustre une nouvelle fois que des contraintes fortes (ici, en terme de technologies et de fonds) génèrent des améliorations et des optimisations essentielles par nécessité, et démontre que les modèles produits jusqu’à présent sont largement optimisables et n’ont probablement pas les besoins énergétiques et financiers aussi énormes qu’on envisageait jusqu’alors.

Un impact géopolitique certain

Avec un tel moteur, DeepSeek bouleverse complètement l’écosystème de l’intelligence artificielle tel qu’il existait jusqu’à présent.


D’une part, en entraînant un modèle à 670 milliards de paramètres pour 6 millions de dollars, DeepSeek démontre une performance opérationnelle des dizaines de fois meilleure que celles des autres grands acteurs du marchés. Le saut qualitatif est si impressionnant qu’il signifie par exemple que des douzaines de laboratoires de développement d’intelligence artificielle peuvent potentiellement obtenir des résultats égaux ou supérieurs avec des financements bien plus faibles que prévus.

En outre, cela veut dire que la stratégie américaine d’embargo et de sécurisation des technologies correspondantes ne marche absolument pas et, même, se retourne contre eux : la relative aisance technologique et financière dans laquelle ont baigné les entreprises de la Silicon Valley ont certes permis leur émergence et leur ont donné une certaine avance, mais cette dernière est à présent presque évaporée. Les processeurs les plus avancés dont disposent les Américains (au contraire des Chinois) ne leur offrent finalement qu’une avance modeste. On peut même parier que seront possibles de nombreux autres gains par optimisation, rendant l’écart encore plus criant.

Mais surtout, en rendant leur modèle complètement libre d’accès (il est sous licence MIT, ce qui veut dire que n’importe qui peut récupérer le code et le modifier à sa guise pour ses propres besoins) et en fournissant l’ensemble des résultats de leurs recherches, les équipes de DeepSeek ont largement réduit la barrière à l’entrée de production des larges modèles de langage, offrant la possibilité à des petits acteurs de rejoindre la course.

Mieux encore : sur le plan géopolitique, cela veut dire qu’on peut abandonner l’idée jusqu’à présent en vogue (et notamment décrite dans un récent et touffu papier sur Situational Awareness) selon laquelle on allait s’acheminer vers un monopole en matière d’IA. Pour beaucoup d’observateurs et d’acteurs du milieu, tout indiquait que les Américains cherchaient à obtenir la suprématie dans le domaine et qu’une fois obtenue, il serait à peu près impossible de les en déloger. DeepSeek, en publiant l’intégralité de son moteur, égalise le terrain de la façon la plus radicale.

Enfin, avec DeepSeek comme point de repère, Grok, OpenAi ou Meta vont devoir faire beaucoup, beaucoup mieux pour justifier l’écart de prix facturé à leurs clients… Ceci explique assez probablement pourquoi Grok est à présent disponible gratuitement sur X, la plateforme de Musk, et pourquoi OpenAi a rendu son moteur o3-mini gratuit ou précipité la disponibilité de ses agents…

Pendant ce temps, en Europe…

Les prochains mois promettent encore de nombreux rebondissements. Cependant, une grande absente de ce qui se passe dans le domaine de l’intelligence artificielle reste l’Europe. Les gesticulations de Breton, qui se sont soldées par une régulation étouffante du domaine, se traduisent essentiellement par une disparition des Européens, et ce alors que beaucoup d’entre eux se sont (habilement) exfiltrés outre-Atlantique pour rejoindre les Américains.

Peut-être l’arrivée de DeepSeek mettra enfin l’intelligence artificielle à portée des administrations françaises, ce qui nous évitera les regrettables productions d’entreprises financées par l’État français, comme celle d’un copain de Macron qui a pondu Lucie, ce moteur plus proche des meilleures saillies de Lucie Castets que des performances de Lucy dans le film éponyme de Luc Besson.

Peut-être. Mais vu les directions prises, ne pariez pas trop dessus.


https://h16free.com/2025/01/29/79943-intelligence-artificielle-le-coup-de-tonnerre-deepseek

13 décembre 2024

Adriana Kezaco

J'ai testé Grok, ben c'est pas mal

- 12/12/2024 - Grock est une IA accessible gratuitement sur X.
Elle peut répondre à des questions comme toute IA classique mais surtout elle peut générer des images gratuitement.
Le Prompt (le texte décrivant ce que Grok doit générer) peut être écrit en français. Plus on donne de détails dans le prompt et mieux sera produite l'image.
Pour que Grok comprenne qu'on ne pose pas une question mais que l'on veut générer une image, il suffit de débuter le prompt par "crée une image", suivi des détails lui permettant de savoir ce que l'on veut générer.







22 mai 2024

Alain Hanel

JUSTE POUR DIRE...


Les images en intelligence artificielle envahissent les réseaux sociaux, les agences de publicité commencent elles aussi à les utiliser pour plusieurs raisons :
- plus besoin de modèles ou  mannequins à rémunérer, ils sont créés à la chaîne avec un simple logiciel ;
- plus besoin de payer à ceux-ci un droit à l’image puisqu’ils sont virtuels ;
- plus besoin de photographe, l’informaticien suffit et il est désormais intégré dans l’agence de publicité et peut illustrer une multitude de secteurs ;
- plus besoin non plus, de payer des droits de reproduction pour les « faussestographies » créées ;
- plus besoin de payer de frais de studio, la conception se fait avec un ordinateur dans l'agence ;
- d’autres professions comme, les assistants des photographes, les loueurs de matériel de studio, la coiffure des mannequins et le maquillage sont effacées ;
Les dommages collatéraux sont énormes pour des professions déjà en difficulté qui finiront à la rue, alors que les agences feront exploser leurs profits…
Quand vous « likez » ce genre d’images avec beaucoup d'enthousiasme pour certains, pensez à ceux qui en créant de vraies photographies ne travailleront bientôt plus...

3 mai 2024

La réelle faisant défaut, l’administration française va tenter l’intelligence artificielle

H16

2/5/2024 - Avec les développements récents de l’intelligence artificielle, il apparaît clair que cette technologie va, progressivement, tous nous toucher d’une façon ou d’une autre : comme le mentionnaient ces colonnes il y a quelques jours, l’intelligence artificielle s’adresse à tous, et c’est tellement vrai que, comprenant la tendance et l’importance de s’inscrire avec elle, l’administration française s’y met à son tour !


Oui, vous avez bien lu : mue par l’une de ces pulsions que seule notre Belle & Grande République du Bisounoursland est capable de produire, la jeunesse pensante de notre gouvernement a décidé de pousser l’intelligence artificielle sur l’ensemble de notre administration qui, à l’évidence n’attendait que ça. Ainsi, lors d’un déplacement à Sceaux dans une maison “France services” – ce guichet unique regroupant fisc, poste, Pôle emploi et CPAM autre débit d’argent des autres – le premier ministre Attal s’est fendu d’une déclaration pour annoncer la création d’une intelligence artificielle “à la française”.

Selon le premier ministre, cette nouveauté technologique sobrement baptisée Albert sera déployée dans la plupart de nos services publics, propulsant la France dans un chapitre neuf de ce XXIème siècle pourtant encore jeune, celui où le pays sera le premier à disposer d’une telle technologie “100% souveraine”. Le fait qu’aucun autre pays, y compris même les plus puissants, ne se soit pas déjà lancés dans cette aventure ne semble pas refroidir l’actuel locataire de Matignon : la France sera la première à mettre vigoureusement et courageusement le doigt dans l’engrenage de la technologie souveraine d’intelligence bureaucratique artificielle, dont l’évocation seule déclenche des frissons de plaisir chez tous nos ministres.

On notera l’utilisation du prénom “Albert” pour l’IA, à la fois bien français et peut-être choisi pour rappeler une sorte de majordome qu’on pourrait ainsi convoquer pour régler ses petits soucis avec l’administration et sa bureaucratie aussi compréhensive que ses procédures sont simples et souples pour s’adapter aux exigences du terrain.

D’ailleurs, le frétillant Attal a précisé en quoi cette nouveauté allait changer le quotidien des cobayes administrés français : il s’agit essentiellement d’obtenir des procédures plus simples et plus rapides, tant pour les gens devant les guichets que pour ceux derrière, qui pourront, l’assure le Premier Ministre, se recentrer sur le contact relationnel, dont on sait qu’ils sont tous absolument friands.


À titre d’exemple, Attal explique qu’Albert permettra à l’administration fiscale de rédiger des “pré-réponses” aux usagers lorsqu’ils viendront tenter de comprendre pourquoi, subitement, ils ont été ponctionnés trois fois ou qu’on leur a taxé à nouveau un héritage qu’ils ont pourtant déjà déclaré il y a trois ans, ou pourquoi on leur réclame une taxe foncière sur un bien qu’ils ont vendu cinq ans plus tôt, etc. On attend avec gourmandises les pré-réponses à des questions sur des contrôles fiscaux farfelus : Albert promet déjà des prouesses.

De la même façon, on imagine déjà l’aide qu’une telle IA pourra fournir, depuis la liste des démarches détaillées pour obtenir toutes les subventions même les plus cachées, jusqu’aux moyens légaux et argumentés pour réduire ses cotisations ou ses taxes dans différents domaines. Nul doute que les administrations seront au taquet pour garantir de telles performances, hein.

De façon générale, ce nouveau gadget bond technologique dans les administrations ressemble à s’y méprendre aux propositions déjà formulées par nul autre que notre Bruneau de Bercy concernant moult simplifications qu’il entend mener pour aider tout le monde et son chat.


Du reste, on a une idée assez précise de ce que va donner cette initiative.

D’une part, le passé de l’État français en matière d’informatique à la sauce publique suffit à se rassurer : Louvois (la paie des militaires), Numergy ou Cloudwatt (le “cloud souverain”), l’ONP (paie du personnel public), Genesis (Justice), Faeton et la numérisation des cartes grises ou des permis de conduire, Salto, j’en passe et des pires, tout l’historique de l’informatisation des administrations est maintenant truffé de ces pépites majeures que les Français regardent à présent, les yeux humides d’émotion et de gratitude, et que le monde entier nous envie évidemment. Dans ce contexte, l’avenir d’Albert est déjà assuré.

D’autre part, on a la preuve que l’intelligence artificielle fait des miracles puisqu’elle est déjà employée dans l’administration fiscale. Eh oui, l’institution pionnière qui a lancé l’usage de cette technologie dans l’administration française, rappelez-vous, ce fut le fisc avec son utilisation pour repérer les piscines non déclarées.

Une fois mis en place, l’administration n’avait pas hésité à fanfaronner de façon peu prudente : 140.000 piscines avaient ainsi été débusquées par la puissance de calcul des ordinateurs de Bercy et la finesse de l’intelligence artificielle mise en place. Les Français n’avaient plus qu’à bien se tenir, les photos satellites et l’IA les ont à l’œil.

Cela a d’ailleurs tellement bien marché qu’on a rapidement envisagé d’étendre cette pratique à d’autres domaines comme les cabanes de jardin (combien de fortunes ont ainsi été cachées aux services de Bercy derrière ces anodines constructions, combien de nababs des potagers se dissimulent derrière ces cahutes faussement modestes ?)…

Malheureusement, quelques mois sont passés et l’analyse a posteriori et loin des caméras et des micros appelle à plus de sobriété. En substance, les piscines n’en sont pas toutes et l’IA de Bercy fait un peu trop de zèle : une fois sur trois, elle trouve une piscine là où il n’y en a pas.


Enfin, dans un pays où les Français se plaignent chaque jour plus que leur administration est déshumanisée et hors sol, que ses procédures de moins en moins empreintes de bon sens écrabouillent toujours plus les individus dans la machine bureaucratique, dans un pays où l’administration semble chaque jour s’éloigner un peu plus des citoyens, des contribuables et des individus qu’elle est censée servir, Attal – qui a décidément tout compris – propose donc d’ajouter à cette relation déjà distendue un nouvel intermédiaire… Sous la forme d’un outil informatique qui plus est, avec le passif de l’État en la matière.

Forcément, cela va très bien se passer.


26 avril 2024

L’intelligence artificielle pour tous ?

H16

26/4/2024 - Malgré une géopolitique internationale toujours plus tendue, malgré les odeurs de crise économique et financière toujours plus fortes, le monde de l’intelligence artificielle continue d’avancer et le précédent billet relatif à ce domaine, pourtant vieux de quelques semaines seulement, semble déjà fort lointain tant les nouveautés se sont accumulées depuis.

Ainsi, les questions posées sur le droit d’auteur pour les IA génératrices d’images (comme MidJourney ou Dall-E par exemple) que ces colonnes évoquaient à la fin de l’année 2022 – et qui n’avaient que très partiellement trouvé de réponses – risquent de se poser à nouveau avec encore plus d’insistance alors que viennent de sortir de grosses nouveautés en matière de musique cette fois-ci.

En effet, en l’espace de quelques semaines sont apparus deux nouveaux moteurs de générations de musique qui permettent de créer différents types de productions musicales, avec ou sans paroles, sur différents styles extrêmement variés depuis la musique “classique” jusqu’au rap en passant par le rock, le blues, la pop ou les musiques électroniques. Ainsi, à partir d’une simple invite de l’utilisateur, l’un et l’autre de moteurs permettent de créer une musique ou une chanson dans le style de son choix ou au hasard de la machine.


Le premier à se faire connaître est Suno dont la production est maintenant assez copieuse. Le moteur d’IA permet des mélanges de genre assez hétéroclites, depuis “l’acoustic acid rock” jusqu’au “swing samba” en passant par le “celtic boogie”. Sans mal, les résultats sont surprenants : la qualité n’est pas différente de ce qu’on entend tous les jours à la radio et les textes ne sont pas tous mauvais, loin s’en faut (et certaines “références” françaises souffrent mal la comparaison avec ces productions mécaniques)… Bref : si on ne tient pas encore le prochain Mozart dans ce moteur d’intelligence artificielle, on se place, en terme de production musicale, dans la moyenne de ce qu’on trouve déjà un peu partout.

Le second, apparu quelques semaines seulement après, offre une qualité de création encore supérieure : Udio répond globalement aux mêmes principes et permet, avec quelques instructions simples concernant le style et l’organisation du morceau que l’on souhaite créer d’obtenir en quelques minutes un résultat tout à fait comparable avec la production musicale courante.

Dans ce contexte, on se demande exactement ce qui va empêcher certaines radios de diffuser en continu les productions choisies de ces moteurs, et on commence à entrevoir un monde où la musique d’ambiance (dans les magasins par exemple) ne sera plus produite par des artistes, enregistrée puis distribuée, mais produite à la volée en fonction du lieu, de l’ambiance choisie par le propriétaire ou de critères du moment. Dans ce cadre, on s’amuse déjà des excitations qui s’empareront (en vain) des personnels chargés des inspections de la SACEM… La collecte des droits d’auteur promet d’être un tantinet plus complexe.

Le marché de la musique commerciale et d’ambiance promet donc d’être abondamment bouleversé par l’arrivée de ces nouveaux moteurs, au même titre que celui des applications de rencontres sur internet : la possibilité, bien réelle, de créer des “copines virtuelles” crédibles – aussi bien du côté visuel que du côté des éventuelles conversations – ouvre depuis peu un marché que certains évaluent à plus d’un milliard de dollars.


Pendant ce temps, les moteurs larges de langage (“LLM”) continuent leur course à la performance, en tentant chaque jour de résoudre des problèmes de plus en plus complexes et abstraits que leur soumettent leurs utilisateurs. Il est fini le temps où les moteurs proposaient très sérieusement des recettes pour cuire les œufs de vache et si les règles communes et les lois les plus basiques de la physique qui nous entoure échappent encore parfois à ces intelligences artificielles, c’est de moins en moins fréquent.

La version 5 de ChatGPT d’OpenAI n’est toujours pas sortie, mais depuis ChatGPT 4, des moteurs concurrents ont affiché des résultats et des métriques particulièrement enthousiasmants. Ainsi, Claude (de la société Anthropic) montre des capacités proches ou supérieures à celle du dernier moteur d’OpenAI.

Mais récemment, c’est Meta, la firme de Mark Zuckerberg, qui a surpris le milieu en publiant Llama3, leur dernier moteur dont il existe à présent deux versions, l’une à 8 milliards de paramètres et l’autre à 70 milliards. Cette dernière affiche des performances comparables ou meilleures que Claude et ChatGPT4… tout en étant intégralement “open source”, c’est-à-dire que l’intégralité du code est disponible pour tous, ce qui permet à des millions de développeurs et de curieux de tester le moteur, de le modifier ou de participer à son évolution.

Ce dernier rebondissement montre plusieurs choses intéressantes.

D’une part, cette course qui s’est établie entre les différentes entreprises pour produire le modèle le plus affûté confirme à quel point le “phénomène” ChatGPT, survenu en novembre 2022, n’était pas qu’une intéressante curiosité.

D’autre part, la présence extrêmement modeste de l’Europe dans les sociétés qui se sont lancées dans cette course – seule Mistral, française, semble pouvoir participer – montre une fois encore que les gesticulations européennes, essentiellement à base de régulation, n’ont absolument pas permis l’émergence d’un véritable terreau fertile aux développements de nombreuses entreprises dans le domaine.


Mais surtout, cette compétition montre une fois encore les bienfaits d’une concurrence qui impose une amélioration constante des moteurs et des performances, et l’accélération de la tendance générale à la puissance des modèles proposés. Si, fin 2022, OpenAi semblait disposer d’une véritable suprématie dans le domaine, ce n’est plus le cas à présent.

En somme, les moteurs d’intelligence artificielle sont en train de grignoter le fondement même de certaines professions, depuis les artistes (dans le graphisme et maintenant la musique) jusqu’aux professions littéraires (journalistes ou traducteurs pour ne citer que celles-là), et de plus en plus rapidement, avec une qualité de production, de raisonnement ou de déduction toujours meilleure.

Ce constat peut légitimement inquiéter à peu près tout le monde, d’autant plus que ces moteurs alimenteront les “cerveaux” électroniques de robots humanoïdes dont le développement connaît, lui aussi, de belles avancées.

Cependant, l’arrivée de Llama3 marque deux points très importants dans ces développements.

Le premier est que ce modèle “open source” marche très bien, mieux que prévu même : avec un modèle sensiblement plus petit que la concurrence, on obtient des résultats égaux ou supérieurs à ceux de Chatgpt qui, pour rappel, comporte 1500 milliards de paramètres contre 70 pour le plus gros des Llama3. En fait, ce dernier a beaucoup bénéficié de temps d’entraînement supérieurs et d’une grande qualité des données sources ainsi qu’un meilleur raffinement de l’apprentissage. Au passage, cela peut signifier que les modèles actuels seraient plutôt sous-entraînés et qu’à nombre égal de paramètres, on pourrait espérer avoir des résultats encore bien meilleurs moyennant un entraînement plus long et plus fin.

Du reste, Meta travaille sur le prochain modèle (à 405 milliards de paramètres !) qui pourrait dépasser les modèles actuels, et qui sera lui aussi open source.

Le fait d’être en modèle ouvert évite les dérives de certains moteurs : si Google pouvait tenter de proposer une IA complètement woke, ou si ChatGPT se retrouve châtré avec l’impossibilité de remettre en question certains dogmes du moment (changement climatique anthropique, théorie du genre et autres folies progressistes du même acabit, etc.), le moteur open source peut, lui, tourner sur un environnement complètement indépendant et donc hors des limitations imposées aux précédents.

Oui, nous nous acheminons vraisemblablement vers un monde où chacun pourra disposer de son propre modèle d’IA, entraîné de façon généraliste et spécialisé pour son propre usage, et dont le fonctionnement ne sera limité ni par le fabricant, ni par le politiquement correct. Il est sans doute assez proche le moment où vous pourrez faire fonctionner un agent “open source” sur votre téléphone, sans que cet agent fuite vos données vers des services commerciaux ou gouvernementaux, sans qu’il ait été contraint par l’une ou l’autre agence, l’une ou l’autre société.

Et ceci est une excellente nouvelle.


https://h16free.com/2024/04/26/77430-lintelligence-artificielle-pour-tous