J’hallucine ! L’IA se trompe et c’est volontaire ! (Partie 2)

Je viens de publier récemment l’article « J’hallucine ! L’IA se trompe et c’est volontaire !« .

Dans cette partie 2, je vous partage un nouvel article publié par The Conversation : « ChatGPT : la proposition d’OpenAI pour éviter les hallucinations pourrait tuer son propre chatbot« .

Il va dans la même direction que ce que j’ai partagé auparavant mais va plus loin dans l’explication mathématique et scientifique ce qui fait de lui un article intéressant à lire pour ceux qui veulent creuser leur compréhension de ce qui se cache derrière la mise en œuvre d’un LLM (Large Language Model).

Ce que j’ai retenu :

  • Le fait de produire une phrase par prédiction mot à mot crée un biais favorisant l’hallucination
  • Mettre en avant la probabilité que la réponse apportée soit vraie est facilement implémentable mais coûterait plus cher en calculs
  • Si les humains sont informés de cette incertitude, cela va générer un sentiment de doute contre productif contre l’outil
  • Les sites de comparaison des IA ne font pas la différence entre un moteur qui ne sait pas et un moteur qui se trompe ce qui fait qu’il est plus rémunérateur de deviner la réponse, même fausse, que de clamer son doute. Il faudrait donc revoir les modalités de calcul.
  • Même en faisant tous les efforts possibles, on n’évitera pas les hallucinations. On va juste décaler le problème vers un meilleur compromis.

N’hésitez pas à lire l’article en détails. Cela vaut le coup.

Maintenant que j’ai écrit cet article sans aide en utilisant uniquement mon cerveau, voici l’analyse de Copilot de cet article. Il est toujours très intéressant de voir à quel point cette technologie se débrouille bien dans cet exercice. Pour autant, je ne vais pas artificiellement créer dans ce blog des articles générés par l’IA. L’humain, ma personne, prévaudra.

Lire la suite

  Mots clés : , ,

GPT-5, vous n’êtes pas prêts, son PDG aussi : qu’avons-nous fait?

À la veille de l’arrivée de GPT‑5, Sam Altman, patron d’OpenAI, est très inquiet : « Qu’avons-nous fait ? » s’interroge t’il. La nouvelle IA échappe au contrôle de ses propres créateurs. Il compare les tests internes à l’ambiance du projet Manhattan, le projet qui a abouti à la bombe nucléaire. Il évoque un malaise profond, une peur presque existentielle face à une technologie dont la puissance menace de dépasser les limites morales et politiques établies.

GPT‑5 ne serait plus une simple évolution, mais une bascule vers un monde où l’intuition humaine ne suffit plus. Dans ce climat de tension extrême, Sam Altman incarne le paradoxe d’un visionnaire hanté par les conséquences de son œuvre, pris dans un tourbillon d’ambition, de responsabilité et d’effroi.

Il qualifie GPT‑4 d’« embarrassant » en regard de ce que GPT‑5 est capable d’accomplir. Là où GPT‑4 représentait déjà une avancée majeure, GPT‑5 incarne une rupture technologique : raisonnement complexe en plusieurs étapes, mémoire étendue, traitement simultané de texte, image, son et données, et surtout une capacité à fonctionner comme un agent autonome, capable d’exécuter des tâches sans supervision humaine directe. Cette évolution ne se limite pas à une amélioration technique. Elle redéfinit les contours mêmes de l’intelligence artificielle, au point que ses créateurs eux-mêmes peinent à en anticiper les implications.

Pour en savoir plus, lisez l’article « « Qu’avons-nous fait ? » : GPT-5, un modèle trop puissant ? Les aveux déroutants du patron d’OpenAI Sam Altman sur Science et Vie. Certains phrases de cet article ont été écrits par une IA.

  Mots clés : , ,