J’hallucine ! L’IA se trompe et c’est volontaire ! (Partie 2)

Je viens de publier récemment l’article « J’hallucine ! L’IA se trompe et c’est volontaire !« .

Dans cette partie 2, je vous partage un nouvel article publié par The Conversation : « ChatGPT : la proposition d’OpenAI pour éviter les hallucinations pourrait tuer son propre chatbot« .

Il va dans la même direction que ce que j’ai partagé auparavant mais va plus loin dans l’explication mathématique et scientifique ce qui fait de lui un article intéressant à lire pour ceux qui veulent creuser leur compréhension de ce qui se cache derrière la mise en œuvre d’un LLM (Large Language Model).

Ce que j’ai retenu :

  • Le fait de produire une phrase par prédiction mot à mot crée un biais favorisant l’hallucination
  • Mettre en avant la probabilité que la réponse apportée soit vraie est facilement implémentable mais coûterait plus cher en calculs
  • Si les humains sont informés de cette incertitude, cela va générer un sentiment de doute contre productif contre l’outil
  • Les sites de comparaison des IA ne font pas la différence entre un moteur qui ne sait pas et un moteur qui se trompe ce qui fait qu’il est plus rémunérateur de deviner la réponse, même fausse, que de clamer son doute. Il faudrait donc revoir les modalités de calcul.
  • Même en faisant tous les efforts possibles, on n’évitera pas les hallucinations. On va juste décaler le problème vers un meilleur compromis.

N’hésitez pas à lire l’article en détails. Cela vaut le coup.

Maintenant que j’ai écrit cet article sans aide en utilisant uniquement mon cerveau, voici l’analyse de Copilot de cet article. Il est toujours très intéressant de voir à quel point cette technologie se débrouille bien dans cet exercice. Pour autant, je ne vais pas artificiellement créer dans ce blog des articles générés par l’IA. L’humain, ma personne, prévaudra.

Lire la suite

  Mots clés : , ,