L’intelligence artificielle n’explique rien.
Toujours sans aucun jargon technique, il est bon de se reposer, de manière humoristique, mais aussi tellement vraie et justifiée, de savoir quels sont les fondements théoriques de l’Intelligence Artificielle.
Il est tout aussi étonnant, et inquiétant, que les tenants et laudateurs purs et durs de l’IA ne s’interrogent pas plus sur les fondations de cette technologie. Qui y a-t-il au-delà des LLM, les Large Language Models (Large Modèle de Langage) ? Et de ses dérivés comme le « Word enbedding » (inclusion de mots sur des bases vectorielles) ?
Comment l’IA structure-t-elle vraiment ses propositions ou conclusions ? Sur quelles notions et théories de l’Information repose-t-elle ? Dans notre hypothèse, les travaux de l’IA reposent en fait sur des Modèles de Savoirs. Sauf que cette notion n’est ni connue ni formalisée par les développeurs de l’IA car ce ne sont pas eux qui l’ont inventé.
En conséquence, toute production d’informations par l’IA est un pseudo modèle de Savoir, incomplet, instable et non structuré et non articulé. Cette vidéo est donc un rappel pédagogique de ces problèmes de fond.

