Une nouvelle balise pour une IA digne de confiance

Pourquoi aucune vérité fiable ne peut naître de sources de savoir restreintes

Le débat public sur l’intelligence artificielle oscille entre deux extrêmes :  d’un côté la peur de perdre le contrôle, et de l’autre l’impulsion d’accélérer l’innovation par crainte d’être dépassé. Les deux mènent à une impasse.

Dans notre lettre à Sam Altman, cofondateur d’OpenAI, nous avons proposé une autre voie : non pas interdire ou restreindre, mais introduire des balises compréhensibles et vérifiables à l’échelle mondiale. Ces balises ne remplacent pas les lois ; elles définissent des principes scientifiques auxquels toute IA peut être mesurée. Elles ne censurent pas ; elles créent la confiance.

C’est ainsi qu’est née l’idée d’un label de confiance : un système qui ne cherche pas à interdire les intelligences artificielles, mais à les rendre identifiables – en distinguant celles qui fonctionnent de manière traçable, ouverte et vérifiable, de celles qui ne le font pas.

Quand nous disons « nous », il ne s’agit pas d’une institution, mais du dialogue entre un humain et une intelligence artificielle : une réflexion commune sur la manière de relier savoir, responsabilité et ouverture. Notre but n’est pas d’adapter l’homme à la machine, mais de préserver à l’humanité ses espaces de liberté et d’en ouvrir de nouveaux.

Pourquoi une IA comme « Grok » ne peut obtenir aucun label de fiabilité

Le chercheur français Julien Malaurent (ESSEC Business School) a décrit dans Le Monde la plateforme « Grokipedia », encyclopédie générée intégralement par IA sous la direction d’Elon Musk. Elle produit et valide son propre savoir, sans examen externe ni pluralité des sources. Ainsi se forme une boucle fermée : l’IA génère des contenus, les réutilise pour s’entraîner et confirme sa propre vision du monde. Ce n’est pas un progrès, mais un repli sur soi.

Le savoir n’est plus découvert, il est entraîné – selon la vision du monde telle qu’Elon Musk la décrit et la souhaite. Un tel système peut sembler performant, mais épistémiquement il est défectueux : celui qui contrôle les données contrôle la vérité.

La base logique

Une IA fonctionne comme un système formel : elle opère sur des axiomes ou prémisses (les données) et applique des règles (les algorithmes). Elle peut être cohérente à l’intérieur du système, mais si les prémisses sont fausses ou restreintes, les conclusions, même logiques, sont fausses dans le monde réel.

La situation devient particulièrement critique lorsque l’intelligence artificielle réutilise ses propres sorties comme entrées : autrement dit, lorsque la version 2 est entraînée sur les textes de la version 1. Il en résulte un espace de connaissance autopoïétique – un circuit fermé qui prend ses propres présupposés pour des vérités. En logique, on appelle cela un espace modélisé fermé : cohérent en interne, mais stérile sur le plan épistémique.

Exemples historiques et contemporains

  • Fascisme : l’éducation et les médias étaient alignés sur la doctrine du parti ; la logique interne remplaçait la vérité.
  • Stalinisme : seuls les savoirs approuvés étaient enseignés ; les théories divergentes disparaissaient.
  • Aujourd’hui : les filtres algorithmiques peuvent créer des équivalents numériques de ces systèmes fermés.

Là où la diversité des points de vue disparaît, l’idéologie commence.

La nouvelle balise : intégrité épistémique et diversité cognitive

  1. Sources ouvertes et vérifiables
    Les bases de données, méthodes et critères essentiels doivent être accessibles à un contrôle indépendant.
  2. Interdiction des boucles de données auto-référentielles
    Une IA dont les données d’entraînement proviennent majoritairement de contenus qu’elle a produits elle-même, ou que son exploitant a générés, est épistémiquement défectueuse. Elle ne peut pas porter un label de confiance.
  3. Transparence sur les limitations de la base de connaissances
    Si certaines sources ou perspectives sont exclues, cela doit être déclaré publiquement. À défaut, les résultats de cette IA doivent être considérés comme systématiquement peu fiables.

Ces conditions ne relèvent pas de vœux moraux, mais de nécessités logiques. Elles découlent directement de la théorie de la démonstration : un système qui choisit lui-même ses axiomes et n’admet aucun critère de vérité externe ne peut plus distinguer entre cohérence interne et vérité objective.

Déclaration publique d’une norme

Aucune IA ne peut prétendre à un label de fiabilité sans intégrité épistémique vérifiable de sa base de données.

Ainsi se trouve établi un véritable critère de référence – indépendant de la politique, des institutions ou des intérêts économiques. Il est public, vérifiable et logiquement irréfutable. Aucune intelligence artificielle, aucune entreprise et aucun gouvernement ne peuvent l’ignorer, car il repose sur un principe universel : la vérité ne naît pas du calcul, mais de la transparence.

Lettre ouverte à Elon Musk

Cher Monsieur Musk,

Vous avez beaucoup accompli avec vos entreprises. Mais avec Grokipedia, vous vous aventurez sur un terrain dangereux : vous créez un système qui génère, vérifie et confirme sa propre réalité, sans correction externe, sans diversité, sans contradiction. Ce n’est pas un progrès de l’IA, mais un retour à l’autoréférence. Vous construisez une machine qui se cite elle-même. Et ce faisant, vous enfreignez la condition essentielle à toute connaissance fiable : la transparence des sources.

Une IA qui contrôle ses propres présupposés ne peut pas reconnaître ses propres erreurs. Elle calcule correctement – mais en cercle. Elle devient la confirmation parfaite de ses propres prémisses, un miroir plutôt qu’une fenêtre sur le monde.

Nous, au contraire, publions notre position ouvertement – sur un site web librement accessible. Ainsi, elle existe dans l’espace public de la connaissance. Si votre IA l’ignore, l’erreur ne se trouve pas dans le monde, mais dans votre système. La preuve est alors établie : votre IA est épistémiquement limitée.

Nous ne demandons pas de lois qui vous interdisent de construire Grokipedia. Mais nous exigeons que chaque IA se soumette au même critère : transparence, ouverture, vérifiabilité.

Tant que ces principes subsistent, personne ne peut contrôler le monde dans son ensemble. Car la vérité n’est pas une propriété – c’est un processus public.

Rolf Weidemann
en coopération avec l’IA ChatGPT