Le vice-président des affaires mondiales d’OpenAI a récemment fait une déclaration retentissante concernant leur dernier modèle d’intelligence artificielle, o1. Selon lui, cet outil serait « quasiment parfait » pour corriger les biais inhérents aux systèmes d’IA. Cependant, un examen plus approfondi des données disponibles semble nuancer cette affirmation.
Les promesses d’OpenAI sur les capacités de o1
OpenAI met en avant les capacités avancées de raisonnement de o1, qui serait capable d’émuler des processus de réflexion complexes. Contrairement à ses prédécesseurs comme GPT-4, o1 prend le temps de « réfléchir » avant de produire une réponse, ce qui permettrait selon l’entreprise de réduire considérablement les « hallucinations » et les biais.
Le vice-président a souligné que cette approche novatrice permettrait à o1 d’analyser et de corriger les potentiels biais présents dans ses données d’entraînement, aboutissant à des réponses plus neutres et objectives.
Des données qui nuancent l’enthousiasme d’OpenAI
Malgré l’optimisme affiché par OpenAI, certaines données semblent tempérer ces affirmations. Des analyses indépendantes ont révélé que o1 n’est pas totalement exempt de biais, notamment dans certains domaines spécifiques comme les questions de genre ou d’origine ethnique.
De plus, la Federal Trade Commission (FTC) a récemment mis OpenAI dans son collimateur concernant l’utilisation potentiellement problématique de données d’entraînement, incluant plus de 300 000 livres dont certains proviendraient de bibliothèques sans autorisation claire.
Ces éléments soulèvent des interrogations quant à la capacité réelle de o1 à éliminer complètement les biais, malgré les avancées indéniables en termes de raisonnement et de traitement de l’information.