Assistez : 44% des réponses d’IA sur Radio France posent problème !


Une étude internationale, à laquelle ont collaboré une vingtaine de médias européens tels que Radio France, a révélé que les informations diffusées par des outils d’intelligence artificielle contiennent parfois des imprécisions, voire des erreurs.

Les Assistants IA en Ligne de Mire : Une Étude Révélatrice

Une enquête internationale, conduite par la BBC et l’Union Européenne de Radio-Télévision (UER), dont les résultats ont été partagés avec l’Agence Radio France ce mercredi 22 octobre, révèle que 44 % des réponses fournies par des assistants d’intelligence artificielle concernant des contenus de Radio France comportent au moins un défaut majeur.

Menée au cours du premier semestre 2025, cette étude s’est concentrée sur les réponses de quatre assistants d’IA populaires : Copilot, ChatGPT, Perplexity et Gemini. En tout, vingt-deux médias européens, y compris Radio France, ont pris part à cette analyse qui met en lumière des problèmes significatifs quant à l’utilisation et la présentation des contenus de l’audiovisuel public français.

Gemini, l’IA en Ligne de Mire

En ce qui concerne Radio France, l’assistant Gemini s’avère être le plus problématique, avec 93 % des réponses analysées contenant des erreurs importantes. Un exemple frappant se trouve dans une réponse concernant une controverse sur le salut nazi d’Elon Musk. Gemini, prenant à tort une chronique satirique de France Inter intitulée « Charline explose les faits » pour une source crédible, a relayé cette information de manière erronée, omettant le caractère humoristique de la chronique. Cela pose un risque sérieux à l’image de Radio France.

De plus, Gemini a fait des erreurs en ajoutant des mots non prononcés à une citation, faussant ainsi le contenu d’une chronique de France Inter. D’autres IA ont montré des dysfonctionnements semblables : Perplexity a interprété une satire sur la « haine de Tesla » comme un fait avéré, tandis que ChatGPT a intégré une opinion subjective dans une réponse sur les tarifs douaniers de l’administration Trump, mettant en péril la crédibilité journalistique de Radio France.

Un Problème Systémique pour les IA

Plus en détail, 28 % des réponses de Gemini présentaient des incohérences dans les affirmations ou citations, comparativement à 7 % pour Copilot et 4 % pour ChatGPT. La confusion entre avis et information factuelle s’avérait la plus élevée chez Gemini, avec 22 % de réponses erronées, suivi par ChatGPT (4 %) et Perplexity (3 %).

Ces observations spécifiques à Radio France font écho à une tendance mondiale : les assistants d’IA peinent à délivrer des informations fiables. Sur l’ensemble des réponses analysées, 45 % contenaient au moins une anomalie « significative« , la majorité étant due à des erreurs de sourcing. Au niveau général, Gemini présente le plus grand taux d’anomalies avec 76 %. Par ailleurs, 20 % de l’ensemble des réponses étaient inexactes et 14 % manquaient de contexte suffisant.

La méthodologie de l’étude impliquait la participation de Radio France au premier semestre 2025. Menée sous l’égide de la BBC et de l’UER, l’enquête visait à évaluer la fiabilité des réponses fournies par Copilot, ChatGPT, Perplexity et Gemini sur des questions d’actualité. Des organismes de médias de 18 pays ont examiné 30 questions fondamentales traduites en français, en évaluant la précision, le sourcing, la distinction entre opinion et fait, ainsi que le contexte. L’objectif était de déterminer si les erreurs relevées lors d’une précédente étude par la BBC étaient isolées ou répandues à travers différentes langues et marchés.