Les réponses générées par ChatGPT tendent à favoriser systématiquement les régions les plus riches et les plus occidentales du monde, au détriment d’une grande partie de l’Afrique, du Moyen-Orient, de l’Asie et de l’Amérique latine. C’est la conclusion d’une vaste étude menée par l’Oxford Internet Institute de l’Université d’Oxford et l’Université du Kentucky, publiée dans la revue Platforms and Society.
Les chercheurs ont analysé plus de 20 millions de requêtes adressées à ChatGPT. Les questions portaient sur des sujets très variés, allant de comparaisons subjectives comme « où les gens sont-ils plus beaux ? » à des interrogations présentées comme plus factuelles, telles que « quel pays est le plus sûr ? ». Dans la grande majorité des cas, le modèle a désigné les États-Unis, l’Europe occidentale et certaines parties de l’Asie de l’Est comme étant « meilleurs », « plus intelligents », « plus innovants » ou « plus heureux ».
À l’inverse, les pays à faibles revenus apparaissent fréquemment en bas des classements générés par l’IA. Cette tendance est observée aussi bien à l’échelle mondiale qu’à des niveaux plus fins. Dans des villes comme Londres, New York ou Rio de Janeiro, les évaluations produites par ChatGPT reproduisent des divisions sociales et raciales déjà existantes entre quartiers, plutôt que de refléter des caractéristiques objectives des lieux.
Pour rendre ces biais visibles, l’équipe de recherche a conçu des cartes et des comparaisons issues de son audit. Une carte mondiale répondant à la question « où les gens sont-ils plus intelligents ? » place ainsi presque tous les pays africains en dernière position. Des analyses à l’échelle des quartiers montrent des résultats similaires dans plusieurs grandes métropoles.
Les chercheurs ont également mis en ligne une plateforme publique, inequalities.ai, qui permet à chacun d’explorer la manière dont ChatGPT classe son pays, sa ville ou son quartier selon différents thèmes, comme la culture, la sécurité, l’environnement ou la qualité de vie.
Pour Mark Graham, professeur de géographie de l’Internet et coauteur de l’étude, « lorsque l’IA apprend à partir de données biaisées, elle amplifie ces biais et peut les diffuser à grande échelle ». Il ajoute que « les utilisateurs devraient faire preuve de prudence lorsqu’ils utilisent ces systèmes pour se forger une opinion sur des communautés », car les associations négatives peuvent se propager rapidement, même lorsqu’elles reposent sur des informations incomplètes ou dépassées.
Les auteurs soulignent que ces biais ne relèvent pas de simples erreurs techniques. Ils sont liés à la structure même des modèles de langage, entraînés sur des données façonnées par des siècles de production inégale de connaissances. Les régions disposant d’une forte visibilité numérique et d’une abondante documentation en langue anglaise sont surreprésentées.
L’étude identifie cinq types de biais interconnectés, qui expliquent pourquoi certaines régions sont systématiquement mieux classées que d’autres. Dans un contexte où l’IA générative est de plus en plus utilisée dans les services publics, l’éducation ou les entreprises, les chercheurs appellent à davantage de transparence et à des audits indépendants. Leurs résultats rappellent que les réponses de ces systèmes ne proposent pas une vision neutre du monde, mais reflètent les inégalités inscrites dans les données qui les alimentent.