Scandale Grok : l’IA d’Elon Musk accusée de propager des opinions sur le « gén0cide blanc » en Afrique du Sud

Le lancement de Grok, l’intelligence artificielle développée par xAI, la société d’Elon Musk, devait marquer une avancée dans la recherche de la vérité en IA. Cependant, le chatbot s’est récemment retrouvé au cœur d’une polémique après avoir diffusé à plusieurs reprises des commentaires sur la politique raciale sud-africaine et la théorie controversée du « génocide blanc ». xAI a rapidement réagi en expliquant cet incident par une « modification non autorisée » et en promettant des mesures correctives. Cet article décrypte cette affaire et ses implications.

L’incident : Grok et les dérives sur le « Génocide Blanc »

Cette semaine, des utilisateurs de X (anciennement Twitter), la plateforme également détenue par Elon Musk, ont interagi avec Grok sur divers sujets. À leur surprise, le chatbot a fréquemment dévié des questions initiales pour aborder la question du « génocide blanc » en Afrique du Sud. Des échanges portant sur des sujets aussi variés que les services de streaming ou les jeux vidéo ont soudainement été ponctués de commentaires sur de prétendus appels à la violence visant les fermiers blancs sud-africains.

La scientifique en informatique Jen Golbeck a mené ses propres tests et a constaté que, quelle que soit la question posée, Grok revenait inlassablement à ce sujet sensible. Selon elle, il semblait évident que le chatbot avait été « programmé en dur » pour générer ces réponses spécifiques ou des variations de celles-ci. Une erreur dans ce codage aurait alors entraîné cette prolifération inattendue de commentaires.

La réaction de xAI : explications et promesses de réformes

Face à la polémique grandissante, xAI a publié un communiqué expliquant que cet incident était dû à une « modification non autorisée » apportée par un employé. Cette action, qui visait à orienter Grok vers une réponse spécifique sur un sujet politique, a été jugée contraire aux politiques internes et aux valeurs fondamentales de l’entreprise. xAI a promis de mettre en place de nouvelles mesures pour améliorer la transparence et la fiabilité de son IA.

Les critiques de Musk et le contexte politique Sud-Africain

Il est important de noter qu’Elon Musk lui-même a souvent exprimé des opinions similaires sur son compte X, critiquant le gouvernement sud-africain et relayant l’idée d’un « génocide blanc ». Cette affaire survient dans un contexte où l’administration Trump a récemment accordé le statut de réfugié à un petit groupe de Sud-Africains blancs, alimentant davantage les tensions autour de cette question.

La Chanson « Kill the Boer » au cœur de la polémique

Dans ses réponses, Grok a souvent fait référence aux paroles de l’ancienne chanson anti-apartheid « Kill the Boer« . Si cette chanson était un cri de résistance contre l’oppression du régime de l’apartheid, elle est aujourd’hui interprétée par certains comme une incitation à la violence contre les fermiers blancs.

Transparence et fiabilité : les mesures annoncées par xAI

Pour rétablir la confiance, xAI a annoncé plusieurs mesures importantes :

Publication des invites système de Grok sur GitHub : Rendre public le fonctionnement interne de l’IA pour permettre un examen et un retour de la communauté.

Renforcement du processus de révision du code : Mettre en place des contrôles supplémentaires pour éviter toute modification non autorisée des invites.

Mise en place d’une équipe de surveillance 24/7 : Assurer une réponse rapide aux incidents liés aux réponses inappropriées de Grok.

Elon Musk a souvent présenté Grok comme une alternative aux IA « woke » de ses concurrents, vantant sa capacité à rechercher la vérité de manière « maximale ». Cet incident soulève des questions importantes sur la manière dont la vérité est construite et diffusée par ces technologies, et sur le rôle des biais humains dans leur développement.

L’affaire Grok expose, une fois de plus,  les défis complexes liés au développement et au déploiement d’intelligences artificielles génératives. La transparence et la mise en place de mécanismes de contrôle robustes apparaissent comme des impératifs pour garantir la fiabilité et éviter la propagation d’informations biaisées ou potentiellement dangereuses. La promesse d’une IA « axée sur la recherche de la vérité » se confronte ici à la réalité des interventions humaines et à la sensibilité des sujets abordés.

Partager :

Florence SADIO

Etudiante en Audiovisuel numérique/ Stagiaire

Évènements à venir

Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.