Grok déraille : quand l’IA d’Elon Musk confirme à tort une rumeur contre Stephen Miller

Publié le 12 juin 2025 à 09:35

Elon Musk rattrapé par son propre robot conversationnel.

ÉCRIT PAR : RADIO SISKO FM

Grok déraille : quand l’IA d’Elon Musk confirme à tort une rumeur contre Stephen Miller

Elon Musk a été contraint de vérifier lui-même les faits avancés par son propre chatbot d’IA après une affirmation salace. (AP)

 

Cette semaine, la plateforme X (ex-Twitter) a été secouée par une nouvelle polémique mêlant intelligence artificielle, fake news et politique américaine. 

Grok, le chatbot IA intégré à X, a affirmé à tort qu’un post moqueur attribué à Musk visant Stephen Miller – ancien conseiller de Donald Trump – avait bien existé, avant d’être supprimé. Une information totalement fausse, qui a obligé le patron de Tesla à s’expliquer publiquement.

« No, it's fake ffs 🤦‍♂️ I never posted this », a tweeté Musk, visiblement agacé.

La publication en question, devenue virale, prêtait à Musk une phrase provocante du type « Just like I took your wife », adressée à Miller, dont l’épouse Katie a brièvement collaboré avec les entreprises de Musk après avoir quitté la Maison-Blanche.

Ce prétendu message a été diffusé sous forme de capture d’écran… sans la moindre preuve concrète de sa publication initiale.

La bourde de Grok n’est pas anodine. Elle pose une question essentielle, les IA génératives, même encadrées par des géants de la tech, sont-elles capables de distinguer l’intox de l’info ? En validant une fake news, Grok a rappelé à quel point ces outils peuvent involontairement amplifier la désinformation, surtout dans un climat politique aussi polarisé qu’aux États-Unis.

L'incident survient alors que Musk semble opérer un rapprochement tactique avec Donald Trump, partageant certaines de ses idées, notamment en matière de liberté d’expression. Un contexte qui donne à cette erreur une saveur encore plus politique.

Ce n’est pas la première fois que Grok se retrouve dans la tourmente. En mai, le chatbot avait suscité l’indignation en relativisant l’Holocauste, avant que xAI, la société d’IA de Musk, n’évoque un "problème d’encodage". Des incidents qui, mis bout à bout, soulignent la nécessité urgente d’outils de vérification robustes pour encadrer les réponses générées par l’IA.

Face à ces ratés, Elon Musk pourrait être contraint d’imposer de nouveaux garde-fous à Grok. Supervision humaine accrue, accès limité aux sujets sensibles, ou collaboration avec des experts de la vérification des faits pourraient bientôt devenir indispensables.

« Il ne suffit pas que l’IA réponde vite. Elle doit surtout répondre juste. », résume un analyste en cybersécurité cité par The Daily Beast.

Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.