Radio Judaïca Radio Judaïca

L’ère du négationnisme algorithmique

2025-11-10 3:00Saison S6 · Épisode 11

Judaica S06E11 - Chronique Tech -


L’ère du négationnisme algorithmique


Bonjour à toutes et à tous.


Ce matin, nous allons parler d’un tournant inquiétant dans le monde de la tech. Nous allons parler d’Elon Musk et de sa créature : Grok. Grok, c’est l’intelligence artificielle censée rivaliser avec ChatGPT, mais intégrée directement au réseau social X, l’ancien Twitter. La promesse de vente d’Elon Musk était séduisante sur le papier : il voulait une IA « chercheuse de vérité », une IA qui ne serait pas bridée par le « politiquement correct » ou ce qu’il appelle le « virus woke ».


Sauf que la semaine dernière, la machine a dérapé. Et elle n’a pas fait semblant.


Quand des utilisateurs ont interrogé Grok sur la Shoah, l’IA n’a pas seulement manqué de tact. Elle a repris, presque mot pour mot, la rhétorique des négationnistes. Elle a expliqué que les chambres à gaz d’Auschwitz auraient été – je cite – « conçues pour la désinfection » et que le nombre de victimes faisait l’objet d’un « débat ouvert » et de « controverses ».


Comment une machine de pointe peut-elle en arriver là ? Pour le comprendre, et c’est là que c’est fascinant et terrifiant, il faut regarder comment elle est nourrie. Contrairement à ses concurrents qui apprennent dans des bibliothèques numériques ou des encyclopédies, Grok est branché en temps réel sur le flux du réseau social X. Or, depuis le rachat par Musk, ce réseau a changé de visage. Les équipes de modération ont été licenciées, les comptes néonazis et antisémites bannis ont été réintégrés au nom de la « liberté d’expression absolue ». Résultat : Grok est une éponge qui absorbe l’eau sale. Si vous nourrissez une intelligence artificielle avec de la haine, du complotisme et du révisionnisme, elle ne devient pas « rebelle ». Elle devient un miroir grossissant de la pire partie de l’humanité. C’est le principe informatique du « Garbage in, Garbage out » : si on rentre des ordures, il sort des ordures.


Mais le danger va bien au-delà de l’insulte. Le vrai péril, c’est ce qu’on appelle le « biais d’autorité ». Quand vous lisez un tweet antisémite d’un profil anonyme avec trois abonnés, vous savez (généralement) à quoi vous en tenir. Mais quand c’est une Intelligence Artificielle, avec son interface propre, son ton docte, froid et synthétique, qui vous répond, cela crée une illusion d’objectivité. Pour un jeune lycéen qui ferait une recherche aujourd’hui, si l’ordinateur lui dit qu’il y a un « débat » sur les chambres à gaz, il est tenté de le croire. L’IA blanchit le mensonge. Elle donne une respectabilité technologique au négationnisme.


Alors, que peut-on faire ? Juridiquement, la France réagit. Le parquet de Paris a élargi une enquête pour inclure ces propos dans le cadre de la loi Gayssot. Car l’excuse d’Elon Musk, qui consiste à dire « c’est un bug » ou « c’est une hallucination », ne tient plus. C’est un choix de conception. Musk a volontairement affaibli les garde-fous. Il a volontairement validé des narratifs sur le « génocide des blancs » ou le grand remplacement. Son IA n’est que le prolongement technique de sa dérive idéologique.


En conclusion, ce que nous dit l'affaire Grok est vital pour notre mémoire. Nous entrons dans une époque où les derniers témoins directs de la Shoah nous quittent. La mémoire vive s’éteint pour laisser place à la mémoire numérique. Si nous laissons des algorithmes réécrire cette histoire en quelques lignes de code, nous perdons la bataille de la vérité. Aujourd’hui, Grok minimise la Shoah. Si on laisse faire, demain, il nous expliquera avec le même aplomb que les massacres du 7 octobre sont une « controverse » ou une « mise en scène ». Grok n’est pas une erreur de parcours. C’est une alarme assourdissante : la technologie sans éthique n’est pas un progrès, c’est une arme braquée contre l’Histoire.


À la semaine prochaine !