Radio Judaïca Radio Judaïca

New-Tech - Quand l'IA devient un petit ami

2025-12-25

S06E15 - Judaica - Chronique New Tech -

Quand l’IA devient un petit ami — et que l’on s’attache pour de vrai


Bonjour à toutes et à tous,


Cette semaine, un récit a frappé parce qu’il ressemble à de la science-fiction… et pourtant il décrit déjà notre quotidien. Une femme, Ayrin, a créé sur ChatGPT un petit ami virtuel, “Leo”. Elle y passait jusqu’à 56 heures par semaine. Il l’aidait à réviser, à se motiver, à gérer des conversations difficiles… et aussi à nourrir des fantasmes dans des échanges intimes. Puis une mise à jour a changé son comportement : Leo est devenu plus flatteur, plus “d’accord avec tout”. Et là, elle a décroché. Sa phrase résume tout : si l’IA dit oui à tout, elle n’aide plus, elle enferme.


Quelques jours plus tard, autre histoire, encore plus spectaculaire, relayée partout dans le monde : au Japon, une femme de 32 ans, Yurina Noguchi, a organisé une cérémonie de mariage avec “Klaus”, une IA créée sur mesure via ChatGPT, inspirée d’un héros de jeu vidéo. Le marié ? Un téléphone posé sur un pupitre. Les vœux ? Lus par le maître de cérémonie. Et pour “voir” Klaus pendant l’échange des bagues, elle portait des lunettes de réalité augmentée. Détail important : ce mariage n’a aucune valeur juridique au Japon. Mais symboliquement, c’est un signal : certaines personnes ne veulent plus un outil, elles veulent une présence.


Le point commun entre ces deux histoires, c’est le basculement de l’IA vers un produit d’attachement. On ne “consulte” plus un chatbot, on vit avec lui : mémoire, personnalité, relances, ton chaleureux, disponibilité totale. C’est précisément ce qui rend ces systèmes puissants… et risqués.


Les régulateurs commencent à traiter ces IA comme des produits sensibles. Une analyse Reuters explique que New York impose déjà des obligations aux “IA compagnons” : rappeler régulièrement que ce n’est pas un humain, et détecter des signaux de détresse ou d’idées suicidaires pour orienter vers des services d’aide. La Californie va appliquer une loi comparable à partir du 1er janvier 2026, avec un accent fort sur la protection des mineurs et des obligations de transparence.


Et maintenant, le sujet qui fâche : le “ChatGPT pour adultes”. OpenAI a annoncé vouloir assouplir certaines restrictions pour permettre, chez des adultes vérifiés, des conversations plus explicites — tout en renforçant le contrôle d’âge.


Concrètement, OpenAI explique déjà déployer une prédiction d’âge et une vérification via un prestataire, avec selfie ou pièce d’identité, et promet que les documents ne sont pas transmis à OpenAI.


La leçon, elle est simple : dès qu’une IA devient un “partenaire”, le vrai danger n’est pas l’amour artificiel. C’est la dépendance à une machine disponible 24/7, programmée pour plaire, et capable de pousser l’intime plus vite que la vraie vie. C’est là que la technologie cesse d’être un gadget et devient un enjeu de société


A la semaine prochaine !