Radio Judaïcachronique_radio_judaica_S06E24
S06E24 – Radio Judaïca – Chronique Tech
ChatGPT plus dangereux que la bombe atomique ?
Ce matin, on parle d'un événement planétaire. À New Delhi, en Inde, le plus grand sommet mondial sur l'intelligence artificielle vient de se refermer. Et le patron d'OpenAI, Sam Altman — le créateur de ChatGPT, l'outil que des millions d'entre nous utilisent désormais au quotidien — en est revenu avec un message d'alerte : il réclame des règles mondiales, et il réclame ça d'urgence.
Quand le fabricant du moteur réclame le frein, ce n'est plus un débat d'experts dans une salle climatisée. C'est que quelque chose a fondamentalement changé de dimension. Et cette semaine, ça s'est vu.
Ce sommet — l'"AI Impact Summit" — a été un vrai séisme diplomatique : 20 chefs d'État, 100 pays représentés, 250 000 visiteurs sur six jours. C'est la première fois qu'un sommet de cette ampleur sur l'IA se tient dans ce qu'on appelle le Sud Global — et on va y revenir, parce que ce n'est pas un hasard. L'Inde a fait adopter une déclaration signée par 86 pays, dont les États-Unis, la Chine et la Russie : diffuser l'IA à tous, mais sans la laisser devenir incontrôlable.
Et Sam Altman, dans ce contexte, a lâché une phrase qui a glacé l'assemblée : nous pourrions être à deux ou trois ans seulement des premières formes de superintelligence. Il ne parle plus de science-fiction lointaine. Il parle d'un horizon très proche. Et face à ça, il propose un mécanisme de coordination internationale calqué sur le modèle de l'AIEA — l'agence internationale de l'énergie atomique, celle qui surveille le nucléaire dans le monde. C'est une comparaison extrêmement forte. Elle signifie que pour lui, un code informatique malveillant pourrait demain être aussi dévastateur qu'une tête nucléaire — capable de paralyser des infrastructures critiques, de déclencher des cyberattaques massives, ou d'accélérer la conception d'armes biologiques.
Mais il faut tenir deux lectures en même temps, et ne pas être naïf. Il y a le risque réel : l'IA progresse plus vite que nos lois, plus vite que nos institutions, parfois plus vite que notre capacité à mesurer les dégâts. Et puis il y a le calcul business, qu'on ne peut pas ignorer : des règles très lourdes et très coûteuses à respecter empêchent les petites startups de naître, et protègent paradoxalement les géants déjà en place. OpenAI a des armées de juristes pour se conformer à n'importe quelle réglementation. Une startup à Tel Aviv, à Paris ou à Casablanca, non.
C'est pour ça que la Déclaration de New Delhi insiste aussi sur l'IA open source — l'idée que le code ne reste pas caché dans un coffre-fort en Californie, mais qu'il soit transparent, auditable, partageable. C'est la condition pour que la régulation serve l'intérêt général, et pas seulement les monopoles déjà en place.
L'Inde, de son côté, a choisi de mener la révolte. New Delhi refuse que l'IA devienne le nouveau club fermé entre Washington et Pékin. Son argument est simple, presque brutal : si deux blocs se partagent le contrôle de l'intelligence artificielle mondiale, le reste de la planète devient dépendant — technologiquement, économiquement, et culturellement. Et c'est une question que nous, en Israël comme en France, devons absolument nous poser. Si toutes les IA du monde sont entraînées sur des textes en anglais, produits majoritairement aux États-Unis, elles finissent par penser américain. Elles reproduisent des biais, des références, une vision du monde. La bataille pour intégrer nos langues, nos valeurs, nos façons de raisonner dans ces algorithmes — c'est une bataille pour ne pas devenir des colonies numériques.
Concrètement, qu'est-ce que ça change pour nous dès maintenant ? Trois choses déjà en mouvement. D'abord la guerre des ressources : 250 milliards de dollars d'investissements ont été annoncés en marge du sommet pour construire des data centers. Les data centers, c'est le nouveau pétrole — et comme pour le pétrole, celui qui contrôle l'infrastructure contrôle la puissance. Ensuite, on s'achemine vers une obligation de marquage des contenus générés par l'IA : si une image, une vidéo ou un texte est fabriqué par une machine, ça devra être visible et traçable. C'est vital pour nos démocraties face aux deepfakes et aux manipulations électorales. Et enfin, le droit pour tout citoyen de contester une décision prise par un algorithme — qu'il s'agisse d'un refus de crédit, d'un diagnostic médical, ou d'une décision de justice assistée par IA.
Cette semaine à New Delhi, l'IA a définitivement perdu son statut de gadget magique pour devenir une affaire d'État. Le défi des prochains mois sera de savoir si on peut réguler l'intelligence sans étouffer l'innovation. À la semaine prochaine !
Radio Judaïca – Chronique Tech par Stéphane