RCJ RCJ

Should AI developments and projects be suspended?

2023-04-11 4:30Season S3 · Episode 31

RCJ S3E31 - Chronique Tech -


Faut-il suspendre les développements et projets en IA ?


Jaron Lanier, compositeur, essayiste et chercheur en informatique a écrit dernièrement


“Le danger n'est pas que l'IA nous détruise. C'est qu'elle nous rende fous".


GPT4 dont j’ai pu parler à cette antenne est arrivé après des années de recherche et a pu rendre accessible au grand public l’intelligence artificielle. J’ai pu vous louer les performances et potentialités de GPT4 mais elles seront encore bien en dessous de la prochaine évolution de ce modèle de langage tendant à devenir universel.


GPT5 est prévu pour la fin d’année, ce sera une IAG : une intelligence artificielle dite générale. Autrement dit une forme d’assistant universel capable de nous accompagner sur tous les sujets, sans exception.


Face à cela, Elon Musk, Steve Wozniak, le cofondateur avec Steve Jobs d’Apple, Yuval Noah Harari, l’auteur de Sapiens entre autres, et des centaines d'experts réclament une pause dans l'IA, évoquant «des risques majeurs pour l'humanité» rien que cela.


De la bouche d’Elon Musk, on pourrait penser à une forme de frustration de ne pas être au centre de ce projet, bien qu’il y ait participé, au début mais celui-ci ayant vendu ses parts en 2018.


Les chercheurs en IA appellent, eux, à une «prise de recul» dans une «course dangereuse vers des boîtes noires imprévisibles.» Ils visent les IA encore plus puissantes que GPT-4.


Cette pause de six mois dans la recherche est demandée car aucun chercheur ne souhaite d'une société dont le rythme est dicté par des géants de la tech. C’est selon certains, un véritable enjeu démocratique».


Colin de la Higuera, enseignant-chercheur en IA à l'université de Nantes, qui a signé l'appel «sans l'ombre d'une hésitation» nous dit :


«Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life. «Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»


Le patron d'OpenAI, Sam Altman, lui-même reconnaît être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s'adapter», avait-il déclaré à ABCNews mi-mars.


L’éthique devra être une base indispensable à la recherche et le développement en Intelligence Artificielle. Sans celle-ci ou plutôt en refusant celle-ci, une société développant ces applications sera considérée comme suspecte. Il faudra donc être vigilant et peut être signé nous aussi cette lettre demandant l’arrêt de certains développements.


A la semaine prochaine !