04.05.2023
Le pionnier de l'intelligence artificielle (IA), Geoffrey Hinton, a quitté Google pour avertir l'humanité d'une menace imminente. Selon le "parrain" de l'IA, la course à l'innovation entre les géants technologiques devient incontrôlable et ne peut être stoppée que par une régulation mondiale.
En 2012, M. Hinton, avec deux étudiants de l'université de Toronto, a créé un réseau neuronal pour reconnaître et analyser des objets de base sur des photos, tels que des fleurs, des voitures et des chiens, jetant ainsi les bases pour des développements tels que le chatbot ChatGPT. Son invention a valu au scientifique le surnom de "parrain" de l'IA et une position influente chez Google, qui a absorbé la société du "trio doré" pour 44 millions de dollars. Après avoir travaillé chez Google pendant plus d'une décennie, M. Hinton a annoncé son départ sensationnel dans les pages du New York Times. Dans une interview au journal, il a parlé de ses inquiétudes concernant les développements de la super-intelligence.
Geoffrey Hinton est convaincu que l'amélioration de l'IA s'accompagne d'une inondation d'informations non fiables sur Internet, ainsi que de vidéos et de photos générées. En conséquence, les gens normaux ne pourront plus distinguer le vrai du faux, prévient le chercheur. Cela s'est également produit avec une fausse photo du pape François, à qui l'IA a récemment "fait porter" un manteau de marque.
Pendant ce temps, l'intelligence artificielle ne reste pas immobile et pourrait bientôt surpasser son créateur intelligent grâce à la spécificité du système. "C'est comme si vous aviez 10.000 personnes et à chaque fois qu'une personne apprenait quelque chose, tout le monde le savait automatiquement. Ainsi, ces chatbots peuvent savoir beaucoup plus que n'importe quel autre être humain", explique le chercheur. À cet égard, le développeur a exprimé ses inquiétudes concernant l'arrivée de l'intelligence artificielle sur le marché du travail. Comme le souligne M. Hinton, bien que pour le moment les robots "aident" seulement l'Homo sapiens, ils pourraient bientôt laisser sans emploi les assistants juridiques, les traducteurs, les secrétaires et d'autres spécialistes qui accomplissent des tâches routinières.
Les prévisions du chercheur commencent déjà à se réaliser. Le PDG d'IBM, Arvind Krishna, a récemment parlé à Bloomberg de la nouvelle politique de recrutement de l'entreprise. Elle suspendra l'embauche d'employés qui pourront être remplacés par l'intelligence artificielle et prévoit d'automatiser jusqu'à 30% de son back-office au cours des cinq prochaines années et même de confier en partie la gestion du personnel à l'IA.
Geoffrey Hinton estime que la principale menace que représente l'intelligence artificielle est son imprévisibilité en raison des vastes couches d'information qu'elle stocke "dans sa mémoire". Les laboratoires de développement de l'IA ne font qu'attiser le feu en permettant à l'intelligence artificielle non seulement de générer du code informatique, mais aussi de le contrôler de manière autonome. Le "parrain" craint qu'en l'absence de contrôle adéquat, les inventions puissent tomber entre de mauvaises mains, qui les transformeront en une arme puissante.
De plus, depuis peu, l'IA est capable de lire les pensées humaines. Cette compétence a été conférée à l'intelligence artificielle par des scientifiques de l'université du Texas à Austin. L'IA lit les images de l'activité cérébrale et "traduit" les pensées en langage humain sous forme de texte. Bien que cette innovation vise à aider les personnes qui ont perdu la capacité de parler à la suite d'un accident vasculaire cérébral ou d'autres maladies, elle pourrait également être utilisée à des fins moins nobles. "Il est difficile de comprendre comment vous pouvez empêcher de "mauvais acteurs" d'utiliser cela à des fins néfastes", a déclaré le scientifique, avertissant que la réalité dans laquelle opèrent des robots tueurs n'est pas très loin.
M. Hinton est un fervent opposant à l'utilisation de l'intelligence artificielle sur le champ de bataille. Dans les années 1980, il a quitté l'université Carnegie Mellon en Pennsylvanie parce qu'il ne voulait pas que ses recherches soient financées par le Pentagone.
Le scientifique a déclaré qu'il regrettait en partie son travail dans ce domaine et qu'il était difficile pour chacun d'entre nous d'empêcher l'utilisation malveillante de l'IA à des fins criminelles. "Je me console avec l'excuse habituelle: si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait", a-t-il déclaré dans une interview à la BBC.
Geoffrey Hinton a ajouté qu'il avait quitté son poste chez Google pour pouvoir parler librement des dangers de l'IA. "En fait, je suis parti pour pouvoir parler des dangers de l'IA sans me soucier d'un éventuel impact sur Google. Google agissait de manière très responsable", a écrit Hinton sur Twitter.
L'information obtenue à partir de sources ouvertes
Les opinions exprimées par les analystes ne peuvent être considérées comme émanant des éditeurs du portail. Elles n'engagent que la responsabilité des auteurs
Abonnez-vous à notre chaîne Telegram: https://t.me/observateur_continental