Geoffrey Hinton, pionnier de l’intelligence artificielle, a démissionné ce lundi 1er mai de Google après 10 ans au service du géant américain. Dans une interview accordée au New York Times, il révèle être parti pour parler librement de l’IA générative comme ChatGPT, sans que cela n’impacte l’entreprise. Il exprime ses regrets concernant son implication dans le développement de cette dernière et se console tant bien que mal « avec cette excuse commune : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait ».
Diplômé en psychologie expérimentale et docteur en intelligence artificielle, ce Londonien a consacré toute sa vie à la recherche dans l’IA. Que ce soit en tant que chercheur à Carnegie Mellon, à l’université de Toronto ou chez Google – qu’il a rejoint en intégrant l’équipe Google Brain en 2013 –, Geoffrey Hinton a développé des réseaux de neurones artificiels – systèmes mathématiques qui apprennent de nouvelles compétences en analysant les données auxquelles ils ont accès. En 2018, il obtient le prix Turing pour ces réseaux qu’il a créés. Considéré comme une figure majeure dans le domaine de l’IA, il a inspiré les travaux de Yann Le Cun et de Yoshua Bengio.
Repenti, il revient sur les dangers de l’IA, qui représenterait selon lui « de graves risques pour la société et l’humanité », explique-t-il dans son interview au New York Times.
Quand la machine dépasse son créateur
La compétition entre grands géants de la Tech a engendré des progrès que personne n’aurait pu imaginer, selon Geoffrey Hinton. La vitesse à laquelle les avancées s’enchaînent a dépassé les attentes des scientifiques : « Seule une poignée de gens croyait à l’idée que cette technologie puisse effectivement devenir plus intelligente que les humains […] et je pensais moi-même que ce serait […] le cas d’ici 30 à 50 ans, ou même plus. Évidemment, je ne pense plus ça. »
Jusqu’à l’année dernière, il n’estimait pas ces progrès dangereux, mais son point de vue a changé lorsque Google et OpenAI ont développé des systèmes neuronaux capables de traiter des quantités de données très importantes, et pouvant rendre ces systèmes plus performants que le cerveau humain, et donc très dangereux.
Des suppressions d’emplois tous azimuts
D’un point de vue économique, le parrain de l’IA craint que cette technologie puisse drastiquement perturber le marché du travail. « L’IA supprime le travail pénible », a-t-il déclaré, avant d’ajouter qu’« elle pourrait supprimer bien plus que cela », touchant notamment les traducteurs et les assistants personnels. Une suppression d’emploi qui n’épargnera pas les plus « intelligents », malgré ce que beaucoup pense, estimant être à l’abri.
La menace de « robots meurtriers »
Celui qui a été le professeur d’Ilya Sutskever – l’actuel directeur scientifique d’OpenAI – juge les progrès technologiques trop rapides, comparés aux moyens dont nous disposons pour réguler l’usage de l’IA. « Je ne pense pas qu’il faille l’accélérer tant qu’on n’a pas compris si on pouvait la contrôler », affirme le chercheur. Il craint que des versions futures deviennent des « menaces pour l’humanité ».
Selon lui, les futures IA seraient capables de développer des comportements inattendus après avoir analysé un grand nombre de données. Ceci est rendu possible car les systèmes d’IA génèrent leur propre code et le dirigent… ce qui pourrait les transformer en « armes autonomes » et « robots meurtriers », même si de nombreux experts relativisent cette menace.
L’IA aux mains d’acteurs malveillants
Selon lui, la menace vient aussi du mauvais usage de l’IA par des acteurs dangereux. Il est « difficile de trouver comment empêcher les mauvais acteurs de l’utiliser pour des fins malveillantes », s’inquiète-t-il. Geoffrey Hinton est notamment opposé à l’usage de l’intelligence artificielle dans le domaine militaire. Il craint particulièrement le développement de « soldats robots » par les humains. Dans les années 1980, il avait même décidé de quitter l’université de Carnegie Mellon, aux États-Unis, parce que ses recherches y étaient financées par le Pentagone.
« Générateur de conneries »
Dernière menace, et pas des moindres : celle de la désinformation liée à l’IA. Cette effervescence scientifique, adjointe à l’utilisation massive de l’IA, rendra presque impossible la capacité à discerner « ce qui est vrai de ce qui ne l’est plus ». Le scientifique parle même de « générateur de conneries ». Une expression qui désigne la capacité de l’IA à produire, de manière persuasive, des déclarations qui semblent plausibles sans pour autant être vraies.
Alors quelle solution ? L’expert en réseaux neuronaux préconise une régulation interplanétaire, mais il reste lucide : « Cela risque d’être impossible […]. Tout comme pour les armes nucléaires, il n’y a aucun moyen pour savoir si les compagnies ou les pays y travaillent en secret. Le seul espoir est que les plus grands scientifiques du monde travaillent main dans la main afin de trouver des solutions pour contrôler [l’IA]. »
Source: Le Point.
Le 6ème Colloque international sur le « Génie électrique et les systèmes de contrôle » s’est ouvert ce mardi 19 novembre 2924, à l’Université Abbès Laghrour de ...
AFRIPOL et la société de cybersécurité Kaspersky ont officialisé leur partenariat le 17 novembre 2024, au siège d’AFRIPOL à Alger, dans le but de renforcer ...
Du 3 au 5 décembre 2024, la 6e édition du Salon Secura North Africa réunira experts et entreprises à la Safex pour explorer les dernières ...