Les cinq dangers de l’IA selon G. Hinton.

Geoffrey Hinton, pionnier de l’intelligence artificielle, a démissionné ce lundi 1er mai de Google après 10 ans au service du géant américain. Dans une interview accordée au New York Times, il révèle être parti pour parler librement de l’IA générative comme ChatGPT, sans que cela n’impacte l’entreprise. Il exprime ses regrets concernant son implication dans le développement de cette dernière et se console tant bien que mal « avec cette excuse commune : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait ».
Diplômé en psychologie expérimentale et docteur en intelligence artificielle, ce Londonien a consacré toute sa vie à la recherche dans l’IA. Que ce soit en tant que chercheur à Carnegie Mellon, à l’université de Toronto ou chez Google – qu’il a rejoint en intégrant l’équipe Google Brain en 2013 –, Geoffrey Hinton a développé des réseaux de neurones artificiels – systèmes mathématiques qui apprennent de nouvelles compétences en analysant les données auxquelles ils ont accès. En 2018, il obtient le prix Turing pour ces réseaux qu’il a créés. Considéré comme une figure majeure dans le domaine de l’IA, il a inspiré les travaux de Yann Le Cun et de Yoshua Bengio.
Repenti, il revient sur les dangers de l’IA, qui représenterait selon lui « de graves risques pour la société et l’humanité », explique-t-il dans son interview au New York Times.
Quand la machine dépasse son créateur
La compétition entre grands géants de la Tech a engendré des progrès que personne n’aurait pu imaginer, selon Geoffrey Hinton. La vitesse à laquelle les avancées s’enchaînent a dépassé les attentes des scientifiques : « Seule une poignée de gens croyait à l’idée que cette technologie puisse effectivement devenir plus intelligente que les humains […] et je pensais moi-même que ce serait […] le cas d’ici 30 à 50 ans, ou même plus. Évidemment, je ne pense plus ça. »
Jusqu’à l’année dernière, il n’estimait pas ces progrès dangereux, mais son point de vue a changé lorsque Google et OpenAI ont développé des systèmes neuronaux capables de traiter des quantités de données très importantes, et pouvant rendre ces systèmes plus performants que le cerveau humain, et donc très dangereux.
Des suppressions d’emplois tous azimuts
D’un point de vue économique, le parrain de l’IA craint que cette technologie puisse drastiquement perturber le marché du travail. « L’IA supprime le travail pénible », a-t-il déclaré, avant d’ajouter qu’« elle pourrait supprimer bien plus que cela », touchant notamment les traducteurs et les assistants personnels. Une suppression d’emploi qui n’épargnera pas les plus « intelligents », malgré ce que beaucoup pense, estimant être à l’abri.
La menace de « robots meurtriers »
Celui qui a été le professeur d’Ilya Sutskever – l’actuel directeur scientifique d’OpenAI – juge les progrès technologiques trop rapides, comparés aux moyens dont nous disposons pour réguler l’usage de l’IA. « Je ne pense pas qu’il faille l’accélérer tant qu’on n’a pas compris si on pouvait la contrôler », affirme le chercheur. Il craint que des versions futures deviennent des « menaces pour l’humanité ».
Selon lui, les futures IA seraient capables de développer des comportements inattendus après avoir analysé un grand nombre de données. Ceci est rendu possible car les systèmes d’IA génèrent leur propre code et le dirigent… ce qui pourrait les transformer en « armes autonomes » et « robots meurtriers », même si de nombreux experts relativisent cette menace.
L’IA aux mains d’acteurs malveillants
Selon lui, la menace vient aussi du mauvais usage de l’IA par des acteurs dangereux. Il est « difficile de trouver comment empêcher les mauvais acteurs de l’utiliser pour des fins malveillantes », s’inquiète-t-il. Geoffrey Hinton est notamment opposé à l’usage de l’intelligence artificielle dans le domaine militaire. Il craint particulièrement le développement de « soldats robots » par les humains. Dans les années 1980, il avait même décidé de quitter l’université de Carnegie Mellon, aux États-Unis, parce que ses recherches y étaient financées par le Pentagone.
« Générateur de conneries »
Dernière menace, et pas des moindres : celle de la désinformation liée à l’IA. Cette effervescence scientifique, adjointe à l’utilisation massive de l’IA, rendra presque impossible la capacité à discerner « ce qui est vrai de ce qui ne l’est plus ». Le scientifique parle même de « générateur de conneries ». Une expression qui désigne la capacité de l’IA à produire, de manière persuasive, des déclarations qui semblent plausibles sans pour autant être vraies.
Alors quelle solution ? L’expert en réseaux neuronaux préconise une régulation interplanétaire, mais il reste lucide : « Cela risque d’être impossible […]. Tout comme pour les armes nucléaires, il n’y a aucun moyen pour savoir si les compagnies ou les pays y travaillent en secret. Le seul espoir est que les plus grands scientifiques du monde travaillent main dans la main afin de trouver des solutions pour contrôler [l’IA]. »
Source: Le Point.
Le ministère de la Poste et des Télécommunications organise, les 7 et 8 avril prochains, une rencontre nationale sur la transformation numérique intitulée « Connected ...
Huawei Algérie a récompensé 50 étudiants lors de la cérémonie de clôture de la 10e édition du programme « Seeds for the Future », organisée ...
Le groupe chinois GAC, via son entreprise GOVY, s’apprête à concrétiser un rêve futuriste, le lancement d’AirJet, une voiture volante conçue pour le transport aérien ...