nouvelles

Bengio, « le parrain de l'IA », a déclaré : les êtres humains ne seront peut-être pas en mesure de résoudre les risques liés à l'IA et les problèmes de supervision politique dans 10 ans

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Actualités de l'application Titanium Media le 24 aoûtYoshua Bengio, un informaticien canadien connu comme le « Parrain de l'IA », pionnier de la technologie d'apprentissage profond et lauréat du prix Turing 2018, a déclaré publiquement qu'avec le lancement de ChatGPT, le temps consacré aux risques liés à la technologie de l'IA avait été réduit. .Malheureusement, nous ne pouvons pas utiliser dix ans pour résoudre les problèmes de risque et de surveillance des politiques liées à l’IA, mais un délai plus court. L’industrie doit donc agir maintenant pour accélérer la mise en œuvre des politiques de sécurité de l’IA.

"Il faut beaucoup de temps pour créer une politique, il faut des années de désaccords pour être résolus, une législation comme celle-ci prend des années pour être promulguée, il y a des processus qui doivent être mis en place, il faut des années pour bien faire les choses", Bengio » a déclaré Bloomberg. Maintenant, craignez qu’il n’y ait peut-être pas beaucoup de temps pour « bien faire les choses ».Et ce qui est pire, c'est que les risques liés à l'IA ne sont pas seulement une question de réglementation, il s'agit d'un traité international, et nous devons résoudre ce problème à l'échelle mondiale.

On rapporte que Bengio est né à Paris et a grandi au Canada. Il vit maintenant à Montréal, au Canada, et travaille comme professeur au Département d'informatique et d'informatique de l'Université de Montréal. Il a obtenu son doctorat en informatique de l'Université McGill au Canada en 1991. Les principaux domaines de recherche de Bengio sont l'apprentissage profond et le traitement du langage naturel.

Au cours de sa carrière de plus de 30 ans dans la recherche sur l'apprentissage profond, Bengio a publié plus de 300 articles universitaires et a été cité plus de 138 000 fois. Ng Enda a dit un jour que les nombreuses études théoriques de Bengio l'avaient grandement inspiré.

En 2018, lui, le « Père des réseaux neuronaux » Geoffrey Hinton et le « Père des réseaux convolutifs » Yann LeCun ont remporté le « Prix Turing » pour avoir été pionniers dans la théorie de la technologie d'apprentissage profond. Tous trois sont également appelés « IA » par. l'industrie de l'IA « Big Three », « Big Three of Deep Learning », « Three Godfathers of AI ».

Bengio, l'un des "Trois géants du Deep Learning", a souligné un jour que le terme IA était abusé. Certaines entreprises ont anthropomorphisé les systèmes d'IA, comme si le système d'IA était une entité intelligente équivalente aux êtres humains. En fait, il n’existe pas encore d’entité intelligente comparable à l’intelligence humaine. Bien sûr, il aime toujours l’IA en tant que technologie.

Bengio a déclaré qu'avant l'émergence de ChatGPT fin 2022, il pensait que les risques réels de l'IA n'apparaîtraient pas avant au moins des décennies. Il fut un temps où il n'était pas très préoccupé par les problèmes de sécurité de l'IA et pensait que les humains étaient loin. de développer une technologie qui pourrait rivaliser avec les humains. Même si la technologie de l'IA est encore à « plusieurs décennies », il suppose que nous pouvons « récolter les bénéfices de l'IA » pendant des années avant d'en affronter les risques.

Mais voilà, le lancement de ChatGPT l’a complètement fait changer d’avis. Il n'en était plus si sûr. Ses hypothèses sur la vitesse de développement de l’IA – et les menaces potentielles que la technologie représente pour la société –Il a été renversé après qu’OpenAI a publié ChatGPT fin 2022, car la technologie d’IA au niveau humain est arrivée.

"J'ai complètement changé d'avis depuis que nous avons enfin des machines qui peuvent nous parler (ChatGPT)", a déclaré Bengio. "Nous avons maintenant des machines IA capables de comprendre le langage. Nous ne nous attendions pas à ce que cela se produise si tôt. Je ne pense pas que quiconque s'y attendait vraiment, pas même ceux qui construisent ces systèmes. Vous pouvez voir que les gens pensaient qu'il pourrait s'écouler des années, des décennies, voire plus, avant que nous atteignions l'intelligence humaine. Au niveau du renseignement, il est difficile de prédire ce qui va se passer – si nous nous retrouverons avec quelque chose de vraiment, vraiment bon ou quelque chose de vraiment, vraiment mauvais, et comment nous y réagirons. C'est ce qui motive mon travail actuel en science et en politique. .»

Après que ChatGPT ait déclenché un débat mondial sur les risques de l'IA, Bengio a commencé à consacrer plus d'énergie à plaider en faveur de la réglementation de l'IA et, avec son collègue universitaire et pionnier de l'IA Geoffrey Hinton, il a publiquement soutenu un projet de loi controversé sur la sécurité de l'IA en Californie, le SB1047, qui. rendre les entreprises responsables des dommages catastrophiques causés par leurs modèles d’IA sans prendre de précautions de sécurité.

Bengio estime qu’il s’agit de la « deuxième proposition la plus importante sur la table », juste derrière le projet de loi européen sur l’IA.

Le 15 août, heure locale, la controversée loi californienne Frontier AI Model Safety Innovation Act (plus tard connue sous le nom de California AI Safety Act SB 1047) a finalement adopté l'examen du comité des crédits de la Chambre des représentants de Californie après avoir considérablement affaibli les dispositions pertinentes.

Le SB 1047 vise à prévenir les incidents de cybersécurité dans lesquels des systèmes d'IA à grande échelle tuent un grand nombre de personnes ou causent des pertes dépassant 500 millions de dollars en obligeant les développeurs à rendre des comptes. Après avoir passé avec succès l'examen, cela signifie que le projet de loi a franchi une étape importante vers la transformation d'une loi et d'un règlement formels, et qu'il constitue également une étape importante dans la surveillance de l'IA aux États-Unis.

Cependant, la California AI Safety Act a été controversée. Li Feifei, professeur à l'Université de Stanford, Yang Likun, scientifique en chef du Meta, et d'autres estiment que le projet de loi finira par nuire à la position de leader de la Californie et même des États-Unis dans le domaine de l'IA. Plus de 100 universitaires ont également publié des articles s'opposant au projet de loi. l'institution a16z a créé un site Web pour détailler les six cas de crime.

Même l'ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, a publié une déclaration contre ce projet de loi, estimant que le projet de loi californien sur la sécurité de l'IA avait de bonnes intentions mais manquait d'une compréhension totale. De nombreux universitaires et dirigeants d'entreprises technologiques californiennes ont exprimé leur opposition au projet de loi. bien.

Le dernier en date à s'opposer au projet de loi californien sur l'IA est OpenAI. OpenAI a publié cette semaine un document affirmant que la législation nuirait à l'innovation en matière d'IA et pourrait avoir un impact « généralisé et significatif » sur la compétitivité des États-Unis en matière d'IA et sur la sécurité nationale.

Bengio, cependant, a déclaré que la loi californienne sur la sécurité de l'IA évite d'être trop prescriptive et utilise plutôt la responsabilité pour garantir que les entreprises d'IA n'ignorent pas les précautions de sécurité "qu'un expert raisonnable ferait". "Cela créera une incitation pour les entreprises afin qu'elles ne deviennent pas les pires étudiants de la classe."

Bengio a noté que les discussions autour de la réglementation de l’IA pourraient être influencées par les investisseurs en capital-risque et les entreprises cherchant à tirer profit de la technologie. « On peut faire des analogies avec le changement climatique, les entreprises de combustibles fossiles, etc. », a-t-il déclaré.

"Ce n'est pas ça, c'est tout le contraire. Ce n'est pas si contraignant. Cela n'exerce pas beaucoup d'influence. Il dit simplement : si vous causez des milliards de dollars de dégâts, vous êtes responsable. Pendant des décennies, tout le calcul Le domaine a été quelque peu non réglementé. Je pense que (l'opposition) est plus idéologique. Je suis vraiment inquiet du pouvoir du lobby et des milliards, voire des quadrillions, que les bénéfices d'Ai rapporteront (a déclaré Stuart Russell, professeur à l'Université de Washington). l'Université de Californie à Berkeley et fondateur du Center for Artificial Intelligence Systems) motivera les entreprises à s'opposer à toute réglementation", a déclaré Bengio.

En ce qui concerne la gestion des risques, Bengio a déclaré : « Je me considère sceptique quant au risque. J’ai entendu de nombreux bons arguments selon lesquels une IA plus intelligente que nous pourrait être très dangereuse. Même avant qu’elle ne soit plus intelligente que nous, elle peut l’être. utilisé par les humains d'une manière extrêmement dangereuse pour la démocratie. Quiconque dit savoir est trop confiant car, en fait, la science n'a aucun moyen d'y répondre de manière vérifiable. Mais si vous êtes agnostique. et lorsque vous réfléchissez à la politique, vous devez protéger le public contre les choses vraiment mauvaises. C'est ce que le gouvernement a fait dans de nombreux autres domaines. Il ne peut pas faire cela dans le domaine de l'informatique et de l'IA.

Bengio a souligné à plusieurs reprises qu’il ne s’attendait pas à ce que les humains maîtrisent si rapidement la technologie vocale de l’IA conversationnelle et qu’elle ait au moins atteint un niveau suffisamment humain.

"Je pense que le désir d'innover rapidement sur des choses dangereuses n'est pas judicieux. En biologie, lorsque les chercheurs ont découvert que des virus dangereux pouvaient être créés grâce à ce qu'on appelle la recherche sur le gain de fonction, ils ont collectivement décidé que nous ne l'avions pas fait. demandez au gouvernement d'établir des règles pour que si vous faites cela, au moins si ce n'est pas contrôlé, vous irez en prison", a déclaré Bengio. "Je suis sûr que vous connaissez la pédopornographie synthétique, peut-être pas si difficile sur le plan émotionnel, mais plus. Et surtout, ces mêmes deepfakes vont déformer la société. Ces deepfakes ne feront que s’améliorer. La vidéo ne suffira pas : la capacité des systèmes actuels et même futurs à persuader les gens de changer d’avis. , une nouvelle étude suisse a comparé GPT-4 aux humains pour voir qui pourrait convaincre des personnes qui n’en avaient clairement aucune idée. La personne qui parle à un humain ou à une machine change d’avis sur quelque chose.

Bengio a noté que « nous devrions adopter un comportement similaire selon le principe de précaution en ce qui concerne l’IA ».

En regardant vers l'avenir,Bengio a souligné,Toutes les applications technologiques de l’IA continueront de modifier les modes de vie humains de manière saine.Par exemple, en termes de biologie, l’IA comprendra comment fonctionne le corps et comment fonctionne chaque cellule, ce qui pourrait révolutionner des domaines tels que la recherche et le développement de la médecine et des médicaments ; en termes de climat, elle peut aider à créer de meilleures batteries, à mieux capturer le carbone ; et un meilleur stockage d'énergie.

"Cela n'est pas encore le cas, mais je pense que ce sont d'excellents produits technologiques que nous pouvons créer avec l'IA. Et en passant, ces applications, pour la plupart, ne sont pas dangereuses. Nous devrions donc examiner ces choses qui peuvent évidemment aider la société. investir davantage pour relever ses défis », a déclaré Bengio à la fin de la conversation.