nouvelles

« marraine de l'intelligence artificielle » li feifei : je ne sais pas ce qu'est l'agi

2024-10-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

source de l'image : université de stanford

êtes-vous confus au sujet de l’intelligence générale artificielle (agi) ? c’est ce qu’openai est obsédé par la création ultime d’une manière qui « profite à toute l’humanité ». vous voudrez peut-être les prendre au sérieux, car ils viennent de lever 6,6 milliards de dollars pour se rapprocher de cet objectif.

mais si vous vous demandez encore ce qu'est exactement l'agi, vous n'êtes pas seul.

jeudi, lors du sommet credo ai sur le leadership en matière d'intelligence artificielle responsable, li feifei, une chercheuse de renommée mondiale souvent surnommée la « marraine de l'intelligence artificielle », a déclaré qu'elle ne savait pas non plus ce qu'était l'agi.à d’autres moments, fei-fei li a discuté de son rôle dans la naissance de l’intelligence artificielle moderne, de la manière dont la société devrait se protéger des modèles d’ia avancés et de la raison pour laquelle elle pense que sa nouvelle start-up licorne world labs va tout changer.

mais lorsqu'on lui a demandé ce qu'elle pensait de la « singularité de l'ia », lee était aussi confuse que nous tous.

"je viens du milieu universitaire en intelligence artificielle et j'ai été formé à des approches plus rigoureuses et fondées sur des preuves, donc je ne savais pas vraiment ce que ces mots signifiaient", a déclaré lee devant une salle comble à san francisco, à côté d'une porte donnant sur le golden gate. les grandes fenêtres du pont."franchement, je ne sais même pas ce que signifie agi. les gens disent que vous le savez quand vous le voyez, et je suppose que je ne l'ai pas vu. en fait, je ne passe pas beaucoup de temps à réfléchir aux mots parce que je pense qu'il y a encore beaucoup de choses plus importantes à faire..."

si quelqu'un sait ce qu'est l'agi, c'est probablement li feifei. en 2006, elle a créé imagenet, le premier ensemble de données de référence et de formation en ia à grande échelle au monde, qui a joué un rôle essentiel dans le catalyseur de notre boom actuel de l'ia. de 2017 à 2018, elle a occupé le poste de scientifique en chef pour l'ia/ml chez google cloud. aujourd’hui, fei-fei li dirige le human center for ai institute (hai) de stanford et sa startup world labs construit des « modèles mondiaux à grande échelle ». (si vous me demandez, ce terme est presque aussi déroutant qu'agi.)

le pdg d'openai, altman, a tenté de définir l'agi dans une interview avec le new yorker l'année dernière.altman décrit agi comme « l'équivalent humain de niveau intermédiaire d'un collègue que vous pouvez embaucher ».(équivalent d'un humain médian que vous pourriez embaucher comme collègue.)

parallèlement, la charte d'openai définit l'agi comme « des systèmes hautement autonomes qui surpassent les humains dans le travail le plus économiquement rentable ».

de toute évidence, ces définitions ne sont pas suffisantes pour une entreprise de 157 milliards de dollars. donc,openai a créé cinq niveaux pour l'évaluation interne de ses progrès vers l'agi. le premier niveau est constitué des chatbots (comme chatgpt), puis des raisonneurs (apparemment, openai o1 est ce niveau), des agents (qui sont censés être le prochain), des innovateurs (des ia qui peuvent aider à inventer des choses), et le dernier niveau est le niveau organisationnel (une ia qui peut aider à inventer des choses). peut compléter le travail de toute l’organisation).

toujours confus ? moi aussi, et li aussi. de plus, cela semble bien plus que ce qu’un collègue humain moyen peut faire.

li a mentionné plus tôt dans la conversation qu'elle était curieuse du concept d'intelligence depuis qu'elle était enfant. cela l’a amenée à se lancer dans des recherches sur l’intelligence artificielle avant que cela ne soit rentable. au début des années 2000, lee a déclaré qu’elle et plusieurs autres préparaient tranquillement le terrain pour ce domaine.

« en 2012, mon imagenet a été combiné avec alexnet et des gpu, ce que beaucoup appellent la naissance de l'intelligence artificielle moderne.elle repose sur trois facteurs clés : le big data, les réseaux de neurones et le calcul gpu moderne.une fois ce moment venu, je pense que l’ensemble du domaine de l’intelligence artificielle et notre monde ne seront plus jamais les mêmes. "

interrogé sur le projet de loi controversé sur l'intelligence artificielle de californie, sb 1047, lee a parlé avec prudence pour éviter de revenir sur la controverse que le gouverneur newsom venait de mettre un terme en opposant son veto au projet de loi la semaine dernière. (nous avons récemment discuté avec l'auteur du sb 1047, qui a préféré rouvrir le débat avec lee.)

"certains d'entre vous savent peut-être que j'ai exprimé mes inquiétudes concernant ce projet de loi auquel j'ai opposé mon veto [sb 1047], mais maintenant j'y réfléchis profondément et j'attends avec impatience", a déclaré lee. "je suis très flatté, ou honoré, que le gouverneur newsom m'ait demandé de participer aux prochaines étapes après le sb 1047."

le gouverneur de californie a récemment invité lee et d’autres experts en ia à former un groupe de travail pour aider l’état à développer des garanties pour les déploiements d’ia. lee a déclaré qu'elle utiliserait une approche fondée sur des preuves dans ce rôle et qu'elle ferait de son mieux pour plaider en faveur de la recherche et du financement universitaires. cependant, elle veut également s'assurer que la californie ne pénalise pas les travailleurs du secteur technologique.

« nous devons vraiment nous concentrer sur les impacts potentiels sur les personnes et nos communautés plutôt que de blâmer la technologie elle-même.…nous punissons les ingénieurs automobiles si une voiture est mal utilisée, intentionnellement ou non, et blesse une personne, par ex.guéou general motors - cela n'a aucun sens. se contenter de punir les ingénieurs automobiles ne rendra pas les voitures plus sûres. ce que nous devons faire, c’est continuer à innover pour adopter des mesures plus sûres, tout en améliorant les cadres réglementaires – qu’il s’agisse du port de la ceinture de sécurité ou des limitations de vitesse – et il en va de même pour l’intelligence artificielle. "

c’est l’un des meilleurs arguments que j’ai entendus en faveur du sb 1047, un projet de loi qui punirait les entreprises technologiques affectées par des modèles d’ia dangereux.

alors que lee conseille l'état de californie sur la réglementation de l'ia, elle dirige également sa startup world labs à san francisco. c'est la première fois que li lance une startup, et elle est l'une des rares femmes à diriger un laboratoire d'intelligence artificielle de pointe.

"nous sommes encore loin d'un écosystème d'ia très diversifié", a déclaré li. "je crois qu'une intelligence humaine diversifiée mènera à une intelligence artificielle diversifiée et conduira à une meilleure technologie pour nous."

au cours des prochaines années, elle est ravie de rapprocher « l’intelligence spatiale » de la réalité. le langage humain, base des modèles linguistiques à grande échelle actuels, a peut-être mis des millions d'années à se développer, tandis que la vision et la perception ont peut-être pris 540 millions d'années, a déclaré li. cela signifie que la création de grands modèles mondiaux est une tâche plus complexe.

"il ne s'agit pas seulement de laisser l'ordinateur voir, mais bien de lui permettre de comprendre l'ensemble du monde tridimensionnel, ce que j'appelle l'intelligence spatiale", a déclaré li."nous ne voyons pas seulement pour nommer les choses... nous voyons vraiment pour faire les choses, naviguer dans le monde, interagir les uns avec les autres, et combler le fossé entre voir et faire nécessite des connaissances spatiales. en tant que technologue, je suis vraiment excité. à propos de ça »

compilé par : chatgpt