notícias

“madrinha da inteligência artificial” li feifei: não sei o que é agi

2024-10-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

fonte da imagem: universidade de stanford

você está confuso sobre inteligência geral artificial (agi)? é isso que a openai está obcecada em criar de uma forma que “beneficie toda a humanidade”. você pode querer levá-los a sério porque eles acabaram de arrecadar us$ 6,6 bilhões para chegar mais perto desse objetivo.

mas se você ainda está se perguntando o que é exatamente agi, você não está sozinho.

na cúpula de liderança em inteligência artificial responsável da credo ai na quinta-feira, li feifei, uma pesquisadora de renome mundial frequentemente chamada de "madrinha da inteligência artificial", disse que também não sabia o que era agi.em outros momentos, fei-fei li discutiu seu papel no nascimento da inteligência artificial moderna, como a sociedade deveria se proteger de modelos avançados de ia e por que ela acha que sua nova startup unicórnio, world labs, mudará tudo.

mas quando questionada sobre o que ela pensava sobre a “singularidade da ia”, lee ficou tão confusa quanto o resto de nós.

“eu venho da academia em inteligência artificial e fui educado em abordagens mais rigorosas e baseadas em evidências, então eu realmente não sabia o que essas palavras significavam”, disse lee em uma sala lotada em são francisco, ao lado de uma porta com vista para o golden gate. as grandes janelas da ponte."francamente, nem sei o que agi significa. as pessoas dizem que você sabe quando vê, e acho que nunca vi. na verdade, não passo muito tempo pensando nas palavras porque acho que ainda há muitas coisas mais importantes para fazer..."

se alguém sabe o que é agi, provavelmente é li feifei. em 2006, ela criou o imagenet, o primeiro conjunto de dados de benchmark e treinamento em ia em grande escala do mundo, que foi fundamental para catalisar nosso atual boom de ia. de 2017 a 2018, ela atuou como cientista-chefe de ia/ml no google cloud. hoje, fei-fei li lidera o human center for ai institute (hai) de stanford, e sua startup world labs está construindo “modelos mundiais em grande escala”. (se você me perguntar, este termo é quase tão confuso quanto agi.)

o ceo da openai, altman, tentou definir agi em uma entrevista ao the new yorker no ano passado.altman descreve a agi como “o equivalente humano de nível médio de um colega de trabalho que você pode contratar”.(equivalente a um ser humano médio que você poderia contratar como colega de trabalho.)

enquanto isso, o estatuto da openai define agi como “sistemas altamente autônomos que superam os humanos na maioria dos trabalhos economicamente valiosos”.

claramente, estas definições não são suficientemente boas para uma empresa de 157 mil milhões de dólares. portanto,a openai criou cinco níveis para avaliação interna do seu progresso em direção à agi. o primeiro nível são os chatbots (como o chatgpt), depois os raciocinadores (aparentemente, openai o1 é este nível), os agentes (que supostamente é o próximo), os inovadores (ias que podem ajudar a inventar coisas) e o último nível é o nível organizacional (ia que pode completar o trabalho de toda a organização).

ainda confuso? eu também, e li também. além disso, parece muito mais do que um colega humano médio pode fazer.

li mencionou anteriormente na conversa que tem curiosidade sobre o conceito de inteligência desde criança. isso a levou a começar a pesquisar inteligência artificial antes que ela se tornasse lucrativa. no início dos anos 2000, lee disse que ela e vários outros estavam silenciosamente preparando o terreno para o campo.

“em 2012, meu imagenet foi combinado com alexnet e gpus – o que muitos chamam de nascimento da inteligência artificial moderna.é impulsionado por três fatores principais: big data, redes neurais e computação moderna em gpu.quando esse momento chegar, acho que todo o campo da inteligência artificial e nosso mundo nunca mais serão os mesmos. "

quando questionado sobre o polêmico projeto de lei de inteligência artificial da califórnia, sb 1047, lee falou com cuidado para evitar revisitar a controvérsia que o governador newsom acabara de encerrar ao vetar o projeto na semana passada. (recentemente conversamos com o autor do sb 1047, que preferiu reabrir o debate com lee.)

“alguns de vocês devem saber que expressei minhas preocupações sobre este projeto de lei vetado [sb 1047], mas agora estou pensando profundamente sobre isso e ansioso”, disse lee. “estou muito lisonjeado ou honrado que o governador newsom tenha me pedido para fazer parte das próximas etapas após o sb 1047.”

o governador da califórnia convidou recentemente lee e outros especialistas em ia para formar um grupo de trabalho para ajudar o estado a desenvolver salvaguardas para implantações de ia. lee disse que usará uma abordagem baseada em evidências na função e fará o possível para defender a pesquisa acadêmica e o financiamento. no entanto, ela também quer garantir que a califórnia não penalize os trabalhadores da tecnologia.

“precisamos realmente nos concentrar nos impactos potenciais sobre as pessoas e nossas comunidades, em vez de culpar a própria tecnologia…punimos os engenheiros automotivos se um carro for mal utilizado, intencionalmente ou não, e ferir uma pessoa – por exemplo,fordou general motors - não faz sentido. apenas punir os engenheiros automóveis não tornará os carros mais seguros. o que precisamos de fazer é continuar a inovar no sentido de medidas mais seguras, ao mesmo tempo que melhoramos os quadros regulamentares – sejam cintos de segurança ou limites de velocidade – e o mesmo se aplica à inteligência artificial. "

este é um dos melhores argumentos que ouvi a favor do sb 1047, um projeto de lei que puniria as empresas de tecnologia afetadas por modelos perigosos de ia.

enquanto lee assessora o estado da califórnia sobre regulamentação de ia, ela também dirige sua startup world labs em são francisco. esta é a primeira vez que li lança uma startup e ela é uma das poucas mulheres que lidera um laboratório de inteligência artificial de ponta.

“ainda estamos longe de um ecossistema de ia muito diversificado”, disse li. “acredito que a inteligência humana diversificada levará a uma inteligência artificial diversificada e a uma tecnologia melhor para nós.”

nos próximos anos, ela está entusiasmada em aproximar a “inteligência espacial” da realidade. a linguagem humana, a base dos actuais modelos linguísticos em grande escala, pode ter levado milhões de anos a desenvolver-se, enquanto a visão e a percepção podem ter levado 540 milhões de anos, disse li. isto significa que criar grandes modelos mundiais é uma tarefa mais complexa.

“não se trata apenas de deixar o computador ver, mas de realmente permitir que o computador entenda todo o mundo tridimensional, que chamo de inteligência espacial”, disse li."não vemos apenas para nomear as coisas... realmente vemos para fazer coisas, navegar pelo mundo, interagir uns com os outros, e preencher a lacuna entre ver e fazer requer conhecimento espacial. como tecnólogo, estou muito entusiasmado sobre isso”

compilado por: chatgpt