notícias

"AI Godfather" Bengio disse: Os seres humanos podem não ser capazes de resolver os riscos da IA ​​​​e problemas de supervisão de políticas em 10 anos

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Notícias do Titanium Media App em 24 de agosto,Yoshua Bengio, um cientista da computação canadense conhecido como o "Padrinho da IA", pioneiro em tecnologia de aprendizagem profunda e vencedor do Prêmio Turing 2018, declarou publicamente que com o lançamento do ChatGPT, o tempo para os riscos da tecnologia de IA foi reduzido .Infelizmente, não podemos usar dez anos para resolver problemas de risco e supervisão política da IA, mas sim um tempo mais curto, pelo que a indústria precisa de agir agora para acelerar a implementação de políticas de segurança da IA.

“É preciso muito tempo para criar políticas, são necessários anos de divergências para serem resolvidas, legislação como esta leva anos para ser promulgada, há processos que precisam ser implementados, são necessários anos para realmente fazer isso direito”, disse Bengio. disse à Bloomberg. Agora preocupe-se, pois pode não haver muito tempo para “acertar”.E o que é pior é que os riscos da IA ​​não são apenas uma questão regulamentar, são um tratado internacional, e precisamos de resolver este problema à escala global.

É relatado que Bengio nasceu em Paris e cresceu no Canadá. Ele agora mora em Montreal, Canadá, e trabalha como professor no Departamento de Ciência da Computação e Computação da Universidade de Montreal. Ele recebeu seu PhD em Ciência da Computação pela Universidade McGill no Canadá em 1991. As principais áreas de pesquisa de Bengio são aprendizagem profunda e processamento de linguagem natural.

Em seus mais de 30 anos de carreira em pesquisa em aprendizagem profunda, Bengio publicou mais de 300 artigos acadêmicos e foi citado mais de 138 mil vezes. Ng Enda disse uma vez que os muitos estudos teóricos de Bengio o inspiraram muito.

Em 2018, ele, o "Pai das Redes Neurais" Geoffrey Hinton e o "Pai das Redes Convolucionais" Yann LeCun ganharam o "Prêmio Turing" por serem pioneiros na teoria da tecnologia de aprendizagem profunda. Os três também são chamados de "IA" por. a indústria de IA "Três Grandes", "Três Grandes do Aprendizado Profundo", "Três Padrinhos da IA".

Bengio, um dos "Três Gigantes do Aprendizado Profundo", certa vez apontou que o termo IA está sendo abusado. Algumas empresas antropomorfizaram sistemas de IA, como se o sistema de IA fosse uma entidade inteligente equivalente aos seres humanos. na verdade, ainda não existe uma entidade inteligente comparável à inteligência humana. Claro, ele ainda adora a IA como tecnologia.

Bengio disse que antes do surgimento do ChatGPT no final de 2022, ele acreditava que os riscos reais da IA ​​não apareceriam por pelo menos décadas. Houve um tempo em que ele não estava muito preocupado com as questões de segurança da IA ​​​​e acreditava que os humanos estavam longe. de desenvolver uma tecnologia que possa rivalizar com os humanos. Embora a tecnologia da IA ​​ainda esteja “a décadas de distância”, ele assume que podemos “colher os benefícios da IA” durante anos antes de enfrentarmos os riscos.

Mas agora, o lançamento do ChatGPT mudou completamente de idéia. Ele não tinha mais tanta certeza. Suas suposições sobre a velocidade do desenvolvimento da IA ​​— e as ameaças potenciais que a tecnologia representa para a sociedade —Foi subvertido depois que a OpenAI lançou o ChatGPT no final de 2022, porque a tecnologia de IA de nível humano chegou.

“Mudei completamente de ideia porque finalmente tínhamos máquinas que podiam falar conosco (ChatGPT)”, disse Bengio. “Agora temos máquinas de IA que podem entender a linguagem. Acho que ninguém realmente esperava isso, mesmo as pessoas que construíram esses sistemas. Você pode ver que as pessoas pensaram que poderia levar anos, décadas ou até mais antes de alcançarmos a inteligência de nível humano. nível de inteligência, é difícil prever o que vai acontecer - se acabaremos com algo muito, muito bom ou algo muito, muito ruim, e como responderemos a isso. ”

Depois que o ChatGPT gerou uma discussão global sobre os riscos da IA, Bengio começou a dedicar mais energia à defesa da regulamentação da IA ​​e, junto com o colega acadêmico e pioneiro da IA ​​Geoffrey Hinton, ele apoiou publicamente um polêmico projeto de lei de segurança de IA da Califórnia, SB1047, que o projeto de lei iria responsabilizar as empresas por danos catastróficos causados ​​pelos seus modelos de IA sem tomar precauções de segurança.

Bengio acredita que esta é a “segunda proposta mais importante sobre a mesa”, perdendo apenas para o projeto de lei sobre IA da UE.

Em 15 de agosto, horário local, a polêmica Frontier AI Model Safety Innovation Act da Califórnia (mais tarde conhecida como California AI Safety Act SB 1047) finalmente foi aprovada na revisão do Comitê de Apropriações da Câmara dos Representantes da Califórnia após enfraquecer significativamente as disposições relevantes.

O SB 1047 visa prevenir incidentes de segurança cibernética em que sistemas de IA em grande escala matam um grande número de pessoas ou causam perdas superiores a 500 milhões de dólares, responsabilizando os desenvolvedores. Depois de ser aprovado na revisão, isso significa que o projeto de lei deu um passo importante para se tornar uma lei e regulamentação formal, e é também um passo importante na supervisão da IA ​​nos Estados Unidos.

No entanto, a Lei de Segurança de IA da Califórnia tem sido controversa. O professor da Universidade de Stanford, Li Feifei, o cientista-chefe da Meta, Yang Likun, e outros acreditam que o projeto acabará prejudicando a Califórnia e até mesmo a posição de liderança dos Estados Unidos no campo da IA. Mais de 100 acadêmicos também publicaram artigos se opondo ao projeto de lei. a instituição a16z criou um site para detalhar os seis casos do crime.

Até mesmo a ex-presidente da Câmara dos EUA, Nancy Pelosi, emitiu uma declaração se opondo a esse projeto de lei, acreditando que o projeto de lei de segurança de IA da Califórnia tem boas intenções, mas carece de compreensão total. Muitos estudiosos e líderes importantes de empresas de tecnologia da Califórnia expressaram oposição ao projeto de lei. bom.

O último a se opor ao projeto de lei de IA da Califórnia é o OpenAI. A OpenAI emitiu um documento esta semana afirmando que a legislação prejudicará a inovação em IA e poderá ter um impacto “amplo e significativo” na competitividade dos Estados Unidos em IA e na segurança nacional.

Bengio, no entanto, disse que a Lei de Segurança de IA da Califórnia evita ser excessivamente prescritiva e, em vez disso, usa a responsabilidade para garantir que as empresas de IA não ignorem as precauções de segurança “que um especialista razoável faria”. “Isso criará um incentivo para as empresas para que não se tornem os piores alunos da turma.”

Bengio observou que as discussões em torno da regulamentação da IA ​​podem ser influenciadas por capitalistas de risco e empresas que procuram lucrar com a tecnologia. “Você pode fazer analogias com as mudanças climáticas, empresas de combustíveis fósseis e assim por diante”, disse ele.

"Não é isso, é exatamente o oposto. Não é tão vinculativo. Não exerce muita influência. Apenas diz: se você causa bilhões de dólares em danos, você é responsável. Durante décadas, todo o cálculo do campo tem sido um tanto desregulamentado de qualquer tipo. Acho que (a oposição) é mais ideológica. Estou realmente preocupado com o poder do lobby e com os trilhões e até quatrilhões que Ai trará (disse Stuart Russell, professor da. (Universidade da Califórnia, Berkeley e fundador do Centro de Sistemas de Inteligência Artificial) motivará as empresas a se oporem a qualquer regulamentação", disse Bengio.

Quando se trata de gestão de risco, Bengio observou: “Considero-me cético em relação ao risco. Já ouvi muitos bons argumentos de que a IA que é mais inteligente do que nós pode ser muito perigosa. usado por humanos de maneiras extremamente perigosas para a democracia. Qualquer um que diga que sabe está excessivamente confiante porque, na verdade, a ciência não tem como responder de forma verificável. Argumentos são todos válidos. e você está pensando em política, você precisa proteger o público de coisas realmente ruins. Isso é o que o governo tem feito em tantas outras áreas. Eles não podem fazer isso na computação e na IA.

Bengio enfatizou repetidamente que não esperava que os humanos dominassem a tecnologia de voz de IA conversacional tão rapidamente e que ela pelo menos atingiu um nível suficientemente humano.

"Acho que o desejo de inovar rapidamente em coisas perigosas é imprudente. Na biologia, quando os pesquisadores descobriram que vírus perigosos poderiam ser produzidos por meio da chamada pesquisa de ganho de função, eles decidiram coletivamente, bem, não o fizemos. Vamos peça ao governo que estabeleça regras para que, se você fizer isso, pelo menos se não for controlado, você vá para a prisão”, disse Bengio. “Tenho certeza de que você conhece a pornografia infantil sintética, talvez não tão desafiadora emocionalmente, mas mais. mais importante, os mesmos deepfakes vão distorcer a sociedade. Esses deepfakes só vão melhorar. O vídeo não vai melhorar o suficiente: a capacidade dos sistemas atuais e até mesmo futuros de persuadir as pessoas a mudarem de ideia. , um novo estudo realizado na Suíça comparou o GPT-4 a humanos para ver quem conseguia convencer pessoas que claramente não tinham ideia de que a pessoa que está conversando com um humano ou uma máquina muda de ideia sobre alguma coisa.

Bengio observou que “devemos adotar um comportamento de princípio de precaução semelhante quando se trata de IA”.

Olhando para o futuro,Bengio enfatizou,Todas as aplicações da tecnologia de IA ainda mudarão o estilo de vida humano de forma saudável.Por exemplo, em termos de biologia, a IA compreenderá como funciona o corpo e como funciona cada célula, o que pode revolucionar campos como a investigação e desenvolvimento da medicina e de medicamentos em termos de clima, pode ajudar a criar melhores baterias, melhor captura de carbono, e melhor armazenamento de energia.

"Isso ainda não está acontecendo, mas acho que esses são ótimos produtos tecnológicos que podemos fazer com IA. E, a propósito, essas aplicações - a maioria delas não são perigosas. Portanto, deveríamos olhar para essas coisas que podem obviamente ajudar a sociedade. investindo mais para enfrentar seus desafios”, disse Bengio ao final da conversa.