notícias

entrevista de 10.000 palavras com ultraman: liderando a revolução da ia ​​​​no centro da tempestade, um diálogo sobre a turbulência e o futuro da tecnologia

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

texto: web3 sky city · senhor da cidade

já faz um tempo, mas um vídeo completo da entrevista cara a cara do ceo da openai, sam altman, após retornar à openai, foi lançado. este é o momento em que greg está de férias, a nova empresa de ilya é estabelecida e surgem notícias sobre as perdas contínuas e novos financiamentos da openai.

esta entrevista foi apresentada pelo famoso apresentador trevor cui wa. o que é um pouco surpreendente é que trevor tem um conhecimento muito profundo da tecnologia de ia, melhor do que 95% dos anfitriões não técnicos.

nesta entrevista, trevor e sam tiveram uma conversa ampla discutindo inteligência artificial, openai e a carreira e jornada pessoal de sam. a partir de seu retorno à openai, sam compartilhou como refletiu sobre a relação entre as missões pessoais e empresariais em meio a uma série de caos e incerteza, e falou sobre a direção futura do desenvolvimento da agi.

sam não apenas elaborou o enorme potencial da agi em cognição, produtividade e efeitos sociais, mas também respondeu aos desafios da segurança da ia, questões éticas, compensações capitalistas e revolução tecnológica. ao mesmo tempo, ele discutiu abertamente os seus pensamentos sobre a governança corporativa da openai, como equilibrar o progresso tecnológico e a responsabilidade social, e enfatizou a importância da transparência e da governança tecnológica democrática.

a jornada para recuperar o comando da openai: sam altman reflete sobre sua breve saída e conta como redescobriu seu amor pela openai e sua missão durante essa turbulência. embora tenha sido demitido por um breve período, ele enfatizou que aprendeu com a experiência e sentiu a importância de continuar a avançar no desenvolvimento da agi.

o futuro da agi e da revolução tecnológica: sam altman acredita firmemente que a agi provocará uma revolução tecnológica sem precedentes, embora as mudanças sociais e económicas possam não ser tão rápidas quanto o esperado. ele acredita que embora a tecnologia se aproxime cada vez mais da agi, o seu impacto real na sociedade será gradual, permitindo que a sociedade se adapte gradualmente às mudanças provocadas pelas novas tecnologias.

o equilíbrio entre capitalismo e ia: na entrevista, sam altman discute detalhadamente como a openai opera dentro de um sistema capitalista, mantendo sua intenção original quando foi criada, que é garantir que os benefícios da agi sejam amplamente distribuídos. embora a openai precise de competir no capitalismo para obter os recursos necessários ao desenvolvimento, ele enfatizou que o progresso tecnológico não deve ser feito à custa da ética e da responsabilidade social.

governança democrática e impacto social da ia: sam altman fez uma observação importante, ou seja, a governança da tecnologia de ia deveria ser mais democrática. ele acredita que o público deveria estar mais envolvido na decisão de como os sistemas de ia são usados ​​e na definição de regras, e enfatizou a importância da transparência técnica e da governança diversificada.

preocupações com a segurança e ética da ia: na entrevista, sam altman admitiu que embora a ia tenha um enorme potencial, ela também apresenta muitos riscos potenciais à segurança. apontou especificamente os riscos da ia ​​na segurança informática, na biologia sintética, etc., e apelou à sociedade para que promova o desenvolvimento tecnológico de forma responsável.

uma visão mais ampla para inteligência artificial: sam altman está otimista quanto ao futuro. ele acredita que, à medida que a agi amadurece, todos terão mais oportunidades de perseguir interesses pessoais e que a tecnologia melhorará enormemente a educação global e os padrões médicos. embora a inovação tecnológica traga mudanças nos padrões sociais e de trabalho, ele acredita que, em última análise, o espírito humano e a criatividade nos impulsionarão para um futuro mais próspero.

trevor:

obrigado por reservar um tempo para ser entrevistado.

sam: obrigado.

trevor: você não acha que este é um momento louco?

sam: foi o momento mais louco que já experimentei.

trevor:

sim, você está no centro de tudo. eu me pergunto como é isso. porque sou apenas um observador ávido deste campo e deste mundo, sabe? eu sinto que você é o único afetado por tudo isso. quero dizer, sam altman está na lista da revista time para personalidade do ano.

sam: ainda bem que não entendi.

trevor: que bom que você não entendeu?

sam: sim, claro.

trevor: por quê?

sam: já recebi mais atenção este ano do que em toda a minha vida.

trevor: ok, ok. então você não gosta de atenção? você não quer atenção?

sam:

não, isso é muito cruel. de certa forma, é interessante. isso é útil em alguns aspectos. mas para a vida pessoal pesa a qualidade de vida. sim, definitivamente não. mas é assim que é agora. foi para isso que me inscrevi.

trevor: sim, agora é hora de notoriedade.

sam: sim.

trevor: as pessoas reconhecem você na rua?

sam:esta é uma troca muito ruim. pois é, sinto que você nunca... tenho certeza que isso acontece com você também, mas não posso mais permanecer anônimo.

trevor:sim, mas as pessoas não me perguntam sobre o futuro.

sam:eles não perguntam se você destruirá o mundo.isso mesmo. há uma pequena diferença. as pessoas podem querer tirar uma foto comigo. essa é a extensão disso. muitas fotos de grupo.

trevor: bem, parabéns. você é o ceo do ano da revista time.

sam: sim.

trevor:

este foi provavelmente um dos momentos mais estranhos porque acho que foi na época em que a revista time estava tomando essa decisão. algumas semanas atrás, você talvez não fosse o ceo do ano. não sei se eles ainda podem lhe dar esse prêmio. suponho que seja para o seu trabalho anterior.

sam: sim, não sei. não sei como isso funciona.

trevor: qual é a sensação de ser ceo novamente?

sam:

ainda estou reprogramando a realidade, para ser sincero. de certa forma, foi ótimo porque ao longo do processo aprendi muito sobre o quanto amo esta empresa, sua missão e suas pessoas. e, várias vezes ao longo do caminho, experimentei toda a gama de emoções humanas num curto período de tempo. mas um momento muito claro para mim é que tudo isso aconteceu numa sexta-feira à tarde, numa sexta-feira ao meio-dia. na manhã seguinte, sábado, vários membros do conselho me ligaram e perguntaram se estariam dispostos a discutir um retorno.

tenho sentimentos muito confusos sobre isso. mas, eventualmente, ficou muito claro para mim que eu queria voltar.

eu realmente amo este lugar e o que estamos fazendo. acho que é importante para o mundo e é o que mais me importa.

trevor:

no mundo da tecnologia, contratar e demitir é algo com o qual todos precisam se acostumar.

eu sei que você foi demitido do y combinator no passado. todo mundo nesta situação tem uma história.

sam: não quero falar sobre isso.

trevor: diga-me, diga-me. essas coisas, você faz sua pesquisa e parte daí.

sam:

decidi cerca de um ano antes (deixando yc) que queria vir para a openai.

foi uma transição complicada. mas eu estava trabalhando no openai e no yc ao mesmo tempo e tinha certeza de que queria vir para o openai. nunca me arrependi disso.

trevor:então você nunca foi demitido. é uma situação difícil de se viver como ser humano.

sam: isso é uma demissão?

trevor: e se você fosse demitido e recontratado imediatamente?

sam:o que eu ia dizer era mais do que apenas... isso é simplesmente brutal... acho que não deveria falar sobre isso agora.

isso é uma coisa muito dolorosa. para mim, pessoalmente, como ser humano, pareceu muito injusto e a forma como foi tratado foi realmente injusta.

trevor:

eu posso imaginar. muita gente vai falar sobre ser demitido.

isso se tornou uma tendência durante a pandemia, especialmente quando as pessoas falavam sobre o envio de um e-mail ou vídeo para um grupo, e então milhares de funcionários foram demitidos.

você raramente pensa que isso aconteceria com o ceo de uma empresa. além do mais, você não pensaria que isso aconteceria com o ceo que muitos chamam de “steve jobs” desta geração e do futuro.

a propósito, você não se chama assim.

sam: claro que não.

trevor:

isso é o que muitas pessoas dizem sobre você, mas não acho justo chamá-lo de steve jobs desta geração. na minha opinião, você é o prometeu desta geração. você realmente é.

parece-me que você roubou o fogo de deus. vocês estão na vanguarda dessa transformação, e agora estamos vivendo uma era em que a ia já foi matéria de ficção científica e lenda, e agora vocês estão na vanguarda de algo que pode mudar a civilização para sempre.

você acha que o futuro mudará de maneira geral?

sam:

eu penso que sim.

é perfeitamente possível que eu esteja errado sobre o que estou prestes a dizer, mas sinto que vamos construir algo com o qual quase todos concordam, que é agi. definir inteligência artificial geral (agi) é muito difícil, mas construiremos um sistema para o qual as pessoas olharão e dirão: “ok, você conseguiu”. este sistema é a inteligência artificial geral, um sistema que está no nível humano ou além dele.

trevor:

antes de explicar em detalhes, qual você acha que é a maior diferença entre a percepção das pessoas sobre a ia e a inteligência artificial geral?

sam:

à medida que nos aproximamos deste campo, a forma como o definimos torna-se muito importante e há diferenças. para alguns, agi refere-se a um sistema que pode realizar alguma parte importante do trabalho humano atual. é claro que encontraremos novos empregos e novas coisas para fazer. mas para outros, agi refere-se a um sistema que pode ajudar a descobrir novos conhecimentos científicos. obviamente, estes são marcos muito diferentes, com impactos muito diferentes no mundo.

mesmo que eu esteja cansado do termo e nem consiga parar de usá-lo, há um motivo pelo qual não gosto mais dele. o termo é agi. acho que para a maioria das pessoas agora significa apenas uma ia muito inteligente, mas além disso tornou-se muito vago. acho que é principalmente porque estamos nos aproximando.

o que estou tentando dizer é que vamos criar agi, como você quiser chamar. pelo menos a curto e médio prazo, mudará o mundo muito menos do que as pessoas pensam. no curto prazo, penso que a sociedade tem muita inércia, a economia tem muita inércia e a forma como as pessoas vivem as suas vidas também tem muita inércia. isto pode ser saudável e benéfico à medida que gerimos esta transição. todos nós fazemos as coisas de uma certa maneira e estamos acostumados com isso. a sociedade como superorganismo também se comporta de uma certa maneira e está acostumada com isso.

olhando o que aconteceu com o gpt-4, acho que é instrutivo. quando o lançamos pela primeira vez, as pessoas tiveram um momento de pânico real e pensaram: “uau, não pensei que isso fosse acontecer, mas então eles seguiram com suas vidas”. isso muda as coisas e as pessoas o usam. é uma técnica melhor do que nada. claro, gpt-4 não é muito bom, 5, 6, 7, não importa qual, será muito melhor. porém, a versão 4 da interface chatgpt, acho que é o momento que muita gente deixa de levar a sério para levar muito a sério. no entanto, a vida continua.

trevor:

você acha que isso é bom para a humanidade e a sociedade? a vida deveria continuar assim? como um dos “pais” deste produto, um dos “pais” desta ideia, você gostaria que todos parássemos, parássemos um momento e avaliássemos onde estamos agora?

sam:

acho que a resiliência dos humanos, individual e coletivamente, é notável. estou muito entusiasmado com a nossa capacidade de absorver e adaptar-se a novas tecnologias e mudanças e fazer com que se sintam parte do mundo. é realmente maravilhoso.

acho que covid é o exemplo mais recente de que estamos vendo isso. o mundo se adaptou rapidamente e logo pareceu normal. outro exemplo menos sério, mas instrutivo, é a pilha de notícias sobre ovnis. isso foi há alguns anos. muitos dos meus amigos que já foram completamente céticos diriam que talvez aqueles fossem ovnis reais ou alienígenas ou algo assim. mesmo assim, eles foram trabalhar e brincaram com os filhos no dia seguinte.

trevor: sim, pensei, o que mais você pode fazer? se eles estão voando, eles estão voando.

então, eu gostaria que tivéssemos passado mais tempo avaliando o progresso? estamos fazendo isso como um mundo, e acho isso ótimo. acredito firmemente que a implantação iterativa destas tecnologias é importante. não queremos desenvolver inteligência artificial geral (agi) em um laboratório secreto, ninguém sabe que isso está por vir, e então, de repente, lançá-la no mundo para que as pessoas tenham que dizer, hum, aqui estamos, então. ..

trevor:

você acha que temos que nos adaptar gradativamente a isso e crescer com ele como tecnologia?

sam:

sim.

portanto, a conversa agora, onde a sociedade, os nossos líderes e as nossas instituições estão realmente a utilizar estas tecnologias para ter uma ideia do que pode fazer, do que não pode fazer, onde estão os riscos, quais são os benefícios, penso que é excelente. acho que, de certa forma, talvez a melhor coisa que fizemos em nossa missão foi repetir nossa estratégia de implantação. poderíamos tê-lo construído em segredo e passado mais anos construindo-o e depois lançado tudo de uma vez, o que teria sido terrível.

trevor:

hoje entramos no prédio da openai, que parece um pouco uma fortaleza e parece um futuro lar. vi que você tinha uma postagem dizendo que veio como convidado.

eu estava tipo, oh meu deus, isso é estranho. é como ir para casa, mas não para casa, mas ainda assim para casa.

sam:

deveria parecer um momento muito estranho, como usar um crachá de convidado aqui. mas sinto que todos estão exaustos e cheios de adrenalina. realmente não houve aquela sensação de grande momento que eu esperava. definitivamente houve alguns momentos que valeram a pena refletir e contar sobre aquele dia. por exemplo, um dos momentos de maior orgulho foi quando estava muito cansado e distraído. achamos que o conselho me traria de volta como ceo naquele dia, mas caso isso não acontecesse, fui entrevistado para um nível 3, nosso cargo de engenheiro de software de nível mais baixo, por um de nossos melhores funcionários. então ele me deu uma resposta definitiva. foi um momento de muito orgulho.

a parte que fica na minha memória daquele dia é que eu ainda tinha essa habilidade. embora o distintivo não seja tão profundo quanto eu gostaria.

trevor:

adoraria saber o que você acha que fiz de certo como ceo para obter o apoio que vemos publicamente dos funcionários da openai.

quando isso veio à tona, eu não ia pedir detalhes porque sabia que você não poderia comentar o conteúdo da investigação interna. mas eu sei que você pode falar um pouco sobre a sensação geral da empresa e o que está acontecendo ultimamente. raramente vemos coisas acontecerem como o openai. você tem essa empresa e essa ideia que, para a maioria das pessoas no planeta, não existia nem por um minuto. no minuto seguinte, você libera o chatgpt. este simples prompt, apenas uma pequena caixa de bate-papo, muda o mundo. acho que você atingiu 1 milhão de usuários no tempo mais rápido de todos os tempos. acho que foram cinco dias. sim, cinco dias. depois atingiu rapidamente 100 milhões de pessoas.

muito rapidamente, eu sei em nível anedótico, para mim, essa coisa deixou de ser desconhecida para todas as pessoas no mundo. estou explicando isso para as pessoas, tentando fazê-las entender. tenho que mostrar isso a eles como poesia e algo simples que eles possam entender. então as pessoas começaram a me contar sobre isso. agora tornou-se um conceito onipresente e as pessoas estão lutando para descobrir o que é e o que significa.

mas, por outro lado, existe uma empresa que tenta controlar e moldar o futuro de alguma forma. e as pessoas apoiam você. vimos a história, sam altman estava fora e não era mais ceo. então tudo ficou turbulento. não sei se você viu alguns dos rumores. eles são simplesmente loucos. uma das coisas mais malucas que já vi é alguém dizendo: isso é ridículo e engraçado. dizem, e eu sei por fontes confiáveis, que sam foi demitido por tentar fazer sexo com uma ia.

sam:

eu nem sei como responder. quando vi aquela mensagem, pensei... acho que neste momento deveria negar isso oficialmente, simplesmente não aconteceu.

trevor:

acho que é improvável que isso aconteça porque as pessoas não entendem a combinação dos dois. mas o que me impressiona é que o sensacionalismo deste incidente parece ter colocado a openai sob um holofote diferente num momento diferente.

uma das grandes coisas é o apoio que você recebe da equipe, fazendo com que as pessoas se aproximem e digam, não importa o que aconteça, vamos apoiar sam. esta situação não é comum nas empresas. freqüentemente, ceos e funcionários estão desconectados até certo ponto.

mas parece mais do que apenas uma equipe.

sam:

o que se segue não é falsa modéstia. há muitos lugares onde eu aceitaria muitos elogios. mas neste caso, além de ser porta-voz, a culpa não é inteiramente minha. mas acho que o que fazemos bem é que temos a missão de realmente convencer as pessoas da sua importância.

acho que o que está acontecendo é que as pessoas estão percebendo que a missão, a organização, a equipe na qual trabalhamos tanto e fazemos tanto progresso, mas há muito mais a fazer, está sob uma ameaça real como essa. acho que foi isso que desencadeou a reação. na verdade, não se trata de mim pessoalmente, embora espero que as pessoas gostem de mim e pensem que estou fazendo um bom trabalho. tem a ver com a lealdade partilhada que todos sentimos e com o sentido de responsabilidade para fazer as coisas e, esperançosamente, maximizar as nossas hipóteses de atingir esse objectivo.

trevor:

no nível mais alto, qual você acha que é a missão? está atingindo a inteligência artificial geral?

sam:

deixe que os benefícios da agi sejam distribuídos tão amplamente quanto possível e enfrente com sucesso todos os desafios de segurança.

trevor:

este é um segundo ponto interessante. eu adoraria conversar com você mais tarde para discutir os aspectos de segurança disso com mais profundidade. quando você olha para a openai como uma organização, seu nascimento é realmente estranho. sinta-se à vontade para me corrigir se eu estiver errado, mas parece que foi fundado com um forte foco na segurança. você reúne um grupo de pessoas e diz: queremos começar uma organização, uma empresa, um coletivo que se dedique a criar a inteligência artificial mais ética para o benefício da sociedade. você pode até ver isso refletido na distribuição de lucros da empresa, na forma como os investidores obtêm seus lucros e assim por diante.

mas até o openai mudou em algum momento. você acha que pode resistir às forças do capitalismo? quer dizer, há muito dinheiro envolvido. você acha que pode realmente manter um mundo onde o dinheiro não define o que você está fazendo e por que está fazendo isso?

sam:

isso tem que ser um fator. tipo, se pensarmos apenas no custo de treinar estes sistemas, temos que encontrar alguma forma de competir, por falta de um termo melhor, num espaço capitalista. mas não creio que essa seja a nossa principal motivação. a propósito, eu amo o capitalismo. acho que tem falhas enormes, mas em relação a qualquer outro sistema que o mundo já tentou, acho que ainda é a melhor coisa que criamos. mas isso não significa que não devemos nos esforçar para fazer melhor. acho que vamos encontrar maneiras de gastar o enorme e recorde capital que precisamos para continuar a avançar na vanguarda desta tecnologia. este foi um dos nossos primeiros aprendizados. no entanto, essa coisa é muito mais cara do que pensávamos.

sabíamos que tínhamos essa ideia para um sistema expandido, mas simplesmente não sabíamos como seria.

trevor:

você sempre foi um grande fã de extensões, li isso sobre você. um de seus mentores, que hoje é um de seus parceiros de investimento em injeção, disse que sempre que você faz uma pergunta a sam, a primeira coisa que vem à mente dele é: como podemos resolver esse problema? como podemos resolver isso? a segunda coisa que ele diz é: como dimensionamos essas soluções?

sam: quem disse isso? eu não me lembro. sou péssimo com nomes.

trevor: interessante. mas sei que foi alguém do seu trabalho quem disse isso.

sam:

interessante. mas não ouvi ninguém dizer isso sobre mim.

mas acho que esta foi uma observação que fiz em muitas empresas e setores diferentes: a escala muitas vezes leva a resultados surpreendentes. portanto, dimensionar massivamente esses modelos de ia leva a resultados muito surpreendentes. o dimensionamento massivo não apenas o torna melhor em todos os aspectos óbvios, mas também em alguns aspectos não óbvios. existem benefícios não óbvios para o crescimento das empresas. existem benefícios sutis em expandir uma empresa como a y combinator. não creio que isso seja levado a sério.

no nosso caso, é importante saber o quão importante é escalar nos estágios iniciais. se tivéssemos pensado de forma mais inteligente ou tido mais coragem, teríamos feito movimentos maiores em primeiro lugar. mas é realmente difícil dizer que vou construir um computador maior em us$ 10 bilhões. então não fizemos isso. demoramos um pouco mais para entender isso do que deveríamos, mas finalmente conseguimos. agora vemos quanta escala precisamos.

eu acho que o capitalismo é legal. não tenho nada contra o sistema. não, isso não é verdade. tenho muitas objeções a este sistema, mas tenho de admitir que nada melhor do que ele ainda foi descoberto.

trevor: você perguntou ao chatgpt se eles poderiam projetar um sistema?

sam: eu tenho uma ideia diferente...talvez não esteja projetando um novo sistema. sim. mas faço muitas perguntas sobre como a ia e o capitalismo se cruzam e o que isso significa.

uma das coisas é que estávamos certos sobre a coisa mais importante sobre as nossas suposições iniciais, que era a de que a ia iria acontecer. o aprendizado profundo é possível... e por falar nisso, muita gente ri disso. é exatamente isso.

trevor: oh meu deus, riram de nós sem piedade.

sam:

sim.

mesmo com algumas ideias sobre como conseguir isso, acertamos. mas estávamos errados sobre muitos detalhes, o que é comum e normal na ciência. antes de os modelos de linguagem entrarem em ação, tínhamos uma visão muito diferente para a construção deste sistema. tínhamos um conceito muito diferente de construção de agi na época. não tínhamos a ideia de que esta seria uma ferramenta iterativa que estava em constante aprimoramento e com a qual você poderia conversar como um ser humano. portanto, ficamos muito confusos sobre o que implicaria a construção de uma agi. estamos pensando no tempo antes e depois do agi. então você precisa entregá-lo a outros sistemas e outras governanças.

agora acho que pode, e estou muito feliz com isso porque acho que é mais fácil de navegar. acho que pode ser, não quero dizer apenas mais uma ferramenta porque é diferente em muitos aspectos, mas de certa forma criamos uma nova ferramenta para a humanidade. adicionamos algumas coisas à caixa de ferramentas. as pessoas farão todo tipo de coisas incríveis com ele, mas ainda serão humanos planejando o futuro, e não alguma agi no céu. você pode fazer coisas que não podia fazer antes. também posso fazer coisas que não conseguia fazer antes. podemos fazer mais. nesse sentido, posso imaginar um mundo onde cumpriremos a nossa missão através da criação de ferramentas realmente boas que tenham um grande impacto nas capacidades humanas e muito mais. estou muito animado com isso.

por exemplo, adoro o fato de oferecermos chatgpt gratuito e sem anúncios. porque pessoalmente acho que a publicidade sempre foi um problema na internet. mas acabamos de lançar essa ferramenta. essa é a desvantagem do capitalismo, sim, sim. um deles. pessoalmente, acho que há desvantagens maiores, mas disponibilizamos essa ferramenta e as pessoas podem usá-la gratuitamente. não queremos transformá-los em produtos. não queremos que eles usem um pouco mais. acho que isso mostra um caminho interessante onde podemos fazer mais.

trevor:

então, vamos fazer isso. há muitas coisas que espero abordar durante a nossa conversa e, obviamente, não poderemos responder a todas. mas há algumas reflexões, alguns pontos e algumas áreas que espero que possamos explorar. acho que a primeira e mais oportuna pergunta é: o que acontecerá no futuro para a empresa? para onde você acha que isso irá? uma coisa que considero particularmente interessante é a composição do novo conselho, especialmente para a openai, onde antes havia mulheres no conselho e agora não há, e antes não havia incentivos financeiros para os membros do conselho e agora há. gostaria de saber se você está preocupado com o fato de a proteção que você ajudou a implementar ter desaparecido e de você ter um conselho que não está mais focado em proteger as pessoas ou definir um futuro mais seguro, mas um conselho focado em ganhar dinheiro e ficando tão grande e forte quanto possível?

sam:

acredito que as nossas estruturas e conselhos de governação atuais e anteriores não estão a funcionar em alguns aspectos importantes. por isso, apoio totalmente a identificação de formas de melhorar e apoiarei o conselho e o seu trabalho para conseguir isso.

é evidente que o conselho precisa crescer e diversificar-se, e penso que isso acontecerá rapidamente. precisamos de ouvir as vozes daqueles que falarão em nome daqueles que tradicionalmente não têm sido defendidos, e não só de pensar muito cuidadosamente sobre a segurança da ia, mas também de aprender com as lições do passado sobre como construir interacções com todos aspectos da sociedade estes são sistemas muito complexos. fazer o melhor trabalho possível, ao mesmo tempo que se mitigam os efeitos negativos e se partilham os benefícios, tudo isto precisa de ser representado.

então, estou feliz por ter uma segunda chance de acertar todas essas coisas que obviamente erramos antes. coisas como diversidade, garantir que representamos todos os principais grupos de partes interessadas que precisam de ser representados, descobrir como tornar isto mais democrático, continuar a pressionar o governo a tomar algumas decisões para governar esta tecnologia. sei que não é perfeito, mas acho que é melhor do que qualquer outra coisa que possamos imaginar atualmente. é importante envolver-se mais com a nossa comunidade de usuários e deixá-los ajudar a estabelecer limites em torno do uso desta tecnologia.

uma importante direção futura será a expansão do conselho de administração e da estrutura de governança. novamente, sei que nosso conselho atual é pequeno, mas acho que eles estão muito comprometidos com todas as coisas que você acabou de falar.

e há outra grande categoria de questões. se você tivesse me perguntado há uma semana, eu teria dito que estabilizar a empresa era minha principal prioridade. mas pelo menos internamente, me sinto muito bem com isso. não perdemos um cliente, não perdemos um funcionário. continuamos a crescer, o que é incrível. continuamos a apresentar novos produtos. as nossas principais parcerias parecem fortalecidas e não prejudicadas. nesse sentido, tudo correu conforme o planejado. e acho que os planos de pesquisa e produtos para o primeiro semestre do próximo ano parecem melhores e mais direcionados do que nunca.

trevor:

sempre me pego pensando em você como pessoa quando acontece toda essa coisa de sala de reuniões. sempre que há uma tempestade, estou sempre interessado no que está acontecendo no centro da tempestade. estou curioso, onde você estava quando tudo isso começou? tipo, o que você estava fazendo? o que está acontecendo em seu mundo em nível pessoal?

sam:

a razão pela qual rio é porque o que as pessoas dizem sobre mim é que me sinto como se estivesse no centro de um furacão e tudo girasse ao meu redor e ainda estou muito calmo. desta vez, as coisas não saíram como esperado.

é uma experiência, como estar no meio de uma tempestade, mas não calma. eu estava em las vegas assistindo a uma corrida de f1.

trevor: você é fã de f1?

sam: estou.

trevor: qual time você torce? você tem um favorito específico?

sam:

para ser honesto, acho que verstappen é tão bom que é difícil dizer qual time apoiar. mas sinto que essa é provavelmente a resposta que todos diriam.

trevor:

na verdade, depende de quando eles começaram a prestar atenção no movimento. sou fã de schumacher porque foi quando comecei a assistir corridas. primeiro foi nigel mansell, depois ayrton senna, entende o que quero dizer?

verstappen é muito preciso e posso ver porque é tão popular.

sam:

embora eu esteja um pouco cansado de vê-lo vencer tantas vezes, ele é realmente incrível.

naquela noite, cheguei na quinta-feira. alguém se esqueceu de soldar uma tampa de bueiro, então na primeira volta ela explodiu, como se tivesse explodido um dos motores da ferrari, fazendo com que o treino fosse suspenso. não consegui ver o jogo, não vi nenhuma ação durante todo o fim de semana.

recebi uma ligação no meu quarto de hotel, não tinha ideia do que seria e fui demitido do emprego pelo conselho. parecia um sonho e me senti confuso. tudo estava confuso e não parecia real. foi obviamente triste e doloroso, mas a emoção dominante na época foi a confusão, e parecia que eu estava no meio de neblina e fumaça. não tenho absolutamente nenhuma ideia do que está acontecendo.

a forma como isso aconteceu foi inédita, foi uma loucura. na meia hora seguinte, meu telefone recebeu tantas mensagens que o imessage travou no meu telefone. essas mensagens vieram de todos e o telefone ficou completamente inutilizável à medida que as notificações continuavam aparecendo. o imessage chegou a um ponto em que parou um pouco, as mensagens atrasaram e depois todas as mensagens foram marcadas como lidas, então eu não conseguia nem dizer com quem estava falando, foi um caos.

eu estava conversando com a equipe aqui, tentando descobrir o que estava acontecendo. como se a microsoft também estivesse ao telefone e outras partes também estivessem em contato. toda a situação era realmente perturbadora e não parecia real. me acalmei um pouco e comecei a pensar no futuro. quero muito trabalhar em agi (inteligência artificial geral). se não conseguir no início, continuarei tentando. estou pensando na melhor abordagem.

greg desistiu, algumas outras pessoas desistiram e comecei a receber uma enxurrada de mensagens de pessoas querendo trabalhar comigo. naquela época, voltar ao openai estava completamente fora de minha mente. posso imaginar o que o futuro reserva, mas não entendo bem o tamanho deste evento do setor, porque não assisto realmente às notícias. posso sentir a enorme quantidade de mensagens sendo recebidas.

trevor:

porque você está literalmente no meio de uma tempestade.

sam:

sim. eu só quero apoiar o openai, descobrir o que fazer a seguir, tentar entender o que está acontecendo. depois voei de volta para a califórnia, conheci algumas pessoas e comecei a me sentir muito focado no futuro. mas também desejo tudo de bom à openai. dormi pouco durante quase toda a noite e muita conversa aconteceu ao mesmo tempo. o que se seguiu foi um fim de semana louco. tenho certeza de que ainda não aceitei totalmente tudo isso e ainda estou um pouco abalado e tentando juntar os cacos. tenho certeza de que sentirei mais sobre isso quando tiver tempo de sentar e processar.

trevor:

você sente que precisa voltar a tudo de uma vez? porque, segundo você, você está nesta missão. você pode ver a motivação em seus olhos e o mundo atingiu um ponto sem volta. você está indo em uma determinada direção e, de repente, parece que não consegue alcançá-la na área em que está. mas como você disse, a microsoft interveio e satya nadella disse: venha trabalhar conosco e reconstruiremos a equipe.

se há uma coisa em que as pessoas concordam sobre sam altman é que ele é tenaz. ele é intransigente e acredita que se você tem um objetivo e acredita em algo, não deve deixar a vida atrapalhar. e você parece estar caminhando nessa direção. você não disse nada publicamente sobre o openai nem o menosprezou de forma alguma. mas isso parece estar colocando muita pressão sobre você.

sam:

certamente. não acho que seja algo que eu não consiga me recuperar, mas acho que seria impossível passar por isso e não ser afetado, seria muito estranho.

trevor:

você sente que perdeu uma parte de si mesmo?

sam:

sim. iniciamos o openai no final de 2015. o primeiro dia de trabalho realmente começou em 2016.

já faço isso no yc há algum tempo, mas desde o início de 2019 faço isso em tempo integral. agi e minha família são as duas coisas que mais me importam. então, perder um desses, para mim, em certo sentido, devo dizer, me deixou mais comprometido com a agi e mais preocupado com a missão. mas claro que também me preocupo com esta organização, com estas pessoas, com os nossos utilizadores, com os nossos accionistas e com tudo o que construímos aqui. então, foi muito doloroso.

a única experiência de vida com a qual posso comparar foi quando meu pai morreu, o que, claro, foi muito pior. foi uma coisa muito repentina, aquela sensação de confusão e perda. nesse caso, senti que tinha um pouco de tempo para absorver tudo. mas havia muito mais por vir e foi tão inesperado que tive que juntar os pedaços de sua vida por um tempo. só cerca de uma semana depois disso é que realmente tive tempo de respirar e pensar: meu deus, não acredito que isso está acontecendo. então sim, isso é definitivamente muito pior. mas aqui há ecos semelhantes.

trevor:

ao olhar para o futuro da empresa e seu papel nela, como você encontra o equilíbrio agora entre impulsionar a ia aberta e continuar avançando na direção em que acredita? você ainda tem freios de emergência? existe algum tipo de sistema dentro da empresa que quando você sente que estamos criando algo que pode ter um impacto negativo na sociedade, intervimos e interrompemos esse comportamento. você tem essa habilidade? e esse sistema é integrado?

sam:

sim claro. já tivemos esse sistema no passado. por exemplo, criamos alguns sistemas, mas optamos por não implantá-los. acredito que faremos isso novamente no futuro. ou criamos um sistema e dizemos: ei, precisamos de um pouco mais de tempo para torná-lo seguro antes de podermos implantá-lo. assim como no caso do gpt-4, levamos quase oito meses para concluir o treinamento antes de estarmos prontos para lançá-lo, com todos os testes de alinhamento e segurança. lembro-me de conversar com alguns membros da equipe e isso não foi uma decisão do conselho, eram pessoas aqui fazendo o seu trabalho e comprometidas com a nossa missão. então isso vai continuar.

o que mais me orgulha desta equipa é a sua capacidade de funcionar bem no meio do caos, da crise, da incerteza e do stress. dou-lhes um a+, eles fizeram um ótimo trabalho. à medida que nos aproximamos de sistemas mais robustos, muito robustos, penso que a cultura e a capacidade das equipas que construímos são provavelmente o elemento mais importante, como manter a calma numa crise e tomar decisões boas e ponderadas. acho que a equipe aqui realmente provou que pode fazer isso, o que é muito importante.

alguém disse que uma das coisas que aprendemos sobre openai é que sam poderia dirigir a empresa sem ter um cargo. acho que isso está completamente errado e simplesmente não é verdade. a lição correta foi que a empresa poderia funcionar sem mim. esta é uma questão cultural e a equipe está pronta e a cultura está pronta. estou muito orgulhoso disso e muito animado para voltar e continuar fazendo isso.

ver a equipe administrar tudo me ajuda a dormir melhor à noite enquanto enfrentamos os desafios que temos pela frente. haverá desafios maiores do que este no futuro, mas espero e acredito que este seja o mais difícil porque não estamos preparados. agora percebemos a importância, não somos apenas uma empresa comum, longe disso.

trevor:

vamos conversar sobre isso. chatgpt, openai, como quer que seja chamado. você tem dall·e, whisper e todos esses produtos incríveis. se você tiver alguma ideia para nomes de marcas ou arquitetura de marcas, estou muito interessado. sinto que o chatgpt fez isso e agora está em todo lugar. sim, é um nome terrível, mas pode ter se tornado comum demais para ser mudado. você acha que isso pode ser mudado neste momento? podemos simplificá-lo para gpt ou apenas conversar?

sam:

não sei, talvez não.

trevor:

às vezes sinto que um produto, um nome ou uma ideia transcende os sonhos dos profissionais de marketing e as pessoas os abraçam.

sam:

nenhum profissional de marketing escolheria chatgpt como nome para isso, mas provavelmente estamos presos a ele e provavelmente está tudo bem.

trevor:

agora estou fascinado por sua natureza multimodal. ainda me lembro de quando vi o dall·e pela primeira vez ser lançado, era apenas uma ideia, e de ver como funcionava, e de ver que este programa conseguia criar uma imagem do nada. tento explicar para as pessoas e elas perguntam: de onde veio essa imagem? eu pensei, não há foto, nem imagem de origem. eles acham que é impossível.

ele viu algo que, pensei na época, era difícil de explicar. às vezes até eu tenho dificuldade em entender isso. mas quando olhamos para o mundo em que vivemos atualmente, falamos deles em números, gpt 3,5, gpt 4, gpt 5, 6, 7, seja lá o que for. gosto de falar mais sobre casos reais de uso do produto de uma forma que elimine o jargão técnico.

entre diferentes produtos, do chatgpt 3, 3.5 ao 4, vemos as chamadas capacidades de raciocínio atingindo um nível superior e até demonstrando criatividade até certo ponto.

quando olho para os produtos neste mundo que vocês estão criando agora, como modelos de linguagem grande de uso geral e agora modelos especializados de linguagem grande, fico pensando: você acha que os casos de uso vão mudar drasticamente? você acha que agora pode ser apenas um pequeno chatbot, aquele que todo mundo gosta, e essa é a forma final do produto? ou você acha que o mundo se tornará um mundo onde tudo terá um gpt especializado? por exemplo, trevor terá um gpt que faz coisas para ele, ou uma determinada empresa terá um gpt que faz coisas para eles. o que você pensa sobre esse assunto?

obviamente, prever o futuro é difícil. mas de onde estamos agora, para onde você vê isso indo?

sam:

acho que será uma mistura dos dois. é muito difícil prever o futuro e posso estar errado, mas ainda estou disposto a tentar. acho que será uma mistura das duas coisas que você acabou de mencionar. primeiro, o modelo básico será tão bom que é difícil para mim dizer com segurança que há algo que ele não pode fazer. vai demorar muito, mas acho que estamos caminhando nessa direção.

trevor:

quanto tempo é um “muito tempo” no seu período de tempo? tipo, como você mede isso?

sam:

não nos próximos anos. vai melhorar a cada ano nos próximos anos. mas, como eu ia dizer, tenho quase certeza de que, em 2026, ainda haverá muita coisa que este modelo não poderá fazer.

trevor:

mas esse modelo não fica te surpreendendo? quando converso com engenheiros que trabalham nesta área, ou com qualquer pessoa envolvida ou relacionada à ia, a palavra que mais aparece é “surpresa”. as pessoas ficam falando que ensinam isso, pensando que o chatgpt está aprendendo na área. de repente, ele começa a falar uma língua nova, ou pensávamos que estávamos ensinando isso, e de repente ele está construindo pontes, esse tipo de coisa.

sam:

portanto, a experiência subjetiva da maioria das pessoas aqui ocorre provavelmente em algum momento entre 2019 e 2022. mas agora acho que aprendemos a parar de nos surpreender. hoje em dia a nossa confiança cresceu exponencialmente e a maioria das pessoas pensa assim. portanto, o gpt-5, como quer que o chamemos, será excelente em muitos aspectos. ficaremos surpresos com algumas das coisas específicas que ele pode fazer, e também ficaremos surpresos com o que ele não pode fazer. ninguém ficará surpreso com o quão bom é. neste ponto, acho que temos uma compreensão muito profunda disso.

a segunda coisa que você mencionou são esses gpts personalizados. mais importante ainda, você também mencionou o gpt pessoal, como trevor gpt. acredito que essa será uma grande tendência nos próximos anos. esses modelos aprenderão sobre você, acessarão seus dados pessoais, responderão a perguntas da maneira que você deseja e trabalharão em seu ambiente com muita eficiência. acho que muitas pessoas vão querer isso.

trevor:

quase me faz pensar: se o novo mercado de trabalho fizer com que o seu gpt seja quase o seu currículo, o gpt será quase de uma forma estranha mais valioso do que você. você vem me buscar? é como uma combinação de tudo que você pensa e tudo que você já pensou, e a maneira como você sintetiza suas ideias, mais seu próprio gpt pessoal se torna... só estou pensando em um futuro maluco, quando você vai para um trabalho, eles perguntam, qual é o seu gpt? e você diz, ok, isso é meu.

sam:

a gente sempre pensa nisso como agências, essas agências personalizadas, vou deixar essa coisa fazer as coisas por mim. mas é interessante o que você está dizendo sobre isso, se não é assim, mas como as outras pessoas interagem com você. certo. é como uma impressão sua, um avatar seu, um eco seu, etc. eu pude ver isso chegando a esse ponto.

trevor:

porque se não somos uma combinação de tudo o que somos, então o que somos? é uma ideia estranha, mas posso acreditar. sempre fui fascinado por onde ele pode ir e o que pode fazer.

você sabe por quê? quando o chatgpt explodiu nas primeiras semanas, nunca esquecerei o quão rápido as pessoas perceberam a revolução dos robôs, eu sei que não eram robôs, mas para as pessoas, eles eram como, a revolução dos robôs, as máquinas não estavam substituindo o que eles pensavam empregos que serão substituídos. você sabe, as pessoas pensaram que isso iria substituir os caminhoneiros e assim por diante. no entanto, descobrimos que não, esses empregos são, na verdade, mais difíceis de substituir. na verdade, os empregos que estão sendo substituídos pelos chamados “empregos cerebrais” são aqueles, como o seu trabalho de colarinho branco. você é advogado? bem, quando você tem chatgpt 5, 6, 7, como quer que você o chame, talvez não precise de tantos advogados. você é engenheiro e pensa: qual é o seu lugar... o corpo humano é realmente uma coisa incrível.

você acha que há algum avanço que possa substituir o corpo humano? ou ainda estamos no reino espiritual?

sam:

não, acho que eventualmente conseguiremos que os robôs funcionem, como os robôs humanóides eventualmente funcionarão. mas estávamos trabalhando nisso nos estágios iniciais do openai, tínhamos um projeto de robótica. eu não sei disso.

sabemos que construímos uma mão robótica que pode manipular um cubo de rubik como uma mão. isso requer muita flexibilidade. penso que há muitas ideias diferentes envolvidas, mas uma delas é que é muito mais fácil progredir num mundo de bits do que num mundo de átomos.

por exemplo, este robô é difícil de construir, mas pelos motivos errados. a dificuldade não é que isso nos ajude a avançar em algumas questões de pesquisa espinhosas, mas que o robô continua quebrando, e não é muito preciso, e os simuladores são terríveis. embora com um modelo de linguagem você possa fazer todas essas coisas em um ambiente virtual, você pode progredir muito mais rápido. portanto, focar no aspecto cognitivo nos ajuda a resolver problemas mais produtivos com mais rapidez.

mas também é um aspecto muito importante, e penso que resolver tarefas cognitivas é o problema mais importante. por exemplo, se você construir um robô, ele não descobrirá necessariamente como ajudá-lo a construir um sistema que execute tarefas cognitivas. mas se você criar um sistema que realize tarefas cognitivas, ele poderá ajudá-lo a descobrir como criar um robô melhor.

sim, isso faz sentido. portanto, acho que a cognição é a principal coisa em que queremos nos concentrar. acho que esta é a decisão certa. espero que possamos voltar à robótica, no entanto.

trevor:

você já se perguntou quando pensaria que a inteligência artificial geral foi alcançada? tipo, como sabemos? para mim pessoalmente? tipo, quando sinto que a tarefa foi cumprida?

sam:

porque todo mundo fala sobre inteligência artificial em geral, mas eu pergunto, como sabemos o que é isso? então, voltamos ao ponto anterior, cada um tem uma definição diferente. eu pessoalmente direi quando ficar super animado. fico muito animado quando temos um sistema que ajuda a descobrir novas físicas. mas isso parece muito além da inteligência geral. parece que você entende o que quero dizer? isso está além do que acho que a maioria das pessoas definiria.

trevor:

talvez seja porque às vezes me pergunto: como definimos inteligência geral? nós o definimos como gênio em um determinado campo? ou como uma criança sendo uma inteligência artificial geral? isso é certo. mas você tem que continuar programando, e quando eles nascem não conseguem falar, não conseguem andar, não sabem de nada. e você continua programando esse agi para levá-lo aonde precisa.

então, se você, digamos, chegar ao ponto em que terá uma versão de uma criança de quatro anos.

sam:

e se tivéssemos um sistema que pudesse ser assim, recém-descoberto, capaz de funcionar de forma autónoma, com alguma ajuda dos pais, e compreender o mundo como uma criança de quatro anos o faz. sim, podemos chamá-lo de agi. se pudéssemos realmente abordar essa capacidade universal, poderíamos descobri-la por nós mesmos quando surgirem novos problemas. as crianças de quatro anos nem sempre entendem as coisas perfeitamente, mas a essa altura obviamente já entendemos.

trevor:

podemos chegar a esse ponto sem compreender fundamentalmente a natureza do pensamento e do pensamento? parece possível. você acha que podemos chegar a esse ponto? eu acho que está tudo bem. ou podemos chegar a um... então tenho certeza que você sabe disso.

uma das minhas histórias favoritas na área de ia é um projeto da microsoft. eles têm uma ia que tenta aprender a identificar rostos masculinos e femininos, e é muito precisa, com cerca de 99,9% de precisão. porém, sempre foi pouco representado quando se trata de pessoas negras e principalmente de mulheres negras, confundindo-as constantemente com homens. os pesquisadores estão sempre tentando melhorar e sempre pensando: o que está acontecendo?

por um tempo, foi assim que contei a história. pode ser um pouco impreciso, mas achei interessante. houve uma altura em que "enviaram" ia para áfrica, penso que foi o quénia. enviaram ia para áfrica e depois disseram à equipa de investigação no quénia: poderiam usá-la durante algum tempo para tentar resolver este problema? quando esta ia foi executada naquele lado do mundo, com o seu conjunto de dados e rostos africanos, tornou-se cada vez mais precisa na identificação de mulheres negras, em particular.

mas eventualmente descobriram que a ia nunca soube a diferença entre rostos masculinos e femininos. tudo o que faz é traçar correlações entre as maquiagens. como resultado, a ia determinou que a pessoa com lábios vermelhos, bochechas rosadas e possivelmente pálpebras azuis era do sexo feminino e os demais eram do sexo masculino. os pesquisadores dizem, sim, você está certo. acabou de encontrar o que é chamado de “código de trapaça”, você sabe. é como se eu entendesse quais são seus padrões para homens e mulheres, e então isso é diferenciado por esses padrões.

e então eles perceberam que, como as mulheres negras geralmente são mal atendidas quando se trata de maquiagem, elas não usam muita maquiagem, então o sistema simplesmente não sabe disso. mas não sabemos que o sistema não sabe. então eu estava pensando, como podemos saber se a agi sabe ou não de alguma coisa? ou descobriremos que ele simplesmente trapaceou para chegar à resposta de alguma forma? como sabemos?

quando esta incerteza está interligada com tantos aspectos das nossas vidas, qual é o custo da nossa ignorância? você entende?

sam:

acredito que faremos progressos na compreensão do que estes sistemas estão a fazer. atualmente, a interpretabilidade fez algum progresso. esta é uma área de investigação sobre estes modelos, e existem diferentes formas e diferentes níveis em que esta investigação pode ser feita. você pode tentar entender o que cada neurônio artificial do sistema está fazendo ou observar como o sistema pensa passo a passo e ver com quais etapas você discorda. vamos descobrir mais.

a capacidade de compreender o que estes sistemas estão a fazer e, esperançosamente, explicar-nos porque é que chegam a certas conclusões, e fazem-no de forma precisa e robusta. penso que faremos progressos não só na compreensão de como estes sistemas fazem o que fazem, mas também na compreensão de como os nossos próprios cérebros fazem o que fazem. então acho que eventualmente entenderemos isso. estou curioso e tenho certeza que você também.

na minha opinião, faremos mais progressos na implementação de métodos que sabemos que funcionam para tornar estes sistemas cada vez melhores e nos ajudar a resolver o desafio da explicabilidade. e penso que à medida que estes sistemas se tornam mais inteligentes, serão enganados com menos frequência. portanto, um sistema mais complexo pode não fazer tais distinções cosméticas e pode aprender a um nível mais profundo. acho que estamos vendo algumas evidências disso acontecendo.

trevor:

você me fez pensar em duas coisas quando disse que não se engana tão facilmente. um é o aspecto da segurança e o outro é o aspecto da precisão. a mídia falou sobre isso. você se lembra, disseram eles, a ia estava tendo alucinações, pensou que iria me matar. acho particularmente interessante que as pessoas gostem de usar a palavra “pensamento” para descrever grandes modelos de linguagem. porque sempre achei que os jornalistas deveriam tentar entender o que está acontecendo antes de reportarem sobre isso. mas quando usam muito a palavra “pensar”, na verdade dão ao público um mal-entendido. tenho simpatia por isso.

sam:

precisamos usar termos familiares, precisamos personificar. mas concordo com você que isso é enganoso.

trevor:

porque você está dizendo que está pensando, e aí as pessoas vão pensar, está pensando em me matar? não é esse o caso, não é pensar, é apenas usar esse transformer mágico para descobrir quais palavras têm maior probabilidade de se encaixar umas nas outras.

sam: o que você pensa que está fazendo?

trevor:

o que estou fazendo? esta é uma questão interessante. é isso que estou dizendo, é a ideia que montamos.

falamos sobre “alucinações”. deixe-me começar com o primeiro tempo. você acha que podemos atingir o objetivo de tornar a ia não alucinante?

sam:

acho que a melhor pergunta é: podemos garantir que uma ia não tenha alucinações quando não queremos, numa frequência semelhante à frequência com que os humanos não têm alucinações. para isso, minha resposta é sim. mas, na verdade, uma das coisas que as pessoas adoram nestes sistemas é a sua capacidade de fazer coisas novas. se ao menos acontecesse... sim, a alucinação é ao mesmo tempo uma característica e um bug.

trevor:

isso é o que eu estava perguntando. a alucinação não faz parte da existência inteligente?

sam:

totalmente.

se você pensar, digamos, na maneira como um pesquisador de ia trabalha, ele analisa muitos dados, tem algumas ideias, lê muitas coisas e então começa a pensar, talvez isso ou aquilo. talvez eu devesse tentar esta experiência. agora eu tenho os dados. então, isso não funciona muito bem. agora vou apresentar essa nova ideia.

esta capacidade humana de apresentar novas hipóteses, novas explicações, nunca existiu antes, e a maioria delas está errada, mas depois há um processo e um ciclo de feedback para descobrir quais delas podem fazer sentido e, em última análise, fazem sentido. este é um dos elementos-chave do progresso humano.

trevor:

como evitamos que a inteligência artificial tenha entrada e saída de lixo? atualmente, a inteligência artificial funciona com base em informações criadas de alguma forma pelos humanos. é aprender com o material que achamos que pode ser aprendido. com todas as novidades sendo lançadas agora, como open ai, anthropic, lambda, etc., parece que podemos estar entrando em um mundo onde mais informações são geradas pela ia do que por humanos, e essas informações podem não receber o escrutínio que merecem.

então, a ia melhora quando aprende consigo mesma de uma forma que não pode ser censurada? você vem me buscar?

sam:

compreendo totalmente.

como resolvemos esse problema? isso remete à questão de saber como se comportar em diferentes situações. por exemplo, você quer um pouco de fantasia no processo criativo, mas não quer essa fantasia ao tentar relatar os fatos precisos de um evento. e agora estes sistemas podem gerar novas imagens que são bonitas num sentido importante, imagens que são, de certa forma, fantasia, mas boa fantasia. mas, novamente, ficou muito melhor quando você deseja que o sistema forneça apenas fatos, mas ainda há um longo caminho a percorrer nesse sentido.

não importa. acho que é bom que esses sistemas sejam treinados com base nos dados gerados por eles mesmos, desde que haja um processo para que esses sistemas aprendam quais dados são bons e quais são ruins. mais uma vez, “alucinação” é uma descrição insuficiente deste processo, porque se desse origem a novas ideias científicas, estas ideias poderiam inicialmente ser consideradas “alucinações”. isto é valioso.

mas você sabe o que é bom e o que é ruim. e é preciso que haja supervisão humana suficiente para garantir que todos ainda temos controlo colectivo sobre o destino destas coisas. mas dentro dessas restrições, acho muito bom que o sistema seja treinado usando os dados gerados, e os sistemas futuros farão o mesmo.

e então você me lembrou de outra coisa que estive pensando, não sei bem como calcular, mas me pergunto se, digamos, um sistema como gpt-5 ou 6 será capaz de em algum momento gerar mais palavras do que um ser humano. toda a história combinada. isso parece um marco importante.

na verdade, talvez não importe que eu diga isso agora.

trevor:

de que forma foi gerado?

sam:

por exemplo, o modelo gera mais palavras num ano do que toda a humanidade. existem oito bilhões de pessoas no mundo, ou qualquer que seja o número. você pode calcular o número médio de palavras faladas por ano.

mas a questão é: onde isso nos deixa? é por isso que fiquei surpreso depois de dizer isso. por alguma razão, isso parece um marco importante para mim, mas não consigo pensar em um motivo específico.

trevor:

talvez os humanos sejam como macacos que digitam o tempo todo. então, acho que vale a pena explorar.

sam:

mas não uso a palavra “pensar” porque acho que você está certo e não deveria usar essa palavra. talvez possamos dizer o número de palavras geradas pela ia versus o número de palavras geradas por todos os humanos.

trevor:

estou prestes a terminar. então, quero fazer algumas perguntas e, se não as fizer, as pessoas vão me matar.

uma das principais questões, e esta é a minha pergunta pessoal, é que sempre falamos sobre a aprendizagem da ia ​​a partir dos dados, eles são inseridos em conjuntos de dados. é disso que estamos falando. é por isso que você precisa desses supercomputadores de bilhões de dólares para que os computadores possam aprender.

como ensinamos a ia a pensar melhor do que aqueles que a alimentam com dados obviamente falhos? por exemplo, como a ia aprende além dos dados limitados que nos são fornecidos? quando se trata de raça, estatuto económico e percepções, porque somos limitados, como podemos ensiná-lo a não ser limitado pelos dados limitados que nos são fornecidos?

sam:

ainda não sabemos, mas é uma das maiores direções de pesquisa que temos pela frente: como superar os dados humanos. espero que, se fizermos essas perguntas e respostas novamente em um ano, poderei lhe dar a resposta, mas ainda não sei. não sabíamos que isso realmente importava.

no entanto, acredito que esta será uma força importante na luta contra a injustiça em todo o mundo. não creio que estes sistemas tenham as falhas profundas que todos os humanos partilham. eles poderão se tornar muito menos racistas, sexistas e preconceituosos. eles tornar-se-ão uma força para a justiça económica no mundo.

acho que se você fornecer um bom mentor de ia ou um bom consultor médico de ia, isso ajudará mais a metade mais pobre do mundo do que apenas a metade mais rica, embora ajude a elevar todas as pessoas.

portanto, não tenho uma resposta clara à questão científica que levanta, mas, neste momento, acredito que estes sistemas certamente podem, e temos de fazer um trabalho social árduo para os tornar uma realidade, mas eles têm a potencial para ser extremamente a terra promove a justiça no mundo.

trevor:

talvez isso leve perfeitamente à segunda pergunta, que é: o que você está fazendo? o que a openai está fazendo? está a considerar quaisquer medidas para mitigar o fosso entre ricos e pobres que esta nova tecnologia está mais uma vez a criar?

o surgimento de cada nova tecnologia é surpreendente para a sociedade como um todo, mas não podemos negar que criará um momento em que, se a tivermos, teremos tudo. e se não fizer isso, você está fora.

sam:

acho que aprenderemos mais com o tempo, mas agora acho que uma das coisas realmente importantes que fazemos é fornecer um serviço verdadeiramente gratuito. isso significa que não há suporte para anúncios, apenas um serviço gratuito usado por mais de 100 milhões de pessoas todas as semanas. e é difícil dizer quem é, porque em alguns países ainda estamos bloqueados ou ainda estamos bloqueados, mas estamos tentando tornar um serviço realmente de alta qualidade e fácil de usar, acessível a qualquer pessoa em qualquer lugar que pudermos. inteligência artificial gratuita, que é importante para cada um de nós.

acho que há outras coisas que queremos fazer com esta tecnologia. por exemplo, se pudermos utilizar a inteligência artificial para ajudar a curar doenças e disponibilizar esses tratamentos ao mundo, isso é obviamente benéfico, mas colocar esta ferramenta nas mãos do maior número possível de pessoas e deixá-las utilizá-la para construir o futuro é muito importante. e acho que podemos levar isso ainda mais longe.

trevor: mais duas perguntas.

sam: posso adicionar mais um?

trevor: o tempo é todo seu.

sam:

outra coisa que considero importante é quem tem autoridade para decidir o que estes sistemas dizem, não dizem, fazem e não fazem, quem estabelece esses limites. no momento, são basicamente os funcionários da openai que tomam as decisões, e ninguém diria que isso é uma representação justa do mundo. portanto, não apenas descobrir como democratizar esta tecnologia, mas também descobrir como democratizar a governação desta tecnologia, esse será um grande desafio para nós no próximo ano.

trevor:

isso está diretamente relacionado com o que eu estava prestes a perguntar, o aspecto de segurança de tudo isso. falamos sobre isso no início da nossa conversa. ao projetar algo que muda o mundo, é preciso reconhecer o fato de que isso pode mudar o mundo da pior maneira ou na pior direção. a cada salto na tecnologia, aumenta também a capacidade de causar danos maiores.

é possível tornar a ia completamente segura? e então a segunda parte é: qual é o seu cenário de pesadelo? o que faria você pressionar um botão vermelho para desligar o openai e toda a ia? quando você vai, você sabe disso, se isso acontecer, se isso puder acontecer, temos que encerrar tudo. do que você tem medo?

a primeira pergunta é: você pode mantê-lo seguro? a segunda parte é: qual é a sua cena mais assustadora?

sam:

penso, em primeiro lugar, que a ideia que mencionou, de que o número de pessoas capazes de causar danos catastróficos diminui a cada década ou mais, é um facto profundo que nós, como sociedade, temos de enfrentar.

em segundo lugar, não acho que seja uma questão de como tornar um sistema seguro. assim como dizemos que os aviões são seguros, os aviões ainda caem ocasionalmente, embora seja extremamente raro. dizemos que os medicamentos são seguros, mas às vezes o fda ainda certifica medicamentos que podem causar a morte de algumas pessoas. portanto, a segurança não é decidida unilateralmente, mas sim a sociedade decide até que ponto algo seguro é aceitável depois de pesar os riscos e as recompensas. acho que podemos fazer isso, mas isso não significa que as coisas não possam realmente dar errado.

acredito que haverá grandes problemas com a inteligência artificial, contra os quais devemos nos proteger. penso que a sociedade tem, na verdade, um processo muito bom, embora confuso, para decidir colectivamente quais os limites de segurança que devem ser estabelecidos. esta é uma negociação complexa que envolve muitas partes interessadas e nós, como sociedade, estamos a melhorar ao longo do tempo. mas temos de nos proteger contra o tipo de riscos catastróficos que mencionou.

a energia nuclear é um exemplo. a guerra nuclear teve um impacto muito grande no mundo. o mundo trata isso de maneira diferente e tem feito um trabalho incrível nos últimos quase 80 anos. acho que uma situação semelhante acontecerá com a inteligência artificial. um exemplo muito comentado é o uso da inteligência artificial para projetar e criar patógenos sintéticos que podem causar enormes problemas. outro tema frequentemente discutido é a questão da segurança informática e da inteligência artificial capaz de hackear além de qualquer capacidade humana.

além disso, há uma nova situação em que se o modelo for poderoso o suficiente, ele pode ajudar a projetar métodos para transferir os pesos do servidor, fazer muitas cópias e modificar seu comportamento, o que mais parece um cenário de ficção científica. mas acho que, como mundo, precisamos encarar isso de frente. talvez não seja esse o caso específico, mas a ideia é que existe um risco catastrófico ou mesmo potencialmente existencial, e só porque não podemos defini-lo com precisão não significa que possamos ignorá-lo.

portanto, trabalhamos muito aqui tentando prever e medir quais podem ser esses problemas, quando podem surgir e como podemos detectá-los precocemente. acho que todas as pessoas que dizem que não se deve falar sobre este assunto, apenas sobre desinformação, preconceito e questões do dia, estão erradas. temos que conversar sobre ambos e permanecer seguros em cada etapa do caminho.

trevor:

ok, isso foi tão assustador quanto eu imaginava. a propósito, você está realmente pensando em se candidatar a governador? isso é verdade?

sam:

não, não. pensei nisso muito brevemente em 2017 ou 2016, ou mesmo em anos semelhantes a esses. eu também acho.

parece uma ideia vaga que tenho há algumas semanas, por diversão.

trevor:

ok

acho que minha última pergunta é: o que vem a seguir? qual é o seu sonho? se sam altman pudesse agitar uma varinha mágica e transformar a inteligência artificial no que você quisesse, o que você acha que isso traria para o futuro? quais são as vantagens? quais são os benefícios para todos? e em todos os níveis, é algo muito bom e positivo.

sam:

obrigado por fazer esta pergunta. acho que devemos sempre terminar com uma nota positiva.

sim. acho que estamos entrando no período mais fértil da história da humanidade. penso que os dois principais impulsionadores são a inteligência artificial e a energia, mas haverá outros factores. essas duas coisas, a capacidade de ter quaisquer ideias, a capacidade de implementar essas ideias e fazê-lo em escala, os limites do que as pessoas podem ter serão mais ou menos como o que elas podem imaginar e o que nós, como sociedade, negociamos algo. eu acho que isso vai ser ótimo.

estávamos conversando sobre o que significaria se cada aluno pudesse ter uma experiência educacional melhor do que os alunos mais ricos e com melhores recursos de hoje? o que significaria se todos tivéssemos melhores cuidados de saúde do que os melhores cuidados de saúde disponíveis hoje para as pessoas mais ricas? o que significaria se as pessoas fossem geralmente libertadas para fazer o trabalho que consideram mais gratificante pessoalmente, mesmo que isso significasse que tivessem de mudar para novas categorias de trabalho? o que significaria se todos pudessem ter um emprego que amassem e tivessem os mesmos recursos que uma grande empresa ou equipe?

então, talvez em vez de ter 800 pessoas na openai, todos tenham 800 sistemas de ia mais inteligentes que podem fazer todas essas coisas e as pessoas simplesmente criem e façam todas essas coisas, eu acho isso realmente notável. acho que este é o mundo para o qual estamos caminhando. isso vai exigir muito trabalho, além da tecnologia, para que isso aconteça, por exemplo a sociedade terá que fazer algumas mudanças. mas o fato de estarmos entrando nesta era de abundância me deixa muito feliz.

trevor:

isso é tudo que direi aqui. sou um grande fã das vantagens potenciais do openai. eu trabalho com educação na áfrica do sul. meu sonho sempre foi dar a cada criança acesso aos melhores tutores. você vem me buscar? literalmente nenhuma criança fica para trás, pois pode aprender no seu próprio ritmo.

sam:

a propósito, o que está acontecendo com as crianças que usam o chatgpt para aprender coisas? essas histórias são como as que recebo pelo correio todos os dias. isso é incrível.

trevor:

de fato. isso é realmente incrível. especialmente quando a aprendizagem se torna mais multimodal, como adicionar vídeo, torna-se incrível.

sonho, como você diz, com assistência médica. eu sonho com tudo isso. uma questão existencial sobre a qual penso que não falamos o suficiente é: uma vez que a ia tenha efectivamente substituído todas estas coisas, como podemos redefinir o propósito humano? porque, gostemos ou não, ao longo da história você descobrirá que nossos objetivos muitas vezes definiram nosso progresso.

nosso objetivo já foi apenas a religião. para o bem ou para o mal, se você pensar bem, a religião é realmente boa em fazer as pessoas pensarem e agirem em uma direção específica além delas mesmas. eles dizem: “este é o meu propósito”. eu acordo para servir a deus, seja qual for o deus que você imaginar. acordo para servir a deus. acordo para agradar a deus. acho que faz com que os humanos sintam que estão caminhando em direção a um objetivo, mas também lhes dá um senso de comunidade e de pertencimento.

à medida que avançamos para um mundo onde a ia elimina isto, espero que não esqueçamos quantas pessoas têm toda a sua identidade ligada ao que fazem e não a quem são. uma vez que substituímos essas funções, quando não há escriturários, secretárias, telefonistas, assistentes, operários de fábrica, é isso que vimos acontecer tantas vezes na história. tal como o radicalismo surgindo do nada, houve uma oposição massiva. você já pensou sobre isso? existe uma maneira de interceptá-lo antes que isso aconteça?

sam:

como você descreveria quais são nossos objetivos agora?

trevor:

acho que neste momento o nosso objectivo é sobreviver e que a sobrevivência está ligada a alguma forma de geração de rendimento, porque é assim que nos dizem que a sobrevivência funciona: é preciso ganhar dinheiro para sobreviver. mas vimos que esta situação muda em alguns períodos. há um ótimo exemplo na frança, eles tinham (e acho que ainda têm uma versão dele) um fundo para artistas onde diziam: nós pagaremos você como artista e você apenas criará para deixar a frança mais bonita. isso é tão lindo.

eu sei que você é fã do ubi. sim, não deveríamos ir embora antes de você falar sobre isso.

sam:

não creio que a sobrevivência das pessoas deva estar ligada à sua vontade ou capacidade de trabalhar. acho que é um desperdício de potencial humano. sim, concordo totalmente com você.

trevor:

espere, deixe-me perguntar isso antes de ir. é por isso que você acha que a renda básica universal é tão importante? porque você não perderia tempo e dinheiro com algo em que não acredita, você gasta muito tempo e dinheiro em uma renda básica universal. a última coisa que vi foi que você estava envolvido em um projeto de cerca de quarenta milhões de dólares. na verdade, foram us$ 60 milhões.

sam:

penso que um rendimento básico universal não é certamente uma solução abrangente para os desafios que temos pela frente, mas penso que erradicar a pobreza é, sem dúvida, uma coisa boa. acredito que uma melhor redistribuição de recursos levará a uma sociedade melhor para todos. mas penso que enviar dinheiro não é a parte principal. fornecer ferramentas e fornecer governação é mais importante. as pessoas querem ser arquitetos do futuro e acho que posso dizer que há um fio contínuo de significado ou algo como uma missão para a humanidade.

de uma perspectiva individual, trata-se definitivamente de sobreviver e prosperar, mas no geral temos uma urgência colectiva de tornar o futuro melhor. muitas vezes saímos pela tangente, mas a história humana é: tornar o futuro melhor. isso é tecnologia, isso é governança, é assim que tratamos uns aos outros. é como explorar as estrelas, é assim que se entende o universo, seja ele qual for. tenho grande confiança, e essa confiança está profundamente dentro de nós. não importa quais ferramentas ganhemos, esse desejo fundamental, essa missão da humanidade de florescer como espécie e como indivíduos, nunca desaparecerá.

portanto, estou cheio de otimismo em relação ao mundo daqui a duas gerações. mas esse é um ponto muito importante que você mencionou, que é que as pessoas que já estão na carreira e bastante satisfeitas, não querem mudar. a mudança está chegando. uma das coisas que vimos em revoluções tecnológicas anteriores é que parece que dentro de cerca de duas gerações, a sociedade e as pessoas podem adaptar-se a qualquer grau de mudança no trabalho. mas não daqui a dez anos, e certamente não daqui a cinco anos.

vamos enfrentar isto e penso que até certo ponto, como dissemos antes, penso que será mais lento do que as pessoas pensam, mas ainda mais rápido do que a sociedade teve de enfrentar no passado. definitivamente, estou um pouco assustado com o que isso significa e como nos adaptamos a isso. teremos que lidar com isso e acho que encontraremos uma solução. tenho certeza que vamos descobrir.

acredito também que se dermos aos nossos filhos e netos ferramentas melhores do que as que temos, eles farão coisas que nos surpreenderão. espero que eles se sintam muito mal com o quão horrível a vida é para todos nós. espero que o futuro seja incrível. este espírito e desejo humano, gosta de explorar e se expressar, de projetar um mundo cada vez melhor, e até mesmo além deste mundo. eu acho isso ótimo e estou muito feliz com isso.

num certo sentido, não deveríamos levar demasiado a sério esta pequena coisa. em star wars, há um vilão que diz: “não fique muito impressionado com esse horror tecnológico que você criou”. o que isto significa é que este terror tecnológico não é páreo para o poder da força.

num sentido importante, sinto o mesmo em relação à inteligência artificial. não deveríamos ficar muito surpresos com isso. por exemplo, o espírito humano irá guiar-nos em tempos difíceis e é muito maior do que qualquer revolução tecnológica.

trevor:

esta é uma bela mensagem de esperança.

espero que você esteja certo porque adoro essa tecnologia.

uma coisa que quero dizer a você, como sam altman, um dos ceos do ano e personalidade do ano da time, acho que você continuará a ser assim, especialmente nesta função. devido ao enorme impacto que a openai e a própria inteligência artificial estão prestes a ter sobre nós, imploro-lhe que continue a lembrar-se de como se sentiu quando foi despedido, porque está a criar uma tecnologia que colocará muitas pessoas numa posição semelhante. vejo essa humanidade em você e espero que sempre leve isso em consideração ao criar.

sam:

sabe o que eu fiz no sábado de manhã, bem cedo, quando não conseguia dormir? anotei o que poderia aprender com isso para poder fazer melhor quando outros passarem por situações semelhantes e me culparem como agora estou culpando o conselho.

trevor: você descobriu?

sam:

existem muitas lições individuais úteis. mas a empatia que ganhei com toda a experiência e o realinhamento dos meus valores, embora dolorosamente custosos, foi definitivamente uma bênção disfarçada. estou feliz por ter tido essa experiência nesse sentido.

trevor:

bem, sam, obrigado pelo seu tempo. muito obrigado, estou gostando muito de tudo. espero que possamos conversar sobre todos os novos desenvolvimentos em um ano.

sam:

você definitivamente deveria fazer isso, será divertido.

trevor:

eu vou, mano. maravilhoso. obrigado.