notícias

A singularidade está mais próxima, o que os humanos deveriam fazer?

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



observar

Será que esta ronda de desemprego tecnológico causada pelas substituições da IA ​​será tão fácil como no passado e poderá ser facilmente ultrapassada apenas pelo ajustamento espontâneo do mercado? Minha visão sobre esta questão não é tão otimista. Fundamentalmente, a capacidade de uma sociedade resistir à onda de desemprego tecnológico de forma relativamente suave depende principalmente de dois pontos: Primeiro, se existe um grande número de pessoas empregadas em profissões que são impactadas pelas novas tecnologias. Em segundo lugar, quando as novas tecnologias eliminam antigas oportunidades de emprego, podem criar rapidamente novos empregos que são mais fáceis de iniciar.

——Chen Yong Wei






A singularidade está mais próxima, o que os humanos deveriam fazer?

artes/Chen Yong Wei



A Singularidade: Da Ficção Científica à Realidade


Após dois anos de “atrasos”, o novo livro de Ray Kurzweil, “The Singularity is Nearer”, foi finalmente lançado no final de junho. Como fã dos livros de Kurzweil, encontrei imediatamente a versão eletrônica do novo livro e li-o de uma só vez.


No livro, Kurzweil mostra aos leitores uma importante lei empírica: a velocidade de desenvolvimento da tecnologia da informação avança exponencialmente. A este ritmo, a capacidade técnica das pessoas para processar informação duplica todos os anos. Sendo o representante mais típico da tecnologia da informação, o desenvolvimento da inteligência artificial (Inteligência Artificial, doravante designada por IA) é ainda mais surpreendente. De acordo com esta tendência, antes de 2029, a IA ultrapassará os humanos em todas as tarefas, e a Inteligência Artificial Geral (AGI) será plenamente realizada. Depois que a tecnologia de IA assumir a liderança na realização de avanços, ela capacitará muitos campos e os ajudará a alcançar um rápido desenvolvimento. Portanto, dentro de 5 a 10 anos, espera-se que os humanos alcancem a "Velocidade de Fuga da Longevidade". Nessa altura, embora as pessoas continuem a envelhecer, o risco de morte não aumentará devido às melhorias na tecnologia médica. Com a ajuda de nanorrobôs do tamanho de glóbulos vermelhos, as pessoas serão capazes de matar vírus e células cancerosas diretamente em nível molecular, resolvendo assim um grande número de doenças que assolam os humanos e, como resultado, a expectativa de vida humana aumentará significativamente. Além disso, espera-se que os nanorrobôs entrem de forma não invasiva no cérebro humano através dos capilares. Juntamente com outros neurônios digitais hospedados na nuvem, eles levarão a inteligência humana a um nível superior. Desta forma, o pensamento humano, a memória e as capacidades de resolução de problemas não serão mais limitados pela capacidade cerebral e a inteligência humana aumentará milhares de vezes. Depois de tudo o que foi dito acima acontecer, muitos dos problemas que actualmente afligem as pessoas serão resolvidos: energia mais barata será descoberta e utilizada, a eficiência da agricultura será grandemente melhorada, o nível de educação pública será significativamente melhorado e a violência será significativamente redução... Em suma, antes de 2045, a humanidade passará pela “Singularidade” e inaugurará uma nova era completamente diferente da anterior.


Para leitores antigos como eu, estas opiniões sobre Kurzweil não são novas. Na verdade, em seu livro “A Singularidade está Perto”, publicado em 2005, ele discutiu detalhadamente quase todos os pontos acima. Nesse sentido, este novo livro nada mais é do que apenas vinho velho em garrafas novas. No entanto, desta vez, quando li novamente essas opiniões, meu humor estava completamente diferente de antes. Quando li “The Singularity Is Near”, há mais de uma década, pensei nele mais como um romance de ficção científica. Embora Kurzweil use muitos dados no livro para mostrar que a tecnologia mundial está crescendo a uma taxa exponencial, muitas pessoas, inclusive eu, são altamente céticas em relação a isso.


"A singularidade está próxima: quando nos fundimos com a inteligência artificial"
(A Singularidade Está Próxima: Quando Nos Fundimos Com a IA)
(EUA) Ray Kurzweil/Autor
Imprensa Viking
Junho de 2024

Afinal, desde aquela época, embora a tecnologia da Internet estivesse em rápido crescimento, além de trazer mais comodidade às pessoas, parecia difícil ter um impacto fundamental no estilo de vida das pessoas. Ao mesmo tempo, sob a orientação do simbolismo, o campo da IA, que antes tinha grandes esperanças, chegou a um beco sem saída, e parece difícil ver um possível avanço por um tempo. Sob tais condições, é quase uma fantasia dizer que o nível de inteligência da IA ​​ultrapassará o dos humanos em 2029.


Milagrosamente, a tendência de desenvolvimento histórico subsequente é surpreendentemente semelhante à previsão de Kurzweil. Apenas dois anos após o lançamento de "The Singularity is Near", a "revolução da aprendizagem profunda" desencadeou uma nova rodada de crescimento no campo da IA. Não demorou muito para que as capacidades da IA ​​avançassem ao ponto em que pudessem derrotar os principais jogadores humanos de Go, decifrar as estruturas de bilhões de proteínas e ajudar a projetar chips de computador com centenas de milhares de componentes. Após o nascimento do ChatGPT (programa de inteligência artificial baseado em chat) em outubro de 2022, a IA dominou habilidades que somente os humanos podem dominar em pouco mais de um ano, como conversação, escrita, pintura e produção de vídeo. De acordo com pesquisas relevantes, os modelos mais recentes de IA demonstraram capacidades além dos humanos em centenas de tarefas. Nestas circunstâncias, a previsão de que a IA ultrapassará os humanos em 2029 não só já não parece radical, como também parece ligeiramente conservadora. Na verdade, muitos profissionais acreditam que o AGI chegará mais cedo. Por exemplo, Shane Legg, um dos fundadores da DeepMind (a empresa de inteligência artificial que desenvolveu o AlphaGo), acredita que a AGI pode ser alcançada até 2028, enquanto o CEO da Tesla, Elon Musk, é ainda mais radical acreditar que as pessoas darão início à AGI; 2025.


Não só isso, muitas tecnologias, incluindo nanorrobôs e interfaces cérebro-computador, também estão se desenvolvendo rapidamente, como previu Kurzweil. Por exemplo, em janeiro de 2023, a revista "Nature Nanotechnology" noticiou a investigação de investigadores do Instituto de Ciência e Tecnologia de Barcelona que utilizaram nanorrobôs para transportar medicamentos para tratar o cancro da bexiga. Estudos demonstraram que este tratamento pode reduzir tumores em ratos experimentais em 90%. Este sucesso é uma boa ilustração da ideia de Kurzweil de aplicar nanorrobôs para tratar o câncer e, assim, prolongar a vida humana. Para outro exemplo, há poucos dias, Musk anunciou que a segunda cirurgia de interface cérebro-computador será realizada dentro de alguns dias e previu que dentro de alguns anos, milhares de pacientes terão dispositivos de interface implantados em seus cérebros. Embora esta tecnologia ainda apresente muitas deficiências no momento, de acordo com a velocidade de desenvolvimento atual, num futuro próximo, não deveria ser um sonho para os humanos interagir com computadores através de interfaces cérebro-computador. Se as duas “tecnologias negras” da nanotecnologia e da interface cérebro-computador forem combinadas, será completamente possível alcançar a fusão homem-máquina e a duplicação da inteligência que disse Kurzweil. Com base nas razões acima expostas, temos razões para acreditar que alcançar a “singularidade” antes de 2045 está a tornar-se cada vez mais viável tecnicamente.


No entanto, quando as pessoas ultrapassam a “singularidade”, elas podem realmente inaugurar uma bela era sem precedentes, como Kurzweil previu? Na minha opinião, a resposta a esta pergunta é realmente incerta. Embora os optimistas tecnológicos, incluindo o próprio Kurzweil, possam citar muitas provas históricas para provar que o desenvolvimento tecnológico até agora promoveu, em última análise, a melhoria do bem-estar humano, se simplesmente usarmos esta lei para prever o futuro, talvez haja enormes riscos. Afinal, nenhuma tecnologia na história da humanidade tem o poder da IA. Uma vez utilizada de forma inadequada, os riscos que causará serão inimagináveis.


Portanto, para garantir que inauguraremos uma bela nova era após a "singularidade", precisamos realizar um estudo abrangente da relação entre pessoas e tecnologia, pessoas e pessoas, e pessoas e natureza humana antes da chegada da singularidade. Pense e encontre maneiras de garantir que a tecnologia sempre se desenvolva em uma direção benéfica para a humanidade.


Quando os empregos começam a morrer


De acordo com a previsão de Kurzweil, a chegada da AGI ainda demorará cerca de cinco anos. Embora o nível de inteligência da IA ​​não tenha ultrapassado completamente o dos humanos até agora, ultrapassou de facto os níveis humanos em muitos aspectos, o que desencadeou uma preocupação sem precedentes sobre o desemprego tecnológico causado pela IA.


De uma perspectiva histórica, o desemprego tecnológico não é um tema novo. Desde a invenção da máquina a vapor até à aplicação da electricidade e à popularização da Internet, tem havido um significativo efeito de "Destruição Criativa", resultando no desaparecimento de um grande número de empregos baseados em tecnologias antigas e na perda de muitas pessoas. em ocupações relacionadas. Contudo, a maior parte destas ondas de desemprego tecnológico na história foram temporárias. À medida que as novas tecnologias se tornam mais populares, muitos novos empregos serão criados.


É verdade que o impacto da IA ​​no mercado de trabalho não tem sido significativo até agora, mas isso não significa que os seus riscos não existam. Ao prever o possível impacto no emprego causado pela IA no futuro, as pessoas muitas vezes ignoram uma condição importante, ou seja, a melhoria das capacidades da IA ​​pode prosseguir de acordo com uma lei exponencial. Na verdade, se considerarmos o advento do ChatGPT (programa de conversação de inteligência artificial) em 2022 como um nó, não é difícil descobrir que a velocidade de desenvolvimento da IA ​​após este nó é muito mais rápida do que antes do nó. Tomemos como exemplo a capacidade de interação. Antes do advento do ChatGPT, as pessoas demoravam décadas para permitir que a IA aprendesse a falar com as pessoas livremente. Após o advento do ChatGPT, a IA alcançou muitas coisas em pouco mais de um ano. . Neste sentido, extrapolar a taxa de crescimento futuro das capacidades de IA com base inteiramente na lógica linear é susceptível de conduzir a erros de julgamento muito graves. Deve-se também notar que, embora as capacidades da IA ​​tenham sido bastante melhoradas, os custos de sua utilização também foram significativamente reduzidos. Atualmente, o custo para as pessoas chamarem modelos de IA por meio de APIs caiu para quase zero.


Esta melhoria de desempenho e redução de custos combinadas tornam não apenas tecnicamente possível, mas também economicamente viável, substituir humanos por IA. Na verdade, se prestarmos mais atenção às notícias tecnológicas relevantes, descobriremos que a IA substituiu silenciosamente muitas profissões quando não prestamos atenção. É importante notar que há apenas dez anos, as pessoas pensavam que a IA apenas substituiria empregos mais rotineiros e repetitivos. No entanto, seria difícil para a IA substituir empregos que exigissem mais criatividade e capacidades de comunicação. No entanto, a profissão de ilustrador já foi popular entre os jovens devido ao seu horário de trabalho gratuito e renda relativamente alta. Agora, se você quiser usar modelos de IA para completar ilustrações, precisará apenas de algumas centenas de yuans para uma assinatura mensal ilimitada. pode fazer isso a qualquer momento. Obviamente, sob tal comparação, a maioria dos clientes escolherá usar IA em vez de pintores humanos, e a maioria dos ilustradores também perderá os seus empregos devido a esta escolha dos clientes. Além dos ilustradores, profissões como tradutores, programadores e designers gráficos também estão sofrendo grave impacto da IA. Acontece que a proporção deste grupo de pessoas que sofreram o impacto é relativamente baixa na força de trabalho global, pelo que os sentimentos das pessoas não são óbvios.


Então, será que o desemprego tecnológico causado por esta ronda de substituições da IA ​​será tão fácil como no passado, e poderá ser facilmente ultrapassado apenas pelo ajustamento espontâneo do mercado? Minha visão sobre esta questão não é tão otimista. Fundamentalmente, a capacidade de uma sociedade resistir à onda de desemprego tecnológico de forma relativamente suave depende principalmente de dois pontos: Primeiro, se existe um grande número de pessoas empregadas em profissões que são impactadas pelas novas tecnologias. Em segundo lugar, quando as novas tecnologias eliminam antigas oportunidades de emprego, podem criar rapidamente novos empregos que são mais fáceis de iniciar.


Mas desta vez, o impacto da IA ​​no mercado de trabalho é completamente diferente. Por um lado, esta ronda de impacto da IA ​​não é apenas abrangente no âmbito, mas também muito intensa no tempo. O chamado âmbito abrangente significa que muitas indústrias foram afetadas ao mesmo tempo. Ao contrário da IA ​​especializada do passado, a maioria dos modelos de IA recém-lançados são de uso geral. Na prática, as pessoas podem usar esses modelos para realizar muitas tarefas diferentes com apenas alguns ajustes. Neste caso, o desenvolvimento da IA ​​pode ter impacto em múltiplas profissões ao mesmo tempo. O chamado tempo intensivo refere-se ao fato de que após a IA impactar uma profissão, ela impactará imediatamente outra profissão. Este impacto intenso tornará em breve significativamente mais difícil o reemprego dos desempregados e também minará gravemente a sua confiança na obtenção do reemprego através da formação de competências. Imagine só, se um ilustrador acaba de ser privado de seu emprego pelo Midjourney (uma ferramenta de desenho de inteligência artificial), ele finalmente aprende a dirigir e se torna um motorista online, mas logo perde o emprego devido ao surgimento de carros sem motorista. E depois de perder o emprego, nessas circunstâncias, ele ainda terá perseverança para continuar aprendendo novas habilidades e tem certeza de que a IA não dominará essa habilidade em pouco tempo?


Portanto, esta ronda de desemprego tecnológico causada pela IA pode ser completamente diferente do desemprego tecnológico anterior. Se a tecnologia de IA continuar a crescer exponencialmente, poderá ser difícil para a sociedade alcançar o pleno emprego confiando apenas na regulação espontânea do mercado. Do ponto de vista político, temos certamente muitas formas de mitigar o impacto da IA ​​no emprego. Por exemplo, o fornecimento pelo governo de mais serviços de agências de procura de emprego e formação de reemprego pode ajudar aqueles que perderam os seus empregos devido à IA a encontrar novos empregos mais rapidamente. . No entanto, se a velocidade de desenvolvimento da IA ​​continuar a manter-se num nível elevado, então todos estes esforços terão apenas efeitos temporários, na melhor das hipóteses. O desaparecimento do trabalho humano pode ser um futuro difícil de aceitar, mas temos de enfrentá-lo.


Rejeição de "terminais"


Considerando que o nosso atual desenvolvimento de tecnologias como as interfaces cérebro-computador e os nanorrobôs está atrasado em relação à IA, então, pelo menos nos próximos dez anos, a utilização da IA ​​para melhorar diretamente o cérebro poderá permanecer apenas ao nível da imaginação. Então, durante este período, como as pessoas deveriam lidar com as diversas contradições sociais causadas pelo desemprego tecnológico causado pela IA?


A solução dada por alguns estudiosos é tributar os usuários de IA e usar a receita tributária para emitir Renda Básica Universal (UBI). Desta forma, mesmo que aqueles que perderam os seus empregos devido ao impacto da IA ​​tenham dificuldade em encontrar novos empregos, ainda poderão obter segurança de vida básica e evitar viver em apuros.


No entanto, este plano tem sido controverso desde que foi proposto. Por exemplo, alguns académicos acreditam que tributar novas tecnologias como a IA irá dificultar enormemente o seu desenvolvimento; outros académicos acreditam que a implementação do RBU pode encorajar as pessoas a obter algo por nada;


Na minha opinião, a maior resistência potencial à implementação do imposto sobre IA e do RBI advém, na verdade, do seu impacto na distribuição de benefícios. Como podemos ver, com o desenvolvimento da IA, um grande número de empresas relacionadas com a IA registaram um aumento vertiginoso das receitas e do valor de mercado num curto período de tempo. Tomemos como exemplo a OpenAI. Há alguns anos, era uma empresa que perdia dinheiro ano após ano. No entanto, com a popularidade de modelos como o GPT, rapidamente se tornou uma empresa com receitas anuais de milhares de milhões de dólares e uma avaliação de . negócios de quase 100 bilhões de dólares. Sem falar que gigantes como Microsoft e Nvidia aproveitaram a IA para aumentar seu valor de mercado em trilhões de dólares em mais de um ano. É previsível que, com o desenvolvimento da tecnologia de IA, esta tendência de concentração de enormes quantidades de riqueza num pequeno número de empresas e indivíduos continue.


Quais são as consequências disso? Uma consequência directa é que as divisões e os distanciamentos em toda a sociedade se tornarão mais graves. Quando a relação custo-eficácia da IA ​​for suficientemente elevada, os trabalhadores comuns já não terão o valor de serem explorados, como mencionado no romance "Beijing Folding" de Hao Jingfang. Neste caso, as pessoas ricas que controlam a IA e a riqueza nem sequer quererão viver na mesma cidade que elas. Como resultado, o isolamento social e a oposição tornar-se-ão mais graves.


Esta não é a coisa mais assustadora. Se, como previu Kurzweil, num futuro próximo, os humanos forem capazes de se transformar a partir do nível molecular através da nanotecnologia, então aqueles com mais riqueza serão os primeiros a alcançar a “evolução mecânica” de si próprios. Depois disso, a vantagem dos ricos sobre os pobres não será apenas mais riqueza, mas também em todos os aspectos, como inteligência e força física, eles irão esmagar estes últimos. E esta vantagem, por sua vez, lhes permitirá contribuir ainda mais para a concentração de riqueza... Liu Cixin certa vez imaginou esta situação em seu romance "Sustentando a Humanidade". Segundo sua imaginação, sob uma tendência semelhante, a riqueza e o poder de toda a sociedade serão monopolizados por um “finalista”, e o destino de todos os demais será controlado por ele.


Como alinhar a IA?


Se o desemprego tecnológico e os problemas de distribuição são o reaparecimento de velhos problemas que os humanos encontraram muitas vezes na era da IA, então o que discutiremos a seguir são problemas totalmente novos à medida que a "singularidade" se aproxima.


Entre todos os novos problemas, o mais proeminente pode ser o problema do alinhamento da IA. O chamado alinhamento da IA, em suma, visa garantir que a IA possa compreender as normas e valores humanos, compreender os desejos e intenções humanas e agir de acordo com a vontade humana. Superficialmente, esta não parece ser uma tarefa difícil. Afinal, os programas de IA são basicamente definidos por humanos. Será que os humanos ainda estabeleceriam uma meta contrária aos seus próprios interesses? Mas, na verdade, a resposta não é tão simples por dois motivos:


Por um lado, quando os humanos estabelecem metas e normas comportamentais para a IA, é muitas vezes difícil para os humanos expressarem plena e corretamente os seus próprios interesses e preocupações, o que deixa espaço para a IA violar os interesses humanos. Por exemplo, o filósofo da ciência Bostrom certa vez propôs um experimento mental chamado "Clipe de papel cósmico" em sua famosa obra "Superinteligência". Ele imaginou que os humanos criassem uma IA com o objetivo de maximizar a produção de clipes de papel. Depois, usaria todos os métodos para atingir esse objetivo, e até eliminaria os humanos para dedicar mais recursos à produção de clipes de papel. Nesta experiência mental, a produção de clipes de papel em si é do interesse da humanidade, mas o seu resultado final pode prejudicar seriamente os interesses da humanidade.


Por outro lado, para permitir que a IA alcance maior eficiência, os humanos geralmente lhes dão muito espaço para autoaprendizagem e melhoria, o que pode fazer com que a IA se desvie dos seus valores originalmente definidos. Por exemplo, muitos agentes actuais de IA permitem-lhes melhorar continuamente com base nas suas interacções com o ambiente e os utilizadores. Neste caso, podem ser afectados por vários valores maus, fazendo com que os seus objectivos entrem em conflito com os interesses fundamentais da humanidade.


Em particular, com a chegada da AGI, a IA transformar-se-á gradualmente de uma ferramenta num indivíduo com capacidades iguais ou até superiores às dos humanos em todos os aspectos. Neste caso, a inconsistência entre os interesses da IA ​​e os humanos conduzirá a enormes riscos. O futuro sombrio retratado em obras de cinema e televisão como “O Exterminador do Futuro” e “Matrix” pode realmente chegar.


É precisamente para evitar que tal situação ocorra que a atual investigação sobre alinhamento de IA se tornou uma ciência proeminente no campo da IA. Nesta fase, as pessoas usam principalmente dois métodos para alcançar o alinhamento da IA. Um é o “aprendizado por reforço com feedback humano”, o chamado método RLHF; o outro é a “inteligência artificial constitucional”, o chamado método CAI. Ao usar RLHF, o designer primeiro treinará manualmente um modelo de IA menor, implementará o aprendizado por reforço por meio do feedback contínuo do treinador sobre o comportamento da IA ​​e orientará seus valores para serem consistentes com os valores esperados pelo designer. Em seguida, esse pequeno modelo é usado como "treinador" para treinar um modelo maior de IA usando aprendizado por reforço. Ao usar o método CAI, o designer irá primeiro definir uma “constituição” que o modelo de IA deve seguir e usar a “constituição” para gerar códigos de conduta que a IA precisa seguir em vários cenários. Os designers então usam esses critérios para julgar os diferentes resultados gerados pelo modelo de IA para ver se eles atendem aos critérios “constitucionais”. Para resultados que cumpram a “Constituição”, serão dadas recompensas correspondentes; para resultados que violem a “Constituição”, serão dadas penalidades correspondentes.


É digno de reconhecimento que ambos os métodos alcançaram alguns resultados até agora, mas os seus problemas ainda são enormes. Por exemplo, Geoffrey Hinton, o “pai da aprendizagem profunda”, salientou recentemente que estes métodos só podem fazer com que o comportamento da IA ​​pareça estar alinhado com os interesses das pessoas, mas não podem garantir que sejam completamente consistentes com os valores das pessoas. Sob tais circunstâncias, é difícil garantir que a IA trairá os humanos em determinadas circunstâncias. Especialmente com a chegada da AGI e a capacidade da IA ​​de superar os humanos, a possibilidade de uma traição semelhante tornar-se-á cada vez maior, e os riscos resultantes também se tornarão cada vez maiores.


Então, sob tais circunstâncias, como o trabalho de alinhamento da IA ​​deveria ser melhorado ainda mais? Na minha opinião, o que precisamos pode ser de algumas mudanças de pensamento. Do ponto de vista atual, quase todo mundo iguala naturalmente o alinhamento da IA ​​com o alinhamento de valores, acreditando que os valores da IA ​​devem ser consistentes com os seus próprios para que sempre sirvam aos interesses humanos, mas isso é obviamente muito difícil. Mas o alinhamento de valores é realmente necessário? Ou podemos mudar a questão: na realidade, precisamos de alguém para realizar certas tarefas no nosso interesse. Precisamos que ele seja consistente connosco em termos de valores? A resposta é, obviamente, não. Na maioria das vezes, só precisamos criar um bom conjunto de regras para orientar as pessoas cujos valores não são consistentes com os nossos a atingir os objetivos que desejamos. Por exemplo, se pedíssemos a duas pessoas com interesses próprios que dividissem um bolo de forma equitativa, a tarefa seria infinitamente mais difícil se quiséssemos conseguir isso alinhando primeiro os seus valores. No entanto, não precisamos de fazer isto. Precisamos apenas de conceber um mecanismo para deixar uma pessoa cortar o bolo, mas deixar que outra pessoa seja responsável pela distribuição. Isso nos inspira que, ao fazer o alinhamento da IA, também podemos contornar a caixa preta de valores difícil de quebrar e concluir essas tarefas diretamente da perspectiva do design do mecanismo. O que é gratificante é que alguns investigadores já constataram este alinhamento e fizeram muitas conquistas nesse sentido.


Quem é você? Quem sou eu?


Além do problema do alinhamento da IA, outro grande problema que as pessoas devem enfrentar quando a “singularidade” se aproxima é a identificação e o reconhecimento da identidade. Este problema inclui dois aspectos: um é como compreender a identidade da IA ​​e a nossa relação com a IA;


Vejamos primeiro a primeira pergunta. Há alguns anos, se você perguntasse a uma pessoa o que ela deveria pensar sobre IA, ela provavelmente diria sem hesitação que ela é apenas uma ferramenta para nós. A razão é simples: a julgar pelo seu desempenho, é pouco provável que tenham consciência autónoma e só possam realizar tarefas relacionadas sob controlo humano.


Mas após o surgimento de grandes modelos de linguagem como o ChatGPT, a situação mudou muito. O desempenho da IA ​​na interação com as pessoas gradualmente se livrou de sua rigidez original. Nas conversas conosco, ela sempre pode responder a perguntas com fluência. Em alguns casos, elas podem até adivinhar ativamente nossa psicologia e comportamento. Isso nos faz pensar se eles já têm consciência própria. Talvez alguns especialistas em informática nos confortem dizendo que esta é apenas uma resposta mecânica a estas questões baseada num modelo pré-concebido. Em essência, é apenas a adição, subtração e subtração de um monte de 0s e 1s. No entanto, como diz o ditado: “Uma criança que não é um peixe conhece a alegria de um peixe”. Quem pode garantir que não há consciência e pensamento por trás desta simples adição e subtração? Afinal, mesmo se deixarmos de lado nossos cérebros e observarmos cuidadosamente com um microscópio, só poderemos ver um monte de neurônios enviando vários sinais elétricos, mas nem mesmo uma única célula com alma. Nesse caso, como podemos ter certeza de que a IA que está à nossa frente, que pode se comunicar conosco livremente, não desenvolveu uma alma?


Penso que após a chegada da AGI, problemas semelhantes tornar-se-ão cada vez mais proeminentes. Talvez um dia, num futuro próximo, o robô biônico de IA em "Westworld" apareça diante de nós. Todos os seus comportamentos são consistentes com os nossos, e até o programa predefinido lhes diz que são humanos. Ao encontrar um robô de IA, ainda podemos dar um tapinha no peito e dizer que o que vemos à nossa frente é apenas uma ferramenta criada por nós?


Vejamos a segunda questão. Em comparação com a questão da identidade da IA, a autoidentidade e o reconhecimento humanos podem ser um problema mais difícil.


Por um lado, como mencionado acima, com o desenvolvimento de nanorrobôs e da tecnologia de interface cérebro-computador, os humanos dominarão a capacidade de modificar significativamente seus corpos. No futuro, espera-se que as pessoas não apenas usem nanorrobôs para ajudá-las a reparar células mortas e prolongar sua vida útil, mas também possam contar diretamente com eles para expandir sua inteligência e força física. A princípio, esse tipo de modificação no corpo humano pode ser limitada a algumas células, o que não nos causará problemas de identidade - assim como agora não pensamos que depois de uma pessoa ter membros protéticos ou dentaduras, ela não seja um ser humano Ele era o mesmo. Mas se este processo de modificação continuar, um dia a maioria ou mesmo todas as células do corpo serão substituídas. Neste momento, a clássica questão do “Navio de Teseu” aparecerá novamente diante de nós: o “eu” de agora ainda é o “eu” do passado?


Por outro lado, com o desenvolvimento da tecnologia de IA, as pessoas irão gradualmente dominar a capacidade de carregar a consciência para a nuvem - na verdade, algumas pessoas, incluindo Musk, já iniciaram esforços semelhantes. Supondo que um dia, no futuro, a tecnologia realmente se desenvolva o suficiente para permitir que esta consciência pense como eu, então esta consciência pode ser considerada como consciência humana? Se a resposta for sim, então qual é a sua relação com a verdadeira natureza da consciência? Além disso, se colocarmos esta consciência num clone da fonte de consciência, qual é a relação entre este clone e a pessoa original? Pai e filho? irmão? Ou alguma outra coisa?


É preciso enfatizar que as questões de identidade e identidade não são de forma alguma simplesmente questões de especulação filosófica. Na realidade, envolve muitas questões legais e éticas. Por exemplo, como deve ser tratada a relação trabalho-gestão entre humanos e IA? A IA deveria ter os mesmos direitos que os humanos? Um clone do meu corpo e mente pode possuir minha propriedade? Se a questão da identidade não for resolvida, será difícil resolver verdadeiramente estas questões.


Mas até agora, as pessoas ainda não encontraram uma resposta definitiva para as perguntas acima. Para promover ainda mais a formação de consensos relevantes, ainda precisamos de conduzir discussões abertas e aprofundadas sobre estas questões.






Este artigo foi publicado pela primeira vez em"Observador Econômico·Observador"
22 de julho de 2024Edições 25 e 26