A alucinação da IA é inevitável, como lidar com isso
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Zhang HaiCom o rápido desenvolvimento da tecnologia de inteligência artificial (IA), a "ilusão de IA", isto é, erros ou ilusões no processamento e geração de informações pela inteligência artificial, tornou-se um problema que não pode ser ignorado. Em 2023, "alucinação" tornou-se a palavra do ano do Cambridge Dictionary e do Dictionary.com. De acordo com o Dictionary.com, as pesquisas pela palavra “alucinação” aumentaram 46% em 2023 em relação ao ano anterior. Além da definição original de "alucinação" no Dicionário Cambridge, "ver, ouvir, sentir ou cheirar algo que não existe, geralmente devido a uma condição médica ou porque você tomou algum medicamento". Alucinações de IA geram mensagens de erro".Um artigo recente "Machine Behavior" na revista "Nature" apontou que a inteligência artificial se tornou onipresente na sociedade humana hoje. Os algoritmos de classificação de notícias afetarão as informações que as pessoas veem, os algoritmos de consumo afetarão os bens de consumo que as pessoas compram e os algoritmos de chamada de táxi. afetará Nossos padrões de viagem e algoritmos de casa inteligente afetarão nossa vida familiar Nos campos jurídico, médico e outros, o impacto da inteligência artificial é ainda maior. A inteligência artificial permite que as máquinas pensem e se comportem cada vez mais como os humanos. Como resultado, as máquinas estão a influenciar cada vez mais a estrutura da sociedade humana. As máquinas moldam o comportamento humano e os humanos também moldam o comportamento das máquinas. A forma como os humanos e as máquinas colaboram terá um impacto significativo e de longo alcance na forma social futura.Na era da inteligência artificial, a alucinação da IA tornou-se um fenômeno comum. Desde possíveis erros de julgamento em carros autônomos até interpretações erradas de instruções por assistentes inteligentes e diagnósticos incorretos por ferramentas de diagnóstico médico, as ilusões de IA estão presentes em todos os cantos de nossas vidas diárias. Em 2024, o mecanismo de busca Google lançou um serviço de busca de inteligência artificial: AI Overview, que fornece respostas geradas por IA. A intenção original era melhorar a experiência do usuário, mas os usuários logo descobriram que a visão geral da IA fornecia um grande número de respostas escandalosas, como sugerir o uso de cola para colar pizza e comer pedras todos os dias para obter nutrientes, etc., fazendo com que o Google para desligar rapidamente algumas de suas funções.Do ponto de vista dos cientistas da inteligência artificial, as alucinações da IA são essencialmente inevitáveis devido a limitações técnicas e deficiências na cognição humana. Embora os técnicos estejam trabalhando arduamente para melhorar a precisão e a confiabilidade da IA, as ilusões de IA ainda ocorrem com frequência e são difíceis de eliminar completamente devido a fatores como dados incompletos, limitações de algoritmos e ambientes interativos complexos.O mecanismo da alucinação da IA envolve muitos aspectos. Em primeiro lugar, o viés de dados é um dos principais motivos. Se os dados de treinamento de IA carecem de diversidade ou apresentam viés sistemático, os resultados de saída podem ser alucinatórios. Em segundo lugar, os actuais algoritmos de IA, especialmente os baseados em estatísticas, não conseguem adaptar-se perfeitamente a situações novas e invisíveis, o que pode levar a julgamentos incorrectos. Em terceiro lugar, as limitações cognitivas dos designers humanos são também um grande problema. Os preconceitos subjetivos dos designers e formadores podem ser inadvertidamente codificados no sistema de IA, afetando a sua tomada de decisão. Finalmente, o ambiente interativo em que o sistema de IA opera está cheio de variáveis. Fatores ambientais complexos e mutáveis muitas vezes excedem as capacidades de processamento do sistema de IA, levando à geração de alucinações de IA.Como lidar com a onipresença e a inevitabilidade das alucinações de IA? Em primeiro lugar, melhorar a qualidade e a diversidade dos dados é fundamental. Ao aumentar a amplitude e profundidade dos dados de treinamento, o viés de dados pode ser reduzido e a capacidade de generalização do sistema de IA pode ser melhorada. Em segundo lugar, otimizar o design do algoritmo e aumentar a sua robustez e adaptabilidade pode permitir ao sistema de IA lidar melhor com novas situações. Terceiro, é também crucial melhorar a educação e a sensibilização dos utilizadores. Ajudar os utilizadores a compreender corretamente as capacidades e limitações da IA pode efetivamente reduzir as ilusões causadas por mal-entendidos. Além disso, o estabelecimento de normas éticas e mecanismos de supervisão para garantir que o desenvolvimento e a aplicação da IA cumprem os padrões éticos e legais é igualmente importante para reduzir a ocorrência de alucinações de IA. Finalmente, a colaboração interdisciplinar desempenha um papel fundamental no tratamento das alucinações da IA. Engenheiros, cientistas de dados, psicólogos, especialistas em ética e especialistas jurídicos devem participar conjuntamente no processo de concepção e avaliação de sistemas de IA e resolver conjuntamente o problema da ilusão da IA a partir das perspectivas profissionais das suas respectivas áreas.Na era da inteligência artificial, a alucinação da IA é um problema complexo, comum e inevitável, que exige a adopção de estratégias multidimensionais e multiníveis para lidar com ela, minimizando assim o impacto negativo da alucinação da IA. As “Diretrizes para Inteligência Artificial Generativa na Educação e Pesquisa” divulgadas pela UNESCO em 2023 recomendam definir a idade mínima para o uso de ferramentas de inteligência artificial em sala de aula como 13 anos. A Open AI recomenda que crianças menores de 13 anos sejam proibidas de usar inteligência artificial generativa, e crianças de 13 a 18 anos precisam usá-la sob a orientação de um responsável.Uma Cimeira Trusted Media será realizada em Singapura em 2023 para partilhar medidas tomadas por vários países para melhorar a literacia mediática dos jovens. Por exemplo, "SQUIZ KIDS", uma actividade de bem-estar público lançada no estrangeiro com base em websites e podcasts e dirigida a estudantes do ensino primário para melhorar a literacia mediática, ajuda a cultivar a capacidade dos jovens para distinguir a desinformação e a informação falsa que aparece na Internet. Consiste principalmente em três etapas: PARAR quando exposto às informações da rede, pensar sobre isso (PENSAR) e, finalmente, verificar um par (VERIFICAR) para confirmar se é consistente com uma fonte de informação confiável. Ao reunir conhecimentos e competências de diferentes áreas para identificar problemas de forma mais abrangente e encontrar soluções, podemos esperar a chegada de uma sociedade de inteligência artificial mais inteligente, mais segura e mais fiável. (O autor é professor da Escola de Ciência da Mídia da Northeast Normal University e diretor do Centro Provincial de Engenharia de Inovação Integrada de Educação e Inteligência Artificial de Jilin) ▲