notícias

vice-presidente da microsoft, vik singh: os chatbots de ia precisam “aprender a pedir ajuda” em vez de “criar ilusões”

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news em 2 de setembro. em 1º de setembro, horário local, de acordo com a agence france-presse, o vice-presidente da microsoft, vik singh, disse em uma entrevista: “falando francamente, os recursos que (ia generativa) realmente faltam hoje são isto é, quando o modelo não tem certeza (se sua própria resposta é precisa), ele pode dizer proativamente 'ei, não tenho certeza, preciso de ajuda.'"

desde o ano passado, a microsoft, o google e seus concorrentes têm implantado rapidamente aplicativos generativos de ia, como chatgpt e gemini, que podem gerar uma variedade de conteúdo sob demanda e dar aos usuários a ilusão de “onisciência”. apesar dos avanços no desenvolvimento da ia ​​generativa, eles ainda podem “alucinar” ou inventar respostas.

fonte da imagem pexels

vik singh insiste que “pessoas realmente inteligentes” estão trabalhando em maneiras de fazer com que os chatbots “admitam e peçam ajuda” quando não sabem a resposta certa.

enquanto isso, marc benioff, ceo da gigante de software em nuvem salesforce, também disse na semana passada que viu muitos clientes ficando cada vez mais frustrados com o desempenho enganoso do microsoft copilot.

a it house aprendeu que nos últimos anos a inteligência artificial se desenvolveu vigorosamente e aplicativos como chatbots tornaram-se gradualmente populares. as pessoas podem obter informações desses chatbots (como o chatgpt) por meio de instruções simples. no entanto, estes chatbots ainda estão sujeitos ao problema da “alucinação”, que consiste em fornecer respostas erradas e, por vezes, informações perigosas. uma das causas das "alucinações" são dados de treinamento imprecisos, capacidade de generalização insuficiente e efeitos colaterais durante o processo de coleta de dados.