notícias

Não me atrevo mais a usar o ChatGPT para escrever artigos! Ferramenta anti-cheat OpenAI exposta

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Verifique se o conteúdo é usadoBate-papoGPT, a precisão é tão alta quanto99.9%

Esta ferramenta vem deIA aberta

Ele pode ser usado especificamente para detectar se um documento/tarefa foi comprometido usando ChatGPT. As ideias foram lançadas já em novembro de 2022 (mesmo mês em que o ChatGPT foi lançado).

mas!

Uma coisa tão útil, mas foi internamenteEscondido na neve por 2 anos, ainda não foi divulgado.

Por que?

A OpenAI conduziu uma pesquisa entre usuários fiéis e descobriu quequase um terço das pessoas disseram que abandonariam o ChatGPT se ferramentas anti-trapaça fossem usadas. E também pode ter um impacto maior sobre usuários não nativos de língua inglesa.

No entanto, algumas pessoas dentro da empresa também sugeriram que o uso de métodos anti-trapaça é benéfico para o ecossistema OpenAI.

Os dois lados têm discutido e a ferramenta de detecção de marca d'água não foi lançada.

Além do OpenAI, Google e Apple também prepararam ferramentas semelhantes, e algumas iniciaram testes internos, mas nenhuma foi lançada oficialmente.

As discussões começaram antes do lançamento do ChatGPT

Depois que o ChatGPT se tornou popular, muitos estudantes do ensino médio e universitários o usaram para fazer o dever de casa, então como identificar o conteúdo gerado pela IA se tornou um tema quente no círculo.

A julgar pelas últimas informações expostas, a OpenAI considerou esse problema muito antes do lançamento do ChatGPT.

A pessoa que desenvolveu esta tecnologia naquela época foiScott Aaronson, que trabalha com segurança na OpenAI e é professor de ciência da computação na Universidade do Texas.

No início de 2023, um dos cofundadores da OpenAIJoão Schulman, descrevendo os prós e os contras da ferramenta em um documento do Google.

Os executivos da empresa decidiram então que buscariam a opinião de diversas pessoas antes de tomar outras medidas.

Em abril de 2023, uma pesquisa encomendada pela OpenAI mostrou que havia apenas1/4das pessoas apoiam a adição de ferramentas de detecção.

No mesmo mês, a OpenAI anunciou outroUsuários do ChatGPTRealizamos uma pesquisa.

Os resultados mostram que existemquase 30%dos usuários disseram que usariam menos o ChatGPT se ele implantasse marcas d'água.

Desde então, a controvérsia continuou sobre a maturidade técnica da ferramenta e as preferências do usuário.

No início de junho deste ano, a OpenAI reuniu funcionários seniores e pesquisadores para discutir novamente o projeto.

Diz-se que no final todos concordaram que embora a tecnologia tenha amadurecido, os resultados da pesquisa de usuários do ChatGPT do ano passado não podem ser ignorados.

Documentos internos mostram que a OpenAI acredita que precisaantes deste outonoDesenvolva um plano para influenciar a percepção pública da transparência da IA.

No entanto, até que as notícias atuais fossem divulgadas, a OpenAI não divulgou contramedidas relevantes.

Por que não torná-lo público?

Para resumir as razões pelas quais a OpenAI não divulga esta tecnologia há muito tempo,Existem basicamente dois aspectos: Uma é a tecnologia e a outra é a preferência do usuário.

Vamos falar primeiro sobre tecnologia. Já em janeiro de 2023, a OpenAI desenvolveu uma tecnologia para triagem de texto de vários modelos de IA (incluindo ChatGPT).

A tecnologia usa uma abordagem semelhante a uma “marca d’água” para incorporar marcadores invisíveis no texto.

Dessa forma, quando alguém analisa o texto com uma ferramenta de detecção, o detector pode fornecer uma pontuação indicando a probabilidade de o texto ter sido gerado pelo ChatGPT.

No entanto, a taxa de sucesso era de apenas 26% na época, e a OpenAI retirou-a após apenas 7 meses.

Mais tarde, a OpenAI aumentou gradualmente a taxa de sucesso da tecnologia para 99,9%. Tecnicamente, o projeto estava pronto para lançamento há cerca de um ano.

No entanto, outra controvérsia em torno da tecnologia é que os funcionários internos acreditam que a tecnologia pode prejudicarQualidade de escrita ChatGPT

Ao mesmo tempo, os funcionários também levantaram algumas preocupações sobre“As pessoas podem contornar marcas d’água”riscos potenciais.

Por exemplo, a “técnica de tradução” praticada por estudantes universitários é traduzir o texto para outro idioma e depois traduzi-lo novamente por meio de um método semelhante ao Google Translate, que pode ser apagado.

Outro exemplo é que alguém implementou uma “política de cima e contramedidas de baixo”. Assim que mais pessoas usarem a ferramenta de marca d’água publicamente, os internautas designarão uma versão crackeada em minutos.

Além da tecnologia, outro grande obstáculo são os utilizadores. Várias pesquisas da OpenAI mostram que os utilizadores não parecem estar optimistas em relação a esta tecnologia.

Isso também deve mencionar os usuários.O que você está fazendo com ChatGPT?

Esta questão pode ser consultada em uma pesquisa do Washington Post. Eles analisaram quase 200.000 registros de bate-papo em inglês do conjunto de dados WildChat. Essas conversas foram geradas por humanos e dois bots construídos no ChatGPT.

Como pode ser visto, as pessoas usam principalmente o ChatGPT paraEscrita (21%)assim comoAjuda com o dever de casa (18%)

Parece que não é difícil compreender porque é que as pessoas se opõem a esta tecnologia de detecção.

Então, você concorda em adicionar marcas d’água ao usar ferramentas como ChatGPT?