noticias

¡Ya no me atrevo a usar ChatGPT para escribir artículos! Herramienta anti-trampas OpenAI expuesta

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Compruebe si se utiliza el contenido.ChatGPT, la precisión es tan alta como99.9%

Esta herramienta proviene deIA abierta

Se puede utilizar específicamente para detectar si un trabajo/tarea se ha visto comprometido mediante ChatGPT. Las ideas surgieron en noviembre de 2022 (el mismo mes en que se lanzó ChatGPT).

¡pero!

Algo tan útil, pero fue internamente.Escondido en la nieve durante 2 años., aún no se ha hecho público.

¿Por qué?

OpenAI realizó una encuesta entre usuarios leales y descubrió quecasi un tercio de las personas dijeron que abandonarían ChatGPT si se utilizaran herramientas antitrampas. Y también puede tener un mayor impacto en los usuarios cuyo idioma nativo no es el inglés.

Sin embargo, algunas personas dentro de la empresa también han sugerido que el uso de métodos anti-trampas es beneficioso para el ecosistema OpenAI.

Las dos partes han estado discutiendo y la herramienta de detección de marcas de agua no se ha publicado.

Además de OpenAI, Google y Apple también han preparado herramientas similares y algunas han comenzado pruebas internas, pero ninguna se ha lanzado oficialmente.

Las discusiones comenzaron antes del lanzamiento de ChatGPT

Después de que ChatGPT se hizo popular, muchos estudiantes de secundaria y universitarios lo usaron para hacer sus tareas, por lo que cómo identificar el contenido generado por IA se ha convertido en un tema candente en el círculo.

A juzgar por la última información expuesta, OpenAI consideró este problema mucho antes del lanzamiento de ChatGPT.

La persona que desarrolló esta tecnología en ese momento fueScott Aaronson, que trabaja en seguridad en OpenAI y es profesor de informática en la Universidad de Texas.

A principios de 2023, uno de los cofundadores de OpenAIJuan Schulman, que describe los pros y los contras de la herramienta en un documento de Google.

Los ejecutivos de la empresa decidieron entonces que buscarían la opinión de una serie de personas antes de tomar medidas adicionales.

En abril de 2023, una encuesta encargada por OpenAI mostró que solo había1/4de las personas apoyan la adición de herramientas de detección.

En el mismo mes, OpenAI anunció otroUsuarios de ChatGPTRealizamos una encuesta.

Los resultados muestran que existencasi el 30%de los usuarios dijeron que usarían menos ChatGPT si implementara marcas de agua.

Desde entonces, ha continuado la controversia sobre la madurez técnica de la herramienta y las preferencias de los usuarios.

A principios de junio de este año, OpenAI convocó a investigadores y personal de alto nivel para discutir nuevamente el proyecto.

Se dice que al final todos estuvieron de acuerdo en que, aunque la tecnología ha madurado, no se pueden ignorar los resultados de la encuesta de usuarios de ChatGPT del año pasado.

Los documentos internos muestran que OpenAI cree que necesitanantes de este otoñoDesarrollar un plan para influir en la percepción pública de la transparencia de la IA.

Sin embargo, hasta que se conoció la noticia actual, OpenAI no había revelado contramedidas relevantes.

¿Por qué no hacerlo público?

Para resumir las razones por las que OpenAI no ha divulgado esta tecnología durante mucho tiempo,Hay principalmente dos aspectos: Uno es la tecnología y el otro es la preferencia del usuario.

Hablemos primero de tecnología. Ya en enero de 2023, OpenAI desarrolló una tecnología para filtrar texto de múltiples modelos de IA (incluido ChatGPT).

La tecnología utiliza un enfoque similar a una "marca de agua" para incrustar marcadores invisibles en el texto.

De esta manera, cuando alguien analiza el texto con una herramienta de detección, el detector puede proporcionar una puntuación que indica la probabilidad de que el texto haya sido generado por ChatGPT.

Sin embargo, la tasa de éxito en ese momento era solo del 26% y OpenAI la retiró después de solo 7 meses.

Posteriormente, OpenAI elevó gradualmente la tasa de éxito de la tecnología hasta el 99,9%. Técnicamente, el proyecto estuvo listo para su lanzamiento hace aproximadamente un año.

Sin embargo, otra controversia en torno a la tecnología es que los empleados internos creen que la tecnología podría dañarCalidad de escritura ChatGPT

Al mismo tiempo, los empleados también expresaron algunas preocupaciones sobre"La gente puede eludir las marcas de agua"riesgos potenciales.

Por ejemplo, la "técnica de traducción" que practican los estudiantes universitarios consiste en traducir un texto a otro idioma y luego volver a traducirlo mediante un método similar al Traductor de Google, que puede borrarse.

Otro ejemplo es que alguien ha implementado una "política desde arriba y contramedidas desde abajo". Una vez que más personas usen públicamente la herramienta de marca de agua, los internautas designarán una versión descifrada en minutos.

Además de la tecnología, otro obstáculo importante son los usuarios. Múltiples encuestas realizadas por OpenAI muestran que los usuarios no parecen ser optimistas acerca de esta tecnología.

Esto también hay que mencionar a los usuarios.¿Qué estás haciendo con ChatGPT?

Esta pregunta se puede derivar de una encuesta realizada por el Washington Post. Examinaron casi 200.000 registros de chat en inglés del conjunto de datos WildChat. Estas conversaciones fueron generadas por humanos y dos robots creados en ChatGPT.

Como puede verse, la gente usa principalmente ChatGPT paraEscritura (21%)así comoAyuda con la tarea (18%)

Parece que no es difícil entender por qué la gente se opone a esta tecnología de detección.

Entonces, ¿estás de acuerdo en agregar marcas de agua al usar herramientas como ChatGPT?