noticias

Los ChatGPT están contaminando el círculo académico

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


cosas inteligentes
Compilado por Chen Junda
Editar Panken

Según un informe de ayer de la principal revista académica Nature, el uso de la IA generativa en la redacción académica ha experimentado un crecimiento explosivo. Investigaciones relevantes muestran que se sospecha que el 10% de los resúmenes de artículos en PubMed, la base de datos más grande en el campo biomédico, han sido escritos por IA, lo que equivale a la participación de la IA en 150.000 artículos cada año.

Una investigación de la Universidad de Ciencias Aplicadas de Berlín en Alemania muestra que la precisión promedio de las principales herramientas de detección AIGC es solo del 50% y es fácil determinar que el contenido de escritura humana es generado por IA. Sin embargo, muchos artículos generados por IA se pueden ocultar fácilmente mediante paráfrasis, sustitución de sinónimos, etc. Además, el uso de herramientas de inteligencia artificial por parte de hablantes nativos de inglés es más difícil de detectar.

Aunque las herramientas de IA se han utilizado ampliamente en el mundo académico anteriormente, el uso de IA generativa para generar artículos directamente o escribir escrituras fantasma sigue siendo controvertido. Las herramientas de inteligencia artificial facilitan el plagio y pueden provocar el uso indebido de contenido protegido por derechos de autor.

La escritura asistida por IA no está exenta de ventajas. Muchos académicos utilizan la escritura generativa asistida por IA para evitar la molestia de publicar artículos en idiomas desconocidos y pueden centrarse en la investigación científica en sí. Muchas revistas permiten el uso de herramientas de IA generativa, pero exigen que los autores revelen su uso en detalle en sus artículos.

1. La IA puede participar en la redacción de 150.000 resúmenes, y es más probable que se descubran hablantes no nativos de inglés.

Desde el lanzamiento de ChatGPT a finales de 2022, el uso de la IA en la redacción académica se ha disparado. Una investigación de la Universidad de Tübingen (Alemania) muestra que en el primer semestre de 2024, al menos el 10% de los resúmenes de artículos biomédicos se escribirán utilizando IA, lo que equivale a aproximadamente 150.000 artículos por año.

Este equipo de investigación analizó los resúmenes de 14 millones de artículos en la base de datos del campo biomédico PubMed de 2010 a 2024. Descubrieron que después de la aparición de las herramientas de inteligencia artificial generativa representadas por ChatGPT, el uso de palabras estilísticas modificadoras específicas aumentó de manera anormal. El equipo de investigación utilizó la frecuencia de estas palabras para estimar la proporción de resúmenes escritos con IA.

Los investigadores también encontraron que el uso de herramientas de escritura de IA también variaba entre países. Sus datos muestran que los artículos de países como China y Corea del Sur utilizan herramientas de escritura de inteligencia artificial con más frecuencia que los artículos de países de habla inglesa.


▲ Ha aumentado el uso de vocabulario estilístico en la escritura académica (Fuente: "Nature")

Según el análisis del equipo de investigación, la frecuencia de uso de la IA por parte de autores en países de habla inglesa puede ser similar a la de otros países, pero la forma en que la utilizan puede ser más difícil de detectar.

De hecho, antes de que surgiera esta ola de IA generativa, la IA ya se había utilizado en campos como el descubrimiento de fármacos y la predicción de la estructura de proteínas. Estos usos no causaron demasiada controversia. La razón detrás de esto puede ser que en tales aplicaciones, la IA claramente juega. un papel. Sigue siendo un papel secundario.

La aplicación de la IA generativa en la redacción académica plantea dos problemas importantes. Por un lado, el plagio se ve facilitado por la IA generativa. Los plagiadores pueden utilizar la IA generativa para parafrasear la investigación de otras personas al estilo de las revistas académicas. El texto parafraseado generalmente es menos similar al texto original, por lo que es difícil considerarlo plagio.

Además, el modelo de IA consume una gran cantidad de contenido protegido por derechos de autor durante el proceso de capacitación, y es muy probable que el modelo envíe contenido protegido por derechos de autor al usuario sin ningún aviso. El New York Times descubrió una vez que ChatGPT, el chatbot de inteligencia artificial de OpenAI, había generado directamente las palabras originales del informe del New York Times sin marcar la fuente. También demandaron a OpenAI por infracción.

2. Las herramientas de detección fallan en el juego del gato y el ratón. Pueden ser fácilmente eludidas y mal juzgadas.

En respuesta al uso cada vez mayor de herramientas de IA, muchas empresas han lanzado herramientas de detección de contenido AIGC, pero estas herramientas han fracasado en el "juego del gato y el ratón" con la IA generativa.

A finales del año pasado, varios académicos de la Universidad de Ciencias Aplicadas de Berlín en Alemania publicaron un estudio. Descubrieron que solo 5 de 14 herramientas de detección de IA comúnmente utilizadas en el mundo académico lograron una tasa de precisión superior al 70%. La precisión media del reconocimiento es sólo del 50% al 60%.


▲ Las principales herramientas de detección AIGC del mercado funcionan mal (Fuente: Weber‑Wulf et al.)

Estas herramientas de detección AIGC funcionan aún peor cuando se enfrentan a contenido generado por IA editado por humanos y transcrito por máquinas. Con sólo operaciones simples como el reemplazo de sinónimos y el ajuste del orden de las palabras, la precisión de la herramienta de detección AIGC se reducirá a menos del 50%. Los estudios han demostrado que la precisión del reconocimiento integral de las herramientas de detección AIGC es solo del 50%.


▲05 y 06 en la figura son, respectivamente, el texto después de la edición humana y la paráfrasis automática generada por IA. La herramienta de detección AIGC funciona muy mal en estos dos tipos de texto (Fuente: Weber-Wulf et al.)

Los datos muestran que las herramientas de reconocimiento AIGC disponibles en el mercado tienen una alta precisión para identificar documentos escritos por humanos. Sin embargo, si el autor primero escribe un artículo original en un idioma con el que está familiarizado y luego le pide al software de traducción que lo traduzca a otro idioma, la herramienta de identificación puede juzgarlo erróneamente como AIGC. Esto puede tener un impacto extremadamente negativo en la reputación académica de académicos y estudiantes.

3. Los límites entre la escritura asistida y la mala conducta académica son borrosos, y las herramientas de escritura de IA también tienen su valor.

Sin embargo, el uso de herramientas de IA generativa resulta conveniente para algunos investigadores. Hend Al-Khalifa, investigador de tecnología de la información de la Universidad Rey Saud en Riad, compartió que antes de la llegada de las herramientas de inteligencia artificial generativa, muchos colegas que no dominaban el inglés enfrentaban grandes dificultades al escribir artículos, y ahora, estos académicos pueden concentrarse. en la investigación misma sin dedicar demasiado tiempo a escribir.

Es difícil trazar la línea entre la escritura asistida por IA y la mala conducta académica. Soheil Feizi, científico informático de la Universidad de Maryland, cree que utilizar IA generativa para parafrasear el contenido de un artículo existente es claramente plagio.

Pero el uso de herramientas de inteligencia artificial para ayudar a expresar opiniones no debería ser castigado. Con la premisa de revelar de forma proactiva el uso de herramientas de IA, los investigadores pueden utilizar palabras detalladas para generar texto o utilizar herramientas de IA para editar borradores.

Muchas revistas también han estandarizado el uso de herramientas de inteligencia artificial en la redacción académica, sin prohibirlo directamente. La principal revista académica "Science" estipula que la IA no puede figurar como coautor, y el autor debe revelar el sistema de IA y las palabras clave utilizadas, y ser responsable de la exactitud del contenido y de si existe sospecha de plagio.


▲ Normativas pertinentes sobre el uso de la IA en la revista académica "Science" (Fuente: sitio web oficial de la revista académica "Science")

La revista académica Nature estipula que los investigadores deben registrar el uso de herramientas de IA generativa en la sección "Métodos de investigación". Las estadísticas muestran que, en octubre de 2023, 87 de las 100 revistas mejor clasificadas han desarrollado directrices para el uso de herramientas de IA generativa.

Conclusión: las herramientas de inteligencia artificial no son un flagelo, solo cambiar la orientación académica puede curar la causa raíz

En la pasada temporada de graduación universitaria, muchas universidades nacionales también introdujeron herramientas de prueba AIGC en el proceso de defensa y revisión de tesis de graduación. Sin embargo, la introducción de este indicador no ha frenado eficazmente la mala conducta académica relacionada con las herramientas de IA. También hay varios servicios en el mercado que se especializan en reducir la tasa de IA. Después de ser juzgados erróneamente como generados por IA, los trabajos de muchos estudiantes fueron modificados hasta quedar irreconocibles debido a la reducción de la tasa de IA.

Es posible que adoptar un enfoque adversario de las herramientas de IA generativa en la investigación académica no pueda solucionar este problema. Los académicos de la Universidad de Ciencias Aplicadas de Berlín en Alemania también enfatizaron al resumir la investigación que el problema del abuso de la IA en la escritura académica es difícil de resolver solo con la detección de AIGC. Ajustar la atmósfera académica orientada al papel y a los resultados es la clave para hacerlo. resolviendo este problema.

Fuente: "Naturaleza"