La alucinación por IA es inevitable, cómo lidiar con ella
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Zhang HaiCon el rápido desarrollo de la tecnología de inteligencia artificial (IA), la "ilusión de IA", es decir, errores o ilusiones en el procesamiento y generación de información por parte de la inteligencia artificial, se ha convertido en un problema que no se puede ignorar. En 2023, "alucinación" se convirtió en la palabra del año del Diccionario Cambridge y Dictionary.com. Según Dictionary.com, las búsquedas de la palabra "alucinación" aumentaron un 46% en 2023 con respecto al año anterior. Además de la definición original de "alucinación" en el Diccionario de Cambridge, "ver, oír, sentir u oler algo que no está ahí, generalmente debido a una condición médica o porque ha tomado algún medicamento". Las alucinaciones de IA generan mensajes de error".Un artículo reciente sobre "Machine Behavior" en la revista "Nature" señaló que la inteligencia artificial se ha vuelto omnipresente en la sociedad humana actual. Los algoritmos de clasificación de noticias afectarán la información que la gente ve, los algoritmos de consumo afectarán los bienes de consumo que la gente compra y los algoritmos de llamada de taxis. afectará Nuestros patrones de viaje y los algoritmos de hogares inteligentes afectarán nuestra vida familiar. En los campos legal, médico y otros, el impacto de la inteligencia artificial es aún mayor. La inteligencia artificial permite a las máquinas pensar y comportarse cada vez más como humanos. Como resultado, las máquinas influyen cada vez más en la estructura de la sociedad humana. Las máquinas moldean el comportamiento humano, y los humanos también moldean el comportamiento de las máquinas. La forma en que los humanos y las máquinas colaboran tendrá un impacto significativo y de gran alcance en la forma social futura.En la era de la inteligencia artificial, las alucinaciones por IA se han convertido en un fenómeno común. Desde posibles errores de juicio en vehículos autónomos hasta malas interpretaciones de instrucciones por parte de asistentes inteligentes y diagnósticos erróneos mediante herramientas de diagnóstico médico, las ilusiones de la IA están presentes en todos los rincones de nuestra vida diaria. En 2024, el motor de búsqueda Google lanzó un servicio de búsqueda con inteligencia artificial: AI Overview, que proporciona respuestas generadas por IA. La intención original era mejorar la experiencia del usuario, pero los usuarios pronto descubrieron que la descripción general de la IA proporcionaba una gran cantidad de respuestas escandalosas, como sugerir usar pegamento para pegar pizza y comer piedras todos los días para obtener nutrientes, etc., lo que provocó que Google cerrar rápidamente algunas de sus funciones.Desde la perspectiva de los científicos de inteligencia artificial, las alucinaciones de la IA son esencialmente inevitables debido a limitaciones técnicas y deficiencias en la cognición humana. Aunque los técnicos están trabajando arduamente para mejorar la precisión y confiabilidad de la IA, las ilusiones de la IA todavía ocurren con frecuencia y son difíciles de eliminar por completo debido a factores como datos incompletos, limitaciones de los algoritmos y entornos interactivos complejos.El mecanismo de las alucinaciones de la IA implica muchos aspectos. En primer lugar, el sesgo de los datos es una de las razones principales. Si los datos de entrenamiento de la IA carecen de diversidad o tienen un sesgo sistemático, los resultados de salida pueden ser alucinantes. En segundo lugar, los algoritmos de IA actuales, especialmente los basados en estadísticas, no pueden adaptarse perfectamente a situaciones nuevas e invisibles, lo que puede dar lugar a juicios incorrectos. En tercer lugar, las limitaciones cognitivas de los diseñadores humanos también son un problema importante. Los sesgos subjetivos de los diseñadores y formadores pueden codificarse inadvertidamente en el sistema de IA, afectando su toma de decisiones. Finalmente, el entorno interactivo en el que opera el sistema de IA está lleno de variables. Los factores ambientales complejos y cambiantes a menudo exceden las capacidades de procesamiento del sistema de IA, lo que lleva a la generación de alucinaciones de IA.¿Cómo afrontar la ubicuidad y la inevitabilidad de las alucinaciones de la IA? En primer lugar, mejorar la calidad y la diversidad de los datos es fundamental. Al aumentar la amplitud y profundidad de los datos de entrenamiento, se puede reducir el sesgo de datos y mejorar la capacidad de generalización del sistema de IA. En segundo lugar, optimizar el diseño del algoritmo y mejorar su robustez y adaptabilidad puede permitir que el sistema de IA afronte mejor situaciones nuevas. En tercer lugar, también es fundamental mejorar la educación y la conciencia de los usuarios. Ayudarlos a comprender correctamente las capacidades y limitaciones de la IA puede reducir eficazmente las ilusiones causadas por malentendidos. Además, establecer normas éticas y mecanismos de supervisión para garantizar que el desarrollo y la aplicación de la IA cumplan con los estándares éticos y legales es igualmente importante para reducir la aparición de alucinaciones por IA. Por último, la colaboración interdisciplinaria desempeña un papel clave a la hora de abordar las alucinaciones de la IA. Ingenieros, científicos de datos, psicólogos, especialistas en ética y expertos legales deben participar conjuntamente en el proceso de diseño y evaluación de sistemas de IA y resolver conjuntamente el problema de la ilusión de la IA desde las perspectivas profesionales de sus respectivos campos.En la era de la inteligencia artificial, las alucinaciones por IA son un problema complejo, común e inevitable, que requiere que adoptemos estrategias multidimensionales y multinivel para abordarlo, minimizando así el impacto negativo de las alucinaciones por IA. Las "Directrices para la inteligencia artificial generativa en la educación y la investigación" publicadas por la UNESCO en 2023 recomiendan fijar en 13 años la edad mínima para utilizar herramientas de inteligencia artificial en el aula. Open AI recomienda que los niños menores de 13 años tengan prohibido el uso de inteligencia artificial generativa, y los niños de 13 a 18 años deben utilizarla bajo la guía de un tutor.En 2023 se celebrará en Singapur una Cumbre de Medios de Confianza para compartir las medidas adoptadas por varios países para mejorar la alfabetización mediática de los jóvenes. Por ejemplo, "SQUIZ KIDS", una actividad de bienestar público lanzada en el extranjero basada en sitios web y podcasts y dirigida a estudiantes de escuela primaria para mejorar la alfabetización mediática, ayuda a cultivar la capacidad de los jóvenes para distinguir la información errónea y la información falsa que aparece en Internet. Consta principalmente de tres pasos: DETENERSE cuando se expone a información de la red, pensar en ello (PENSAR) y finalmente verificar un par (COMPROBAR) para confirmar si es consistente con una fuente de información confiable. Al reunir conocimientos y habilidades de diferentes campos para identificar problemas de manera más integral y encontrar soluciones, podemos esperar la llegada de una sociedad de inteligencia artificial más inteligente, segura y confiable. (El autor es profesor de la Facultad de Ciencias de los Medios de la Universidad Normal del Noreste y director del Centro de Ingeniería de Innovación Integrada de Inteligencia Artificial y Educación Provincial de Jilin) ▲