noticias

vicepresidente de microsoft, vik singh: los chatbots de ia deben "aprender a pedir ayuda" en lugar de "crear ilusiones"

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news el 2 de septiembre. el 1 de septiembre, hora local, según agence france-presse, el vicepresidente de microsoft, vik singh, dijo en una entrevista: “hablando francamente, las capacidades de las que (la ia generativa) realmente carece hoy en día son, es decir, cuando el modelo no está seguro (si su propia respuesta es precisa), puede decir de manera proactiva: 'oye, no estoy seguro, necesito ayuda'".

desde el año pasado, microsoft, google y sus competidores han estado implementando rápidamente aplicaciones de ia generativa como chatgpt y gemini, que pueden generar una variedad de contenidos bajo demanda y dar a los usuarios la ilusión de "omnisciencia". a pesar de los avances en el desarrollo de la ia generativa, todavía pueden "alucinar" o inventar respuestas.

fuente de la imagen pexels

vik singh insiste en que "personas realmente inteligentes" están trabajando en formas de lograr que los chatbots "admitan y pidan ayuda" cuando no saben la respuesta correcta.

mientras tanto, marc benioff, director ejecutivo del gigante del software en la nube salesforce, también dijo la semana pasada que veía a muchos clientes cada vez más frustrados con el desempeño engañoso de microsoft copilot.

it house se enteró de que en los últimos años la inteligencia artificial ha estado en auge y aplicaciones como los chatbots se han vuelto populares gradualmente. las personas pueden obtener información de estos chatbots (como chatgpt) a través de instrucciones simples. sin embargo, estos chatbots siguen siendo propensos al problema de las "alucinaciones", que consisten en proporcionar respuestas erróneas y, en ocasiones, información peligrosa. una de las causas de las "alucinaciones" son los datos de entrenamiento inexactos, la capacidad de generalización insuficiente y los efectos secundarios durante el proceso de recopilación de datos.