nouvelles

vik singh, vice-président de microsoft : les chatbots ia doivent « apprendre à demander de l'aide » plutôt que de « créer des illusions »

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news le 2 septembre. le 1er septembre, heure locale, selon l'agence france-presse, le vice-président de microsoft, vik singh, a déclaré dans une interview : « franchement, les capacités qui manquent vraiment à (l'ia générative) aujourd'hui sont les suivantes : le modèle n'est pas sûr (si sa propre réponse est exacte), il peut dire de manière proactive « hé, je ne suis pas sûr, j'ai besoin d'aide. »

depuis l'année dernière, microsoft, google et leurs concurrents ont déployé rapidement des applications d'ia générative telles que chatgpt et gemini, qui peuvent générer une variété de contenus à la demande et donner aux utilisateurs l'illusion de « l'omniscience ». malgré les progrès réalisés dans le développement de l’ia générative, ils peuvent encore « halluciner » ou inventer des réponses.

source de l'imagepexels

vik singh insiste sur le fait que « des gens vraiment intelligents » travaillent sur des moyens pour amener les chatbots « à admettre et à demander de l'aide » lorsqu'ils ne connaissent pas la bonne réponse.

pendant ce temps, marc benioff, pdg du géant des logiciels cloud salesforce, a également déclaré la semaine dernière qu'il voyait de nombreux clients devenir de plus en plus frustrés par les performances trompeuses de microsoft copilot.

it house a appris qu'au cours des dernières années, l'intelligence artificielle s'est développée vigoureusement et que des applications telles que les chatbots sont progressivement devenues populaires. les gens peuvent obtenir des informations de ces chatbots (tels que chatgpt) grâce à des instructions simples. cependant, ces chatbots sont toujours sujets au problème des « hallucinations », qui fournissent de fausses réponses et des informations parfois dangereuses. l'une des causes des « hallucinations » est l'inexactitude des données d'entraînement, une capacité de généralisation insuffisante et les effets secondaires lors du processus de collecte de données.