nouvelles

L'hallucination de l'IA est inévitable, comment y faire face

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Zhang HaiAvec le développement rapide de la technologie de l'intelligence artificielle (IA), « l'illusion de l'IA », c'est-à-dire les erreurs ou les illusions dans le traitement et la génération de l'information par l'intelligence artificielle, est devenue un problème qui ne peut être ignoré. En 2023, « hallucination » est devenu le mot de l’année du Cambridge Dictionary et de Dictionary.com. Selon Dictionary.com, les recherches du mot « hallucination » ont augmenté de 46 % en 2023 par rapport à l'année précédente. En plus de la définition originale de « hallucination » dans le dictionnaire Cambridge, « voir, entendre, sentir ou sentir quelque chose qui n'est pas là, généralement en raison d'un problème de santé ou parce que vous avez pris des médicaments. » Ajout d'une nouvelle signification : « Les hallucinations de l'IA génèrent des messages d'erreur".Un article récent "Machine Behaviour" dans le magazine "Nature" a souligné que l'intelligence artificielle est devenue omniprésente dans la société humaine d'aujourd'hui. Les algorithmes de classement des actualités affecteront les informations que les gens voient, les algorithmes de consommation affecteront les biens de consommation que les gens achètent et les algorithmes d'appel de taxi. affectera Nos habitudes de voyage et les algorithmes de maison intelligente affecteront notre vie de famille. Dans les domaines juridique, médical et autres, l'impact de l'intelligence artificielle est encore plus grand. L’intelligence artificielle permet aux machines de penser et de se comporter de plus en plus comme des humains. En conséquence, les machines influencent de plus en plus la structure de la société humaine. Les machines façonnent le comportement humain, et les humains façonnent également le comportement des machines. La façon dont les humains et les machines collaborent aura un impact significatif et profond sur la forme sociale future.À l’ère de l’intelligence artificielle, les hallucinations de l’IA sont devenues un phénomène courant. Des erreurs d’appréciation possibles dans les voitures autonomes à la mauvaise interprétation des instructions par les assistants intelligents en passant par les erreurs de diagnostic par les outils de diagnostic médical, les illusions de l’IA sont présentes dans tous les recoins de notre vie quotidienne. En 2024, le moteur de recherche Google a lancé un service de recherche d’intelligence artificielle : AI Overview, qui fournit des réponses générées par l’IA. L'intention initiale était d'améliorer l'expérience utilisateur, mais les utilisateurs ont vite découvert que l'aperçu de l'IA fournissait un grand nombre de réponses scandaleuses, comme suggérer d'utiliser de la colle pour coller la pizza et de manger des pierres tous les jours pour obtenir des nutriments, etc., provoquant Google pour arrêter rapidement certaines de ses fonctions.Du point de vue des scientifiques en intelligence artificielle, les hallucinations de l’IA sont essentiellement inévitables en raison des limitations techniques et des déficiences de la cognition humaine. Bien que les techniciens travaillent dur pour améliorer la précision et la fiabilité de l’IA, les illusions de l’IA se produisent encore fréquemment et sont difficiles à éliminer complètement en raison de facteurs tels que des données incomplètes, les limites des algorithmes et des environnements interactifs complexes.Le mécanisme de l’hallucination de l’IA implique de nombreux aspects. Tout d'abord, le biais des données est l'une des principales raisons. Si les données de formation de l'IA manquent de diversité ou présentent un biais systématique, les résultats peuvent être hallucinatoires. Deuxièmement, les algorithmes d’IA actuels, notamment ceux basés sur des statistiques, ne peuvent pas s’adapter parfaitement à des situations nouvelles et invisibles, ce qui peut conduire à des jugements erronés. Troisièmement, les limitations cognitives des concepteurs humains constituent également un problème majeur. Les préjugés subjectifs des concepteurs et des formateurs peuvent être codés par inadvertance dans le système d’IA, affectant ainsi sa prise de décision. Enfin, l'environnement interactif dans lequel le système d'IA fonctionne est plein de variables. Des facteurs environnementaux complexes et changeants dépassent souvent les capacités de traitement du système d'IA, conduisant à la génération d'hallucinations d'IA.Comment faire face à l’omniprésence et au caractère inévitable des hallucinations de l’IA ? Premièrement, améliorer la qualité et la diversité des données est fondamental. En augmentant l'étendue et la profondeur des données de formation, le biais des données peut être réduit et la capacité de généralisation du système d'IA peut être améliorée. Deuxièmement, l’optimisation de la conception de l’algorithme et l’amélioration de sa robustesse et de son adaptabilité peuvent permettre au système d’IA de mieux faire face aux nouvelles situations. Troisièmement, il est également crucial d’améliorer l’éducation et la sensibilisation des utilisateurs. Aider les utilisateurs à comprendre correctement les capacités et les limites de l’IA peut réduire efficacement les illusions causées par les malentendus. En outre, l’établissement de normes éthiques et de mécanismes de supervision pour garantir que le développement et l’application de l’IA sont conformes aux normes éthiques et juridiques est tout aussi important pour réduire l’apparition d’hallucinations liées à l’IA. Enfin, la collaboration interdisciplinaire joue un rôle clé dans la gestion des hallucinations de l’IA. Les ingénieurs, les data scientists, les psychologues, les éthiciens et les experts juridiques devraient participer conjointement au processus de conception et d'évaluation des systèmes d'IA et résoudre conjointement le problème de l'illusion de l'IA du point de vue professionnel de leurs domaines respectifs.À l'ère de l'intelligence artificielle, les hallucinations de l'IA sont un problème complexe, courant et inévitable, qui nous oblige à adopter des stratégies multidimensionnelles et à plusieurs niveaux pour y faire face, minimisant ainsi l'impact négatif des hallucinations de l'IA. Les « Lignes directrices pour l'intelligence artificielle générative dans l'éducation et la recherche » publiées par l'UNESCO en 2023 recommandent de fixer à 13 ans l'âge minimum pour utiliser les outils d'intelligence artificielle en classe. Open AI recommande qu'il soit interdit aux enfants de moins de 13 ans d'utiliser l'intelligence artificielle générative et que les enfants âgés de 13 à 18 ans doivent l'utiliser sous la direction d'un tuteur.Un Trusted Media Summit se tiendra à Singapour en 2023 pour partager les mesures prises par divers pays pour améliorer l'éducation médiatique des jeunes. Par exemple, « SQUIZ KIDS », une activité d'assistance publique lancée à l'étranger sur la base de sites Web et de podcasts et ciblant les élèves des écoles primaires pour améliorer l'éducation aux médias, contribue à développer la capacité des jeunes à distinguer la désinformation des fausses informations apparaissant sur Internet. Il se compose principalement de trois étapes : ARRÊTEZ lorsque vous êtes exposé aux informations du réseau, réfléchissez-y (PENSEZ) et enfin vérifiez une paire (VÉRIFIER) pour confirmer si elle est cohérente avec une source d'informations fiable. En rassemblant des connaissances et des compétences dans différents domaines pour identifier de manière plus complète les problèmes et trouver des solutions, nous pouvons nous attendre à l’arrivée d’une société d’intelligence artificielle plus intelligente, plus sûre et plus fiable. (L'auteur est professeur à l'École des sciences des médias de l'Université normale du Nord-Est et directeur du Centre provincial d'ingénierie d'innovation intégrée pour l'éducation et l'intelligence artificielle de Jilin) ​​▲
Rapport/Commentaires