nouvelles

Analyse approfondie : la « supervision volontaire » promise par les géants de l’IA comme Google et Microsoft a-t-elle été réalisée ?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Il y a un an, parmi lesquels Amazon, Microsoft, Google, Meta,OpenAISept sociétés d'intelligence artificielle, dont Anthropic et Inflection, ont conclu huit engagements volontaires avec la Maison Blanche sur la manière de développer l'intelligence artificielle de manière sûre et fiable.

Ces engagements incluent l’augmentation des tests et de la transparence des systèmes d’IA et le partage d’informations sur les dangers et les risques potentiels.

À l'occasion du premier anniversaire de la signature de l'engagement volontaire, le MIT Technology Review a demandé aux entreprises d'IA qui ont signé l'engagement des détails sur leur travail jusqu'à présent. Leurs réponses indiquent des progrès prometteurs pour l’industrie technologique, mais aussi des mises en garde importantes.

Ces engagements volontaires sont pris enintelligence artificielle générative Cette décision intervient alors que la frénésie « pourrait être à son paroxysme » alors que les entreprises se précipitent pour lancer leurs propres modèles et les rendre plus grands et meilleurs que ceux de leurs concurrents. Dans le même temps, nous commençons également à voir des débats autour de questions telles que le droit d’auteur et les deepfakes. Un lobby composé de personnalités technologiques influentes telles que Geoffrey Hinton a également fait part de ses inquiétudes quant au fait que l’IA pourrait poser des risques existentiels pour l’humanité. Tout à coup, tout le monde parle de la nécessité urgente d’assurer la sécurité de l’IA, et les régulateurs du monde entier sont sous pression pour agir.

Jusqu’à récemment, le développement de l’intelligence artificielle ressemblait au « Far West ». Les États-Unis ont toujours été réticents à réglementer leurs géants de la technologie, comptant plutôt sur eux pour s’autoréglementer. Les engagements volontaires en sont un bon exemple : il s’agit de règles prescriptives pour le domaine de l’intelligence artificielle aux États-Unis, mais elles restent volontaires et ne peuvent être appliquées. La Maison Blanche a ensuite publié un décret élargissant ces engagements et s’appliquant à d’autres entreprises technologiques et agences gouvernementales.

"Un an plus tard, nous voyons certaines entreprises adopter de bonnes pratiques avec leurs produits, mais elles sont loin d'être là où nous devrions être en termes de bonne gouvernance ou de protection des droits fondamentaux", a déclaré Merve. Hickok, président et directeur de la recherche. Elle a examiné les réponses des entreprises à la demande du MIT Technology Review. "Beaucoup de ces entreprises continuent de promouvoir des allégations non fondées sur leurs produits, comme celles selon lesquelles ils peuvent surpasser l'intelligence et les capacités humaines", a-t-elle ajouté.

L’une des tendances qui ressort de ces réponses des entreprises technologiques est que les entreprises prennent davantage de mesures pour rechercher des solutions techniques, telles que la confrontation rouge-bleu (dans laquelle les humains explorent les failles des modèles d’IA) et l’ajout de filigranes au contenu généré par l’IA.

Rishi Bommasani, directeur du Centre de modélisation fondamentale de l'Université de Stanford, a déclaré qu'il n'était pas clair quels changements avaient eu lieu par rapport à ces engagements ni si les entreprises mettraient en œuvre les mesures. Il a également examiné les réponses pour le MIT Technology Review.

Un an, c'est long dans le domaine de l'intelligence artificielle. Depuis la signature de l'engagement volontaire, le fondateur d'Inflection AI, Mustafa Suleyman, a quitté l'entreprise pour rejoindre Microsoft pour diriger les efforts liés à l'IA. Inflexion a refusé de commenter.

La porte-parole de la Maison Blanche, Robyn Patterson, a déclaré : « Nous sommes reconnaissants des progrès réalisés par les grandes entreprises pour remplir leurs engagements volontaires au-delà des exigences du décret. Cependant, le président continue d'appeler le Congrès à adopter une législation bipartite sur l'intelligence artificielle.

Brandie Nonnecke, directrice du CITRIS Policy Lab à l'Université de Californie à Berkeley, a déclaré que sans une législation fédérale complète, tout ce que les États-Unis peuvent faire maintenant, c'est exiger des entreprises qu'elles respectent ces engagements volontaires.

Mais ce qu’il est important de retenir, c’est que « ces entreprises étudient essentiellement pour le test qui leur est proposé », a déclaré Brandie Nonnecke, « nous devons donc examiner attentivement si elles se valident réellement d’une manière vraiment rigoureuse ».

Voici notre évaluation des progrès réalisés par ces sociétés d’IA au cours de l’année écoulée.

Engagement 1. Les entreprises s’engagent à réaliser des tests de sécurité internes et externes de leurs systèmes d’IA avant leur mise sur le marché. Ces tests, qui seront en partie réalisés par des experts indépendants, permettent de se prémunir contre certaines des sources de risques les plus importantes liées à l’IA, comme la biosécurité et la cybersécurité, ainsi que contre ses effets sociétaux plus larges.

Engagement 1 : Effectuez des tests de sécurité internes et externes des systèmes d’IA avant de les publier. Une partie de ces tests sera réalisée par des experts indépendants et vise à protéger contre certaines des sources les plus importantes de risques liés à l’IA, telles que la biosécurité, la cybersécurité et les impacts sociaux plus larges.

Toutes les entreprises (sauf Inflection, qui a choisi de ne pas commenter) ont déclaré avoir mené des confrontations rouge-bleu pour permettre aux testeurs internes et externes d'explorer les failles et les risques de leurs modèles. OpenAI a déclaré disposer d'une équipe de préparation distincte qui teste des modèles de cybersécurité, de menaces chimiques, biologiques, radiologiques et nucléaires, ainsi que des modèles sophistiqués d'intelligence artificielle capables de faire ou de convaincre une personne de faire des choses qui pourraient causer des dommages. Anthropic et OpenAI ont également déclaré qu'ils effectueraient ces tests avec des experts externes avant de déployer de nouveaux modèles.Par exemple, pour lancer son dernier modèle, Claude 3.5, Anthropic a effectué des tests préalables au déploiement avec des experts de l'Artificial Intelligence Security Institute du Royaume-Uni. Anthropic a également permis à l'organisation de recherche à but non lucratif METR d'effectuer des tests préalables au déploiement de Claude 3.5.Pilote automatique La fonctionnalité a été « explorée au préalable ». Google a déclaré qu'il menait également des confrontations internes rouge-bleu sur son modèle Gemini pour tester les limites du contenu lié aux élections, les risques sociaux et les problèmes de sécurité nationale. Microsoft a déclaré avoir travaillé avec des évaluateurs tiers de NewsGuard, une organisation qui promeut l'intégrité journalistique, pour évaluer et atténuer le risque d'utilisation abusive des deepfakes dans l'outil de conversion texte-image de Microsoft. Meta a déclaré qu'en plus de la confrontation rouge-bleu, elle avait également évalué son dernier modèle, le Llama 3, pour voir comment il se comportait dans une série de domaines à risque, notamment les armes, les cyberattaques et l'exploitation des enfants.

« Lorsqu’il s’agit de tests, il ne suffit pas de simplement signaler qu’une entreprise prend des mesures », a déclaré Rishi Bommasani. Par exemple, Amazon et Anthropic ont déclaré s'être associés à l'organisation à but non lucratif Thorn pour lutter contre les risques que l'intelligence artificielle pose pour la sécurité des enfants. Il aimerait en savoir plus sur la manière dont les interventions mises en œuvre par l’entreprise réduisent réellement ces risques.

"Nous devons clairement comprendre que ce ne sont pas seulement les entreprises qui font les choses, mais que ces choses produisent l'effet souhaité", a déclaré Rishi Bommasani.

résultat: très bien. Faire progresser le rouge et le bleu contre et tester divers risques est un travail important. Cependant, Merve Hickok souhaiterait que les chercheurs indépendants aient un accès plus large aux modèles de l'entreprise.

Engagement 2. Les entreprises s’engagent à partager des informations sur la gestion des risques liés à l’IA avec l’ensemble du secteur, les gouvernements, la société civile et le monde universitaire. Cela comprend les meilleures pratiques en matière de sécurité, des informations sur les tentatives de contournement des mesures de protection et une collaboration technique.

Engagement 2 : Partagez des informations sur la gestion des risques liés à l’IA avec l’industrie et le gouvernement, la société civile et le monde universitaire. Cela inclut les meilleures pratiques de sécurité, les informations sur les tentatives de contournement des garanties et la coopération technique.

Après avoir signé l'engagement volontaire, Google, Microsoft, Anthropic et OpenAI ont formé le Frontier Model Forum, une organisation à but non lucratif conçue pour promouvoir la discussion et l'action sur la sécurité et la responsabilité de l'intelligence artificielle. Plus tard, Amazon et Meta se sont joints à nous.

Rishi Bommasani a déclaré que les partenariats avec des organisations à but non lucratif que les entreprises d'IA financent elles-mêmes ne s'inscrivent peut-être pas dans l'esprit d'un engagement volontaire. Selon lui, le Frontier Model Forum pourrait être un moyen pour ces entreprises de collaborer entre elles et de transmettre des messages de sécurité, ce qu'elles ont souvent du mal à faire en tant que concurrents.

"Même s'ils ne divulguent pas d'informations au public, on pourrait espérer qu'ils trouveront au moins collectivement des moyens de réduire le risque", a déclaré Rishi Bommasani.

Les sept signataires sont également membres de l'Artificial Intelligence Institute for Safety Consortium (AISIC), créé par le National Institute of Standards and Technology (NIST) pour élaborer des lignes directrices et des normes pour la politique en matière d'IA et l'évaluation des performances de l'IA. acteurs du secteur. Google, Microsoft et OpenAI ont également des représentants au sein du Groupe consultatif de haut niveau des Nations Unies sur l'intelligence artificielle.

De nombreuses entreprises ont également souligné leurs collaborations de recherche avec le monde universitaire. Par exemple, Google fait partie de MLCommons, où il travaille avec des universitaires pour mener des recherches intersectorielles sur la sécurité de l’IA. Google a également déclaré qu'il fournissait activement des outils et des ressources tels que des crédits informatiques à des programmes tels que le programme pilote National Artificial Intelligence Research Resources de la National Science Foundation, qui vise à démocratiser la recherche sur l'intelligence artificielle aux États-Unis.

De nombreuses entreprises contribuent également au Partnership on AI, une autre organisation à but non lucratif cofondée par Amazon, Google, Microsoft, Facebook, DeepMind et IBM, pour déployer les modèles sous-jacents.

résultat: Il reste encore du travail à faire. Alors que l’industrie travaille ensemble pour rendre les systèmes d’IA sûrs et fiables, partager davantage d’informations constitue sans aucun doute un pas important dans la bonne direction. Cependant, on ne sait pas exactement dans quelle mesure les efforts annoncés aboutiront réellement à des changements significatifs, et dans quelle mesure ils ne seront que cosmétiques.

Engagement 3. Les entreprises s’engagent à investir dans la cybersécurité et à protéger les modèles de pondération propriétaires et non publiés. Ces modèles de pondération constituent l’élément le plus essentiel d’un système d’IA, et les entreprises conviennent qu’il est essentiel que les modèles de pondération ne soient publiés que lorsque cela est prévu et lorsque les risques de sécurité sont pris en compte.

Engagement 3 : Investissez dans des mesures de cybersécurité et de protection contre les menaces internes pour protéger les pondérations des modèles propriétaires et inédits. Ces pondérations de modèle constituent la partie la plus importante d’un système d’IA, et les entreprises conviennent qu’il est essentiel de ne publier les pondérations de modèle qu’intentionnellement et en gardant à l’esprit les risques de sécurité.

De nombreuses entreprises ont mis en place de nouvelles mesures de cybersécurité au cours de la dernière année. Par exemple, Microsoft a lancé sa « Security Future Initiative » pour lutter contre l’ampleur toujours croissante des cyberattaques. Microsoft affirme que les poids de ses modèles sont cryptés pour réduire le risque potentiel de vol de modèles, et qu'il applique une authentification forte et des contrôles d'accès lors du déploiement de modèles hautement personnalisés.

Google a également lancé un programme de cyberdéfense basé sur l'intelligence artificielle. En mai, OpenAI a partagé six nouvelles mesures qu'elle développait pour compléter ses pratiques de cybersécurité existantes, telles que l'extension des protections cryptographiques au matériel d'IA, et dispose également d'un programme de subventions de cybersécurité qui permet aux chercheurs d'utiliser son modèle pour construire des défenses de cybersécurité.

Amazon a déclaré avoir également pris des mesures spécifiques contre les attaques propres à l'IA générative, telles que « l'empoisonnement des données » et « l'injection de mots d'indice », qui peuvent utiliser des indices pour guider les modèles de langage afin qu'ils ignorent les instructions et les protections de sécurité précédentes.

Quelques jours après avoir signé l'engagement volontaire, Anthropic a publié des détails sur ses mesures de protection, qui incluent des pratiques courantes de cybersécurité telles que le contrôle des accès aux modèles et aux poids des modèles, ainsi que l'inspection et le contrôle des chaînes d'approvisionnement tierces. L'entreprise travaille également avec des évaluateurs indépendants pour évaluer si les contrôles qu'elle conçoit répondent aux besoins en matière de cybersécurité.

résultat: très bien. Toutes les entreprises déclarent avoir pris des mesures supplémentaires pour protéger leurs modèles, même s'il ne semble pas y avoir de consensus sur les meilleures façons de protéger les modèles d'IA.

Engagement 4. Les entreprises s’engagent à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d’IA. Certains problèmes peuvent persister même après la sortie d’un système d’IA et un mécanisme de signalement robuste permet de les détecter et de les corriger rapidement.

Engagement 4 : Aidez les tiers à découvrir et à signaler les vulnérabilités de leurs systèmes d’intelligence artificielle. Même après la sortie du système d'intelligence artificielle, certains problèmes peuvent persister, et un puissant mécanisme de reporting peut permettre de découvrir et de résoudre rapidement les problèmes.

L’un des moyens les plus populaires de tenir cette promesse consiste à mettre en œuvre un programme de « bug bounty », qui récompense les individus qui découvrent des failles dans les systèmes d’IA. Parmi eux, Google, Microsoft, Meta, Anthropic et OpenAI ont lancé de tels projets pour les systèmes d'intelligence artificielle. Amazon et Anthropic ont également déclaré avoir mis en place des formulaires sur leurs sites Web où les chercheurs en sécurité peuvent soumettre des rapports de vulnérabilité.

Selon Brandie Nonnecke, il faudra peut-être des années pour comprendre comment faire du bon travail avec un audit tiers. "Il ne s'agit pas seulement d'un défi technique, mais d'un défi socio-technique. Il nous faudra des années non seulement pour déterminer les normes techniques de l'intelligence artificielle, mais aussi pour déterminer les normes socio-techniques, ce qui est complexe et difficile", " dit-elle. .

Brandie Nonnecke a déclaré qu'elle craignait que les premières entreprises à mettre en œuvre des audits tiers ne créent un mauvais précédent sur la manière de réfléchir et de gérer les risques sociotechniques de l'intelligence artificielle. Par exemple, un audit peut définir, évaluer et traiter certains risques mais en ignorer d’autres.

résultat: Il reste encore du travail à faire. Les primes aux bogues sont excellentes, mais elles ne sont pas assez complètes. De nouvelles lois, telles que le projet de loi européen sur l’intelligence artificielle, obligeront les entreprises technologiques à effectuer des audits, et il serait préférable que les entreprises technologiques partagent les réussites de ces audits.

Engagement 5. Les entreprises s’engagent à développer des mécanismes techniques robustes pour garantir que les utilisateurs sachent quand un contenu est généré par l’IA, comme un système de tatouage numérique. Cette action permet à la créativité de s’épanouir avec l’IA, mais réduit les risques de fraude et de tromperie.

Engagement 5 :Le développement de mécanismes techniques puissants pour garantir que les utilisateurs sachent quel contenu est généré par l’IA, tels que des « systèmes de filigrane », permet à la créativité de l’IA de s’épanouir tout en réduisant le risque de fraude et de tromperie.

De nombreuses entreprises ont créé des systèmes de filigrane pour le contenu généré par l'IA. Par exemple, Google a lancé SynthID, un outil de filigrane pour les images, l'audio, le texte et les vidéos générés par Gemini. Meta a développé un outil de filigrane d'image appelé « Stable Signature » et un outil de filigrane vocal appelé « AudioSeal ». Amazon ajoute désormais un « filigrane invisible » aux images générées par son modèle de génération d'images Titan. OpenAI a utilisé des filigranes dans son modèle vocal personnalisé Voice Engine et a construit un classificateur de détection d'images pour les images générées par DALL-E 3. Anthropic est la seule entreprise à ne pas avoir encore créé d'outil de filigrane, car le filigrane est principalement destiné aux images et le modèle Claude de l'entreprise ne prend pas en charge les images.

Toutes les sociétés, à l'exception d'Inflection, Anthropic et Meta, sont également membres de la Content Provenance and Authenticity Alliance (C2PA), une alliance industrielle qui discutera des questions liées au moment où le contenu a été créé et s'il a été créé ou modifié par l'intelligence artificielle ou par des humains. est intégré dans les métadonnées de l’image. Microsoft et OpenAl ajoutent automatiquement les métadonnées sources de C2PA aux images créées avec DALL-E 3 et aux vidéos créées avec Sora. Bien que Meta ne soit pas membre de l'alliance, elle a annoncé qu'elle utilise la norme C2PA pour identifier les images générées par l'IA sur sa plateforme.

« Les six entreprises qui ont signé l'engagement volontaire se tournent naturellement vers les approches technologiques pour faire face aux risques, et cela est particulièrement vrai avec les systèmes de filigrane », a déclaré Rishi Bommasani.

"La question est la suivante : les "solutions technologiques" peuvent-elles faire des progrès significatifs et résoudre les problèmes sociaux sous-jacents qui nous poussent à nous demander si le contenu est généré par des machines ?", a-t-il ajouté.

résultat: très bien. Dans l'ensemble, il s'agit d'un résultat encourageant, et même si le système de filigrane est encore expérimental et peu fiable, il est toujours bon de voir les recherches qui l'entourent et l'engagement envers la norme C2PA. C'est mieux que rien, surtout dans une année électorale chargée.

Engagement 6. Les entreprises s'engagent à rendre compte publiquement des capacités, des limites et des domaines d'utilisation appropriés et inappropriés de leurs systèmes d'IA. Ce rapport couvrira à la fois les risques de sécurité et les risques sociétaux, tels que les effets sur l'équité et les préjugés.

Engagement 6 : Faire rapport publiquement sur les capacités, les limites et les domaines dans lesquels leurs systèmes d’IA peuvent être utilisés. Le rapport couvrira les risques de sécurité et les risques sociaux, tels que les impacts sur l'équité et les préjugés.

L'engagement de la Maison Blanche laisse beaucoup de place à l'interprétation ; par exemple, les entreprises peuvent techniquement satisfaire à ces exigences de divulgation publique tant qu'elles avancent dans cette direction, tandis que les niveaux de transparence peuvent varier considérablement.

Ici, la solution la plus courante proposée par les entreprises technologiques est ce que l'on appelle la « carte modèle ». Bien que chaque entreprise les appelle légèrement différemment, ils servent essentiellement de sorte de description de produit pour le modèle d’IA. Ils peuvent tout couvrir, depuis les capacités et les limites d’un modèle (y compris la façon de mesurer les critères d’équité et d’explicabilité) jusqu’à l’authenticité, la robustesse, la gouvernance, la confidentialité et la sécurité. Anthropic a déclaré qu'il testerait également le modèle pour détecter d'éventuels problèmes de sécurité qui pourraient survenir plus tard.

Microsoft a publié son rapport annuel sur la transparence de l'IA responsable, qui donne un aperçu de la manière dont l'entreprise crée des applications qui utilisent l'intelligence artificielle générative, prend des décisions et supervise le déploiement de ces applications. Microsoft a également déclaré qu'il précise où et comment l'intelligence artificielle est utilisée dans ses produits.

résultat: Il reste encore du travail à faire. Merve Hickok a déclaré qu'une transparence accrue dans les structures de gouvernance et les relations financières entre les entreprises serait un domaine d'amélioration pour toutes les entreprises, et elle aimerait également que les entreprises soient plus transparentes sur les sources de données, les processus de formation des modèles, les incidents de sécurité et la consommation d'énergie.

Engagement 7. Les entreprises s’engagent à donner la priorité à la recherche sur les risques sociétaux que peuvent représenter les systèmes d’IA, notamment en évitant les préjugés et la discrimination préjudiciables et en protégeant la vie privée. Les antécédents de l’IA montrent le caractère insidieux et la prévalence de ces dangers, et les entreprises s’engagent à déployer une IA qui les atténue.

Engagement 7 : Donner la priorité à la recherche sur les risques sociaux que les systèmes d’intelligence artificielle peuvent entraîner, notamment en évitant les préjugés préjudiciables, la discrimination et la protection de la vie privée. L’expérience de l’IA montre à quel point ces dangers sont insidieux et omniprésents, et ces entreprises promettent à l’IA de les atténuer.

Les entreprises technologiques ont été occupées à mener des recherches sur la sécurité et à intégrer les résultats dans leurs produits. Amazon a construit des « garde-corps » pour « Amazon Bedrock » capables de détecter les hallucinations et également d'appliquer des protections en matière de sécurité, de confidentialité et d'authenticité. Anthropic a déclaré avoir embauché une équipe de recherche axée sur l'étude des risques sociaux et de la vie privée et, au cours de l'année écoulée, elle a introduit des capacités émergentes en matière d'usurpation d'identité, de jailbreak, de stratégies de réduction de la discrimination et de modèles qui altèrent leur propre code ou effectuent des recherches. OpenAI affirme avoir formé ses modèles pour éviter les « contenus haineux » et rejeter les contenus haineux ou extrémistes, et avoir formé GPT-4V pour rejeter de nombreuses demandes nécessitant des réponses basées sur des stéréotypes. Google DeepMind a également publié des recherches évaluant les capacités dangereuses et mené des recherches sur l'utilisation abusive de l'IA générative.

Toutes les entreprises investissent massivement dans la recherche dans ce domaine. Google, par exemple, a investi des millions de dollars pour créer un nouveau Fonds de sécurité de l'IA afin de promouvoir la recherche dans ce domaine via des forums de modélisation de pointe. Microsoft a déclaré avoir engagé un financement de 20 millions de dollars pour étudier les risques sociaux grâce aux ressources nationales de recherche sur l'intelligence artificielle et a lancé un programme d'accélération de la recherche sur les modèles d'intelligence artificielle, le programme Accelerating Fundamental Model Research. La société a également embauché 24 personnes axées sur les chercheurs en intelligence artificielle et. sociologie.

résultat: très bien. C’est une promesse facile à réaliser, car les signataires comptent parmi les laboratoires de recherche en IA les plus grands et les plus riches au monde. Bien que davantage de recherches sur la manière de rendre les systèmes d’IA sûrs soient une étape bienvenue, les critiques soulignent que l’accent mis sur la recherche sur la sécurité détourne l’attention et les ressources de la recherche sur l’IA, qui se concentre sur des préjudices plus immédiats, tels que la discrimination et les préjugés.

Engagement 8. Les entreprises s’engagent à développer et à déployer des systèmes d’IA avancés pour aider à relever les plus grands défis de la société. De la prévention du cancer à l’atténuation du changement climatique, en passant par bien d’autres domaines, l’IA, si elle est bien gérée, peut contribuer énormément à la prospérité, à l’égalité et à la sécurité de tous.

Engagement 8 :En développant et en déployant des systèmes d'IA avancés pour aider à résoudre les plus grands défis de la société, de la prévention du cancer à l'atténuation du changement climatique en passant par de nombreux autres domaines, si elle est gérée correctement, l'IA peut faire progresser considérablement la prospérité, l'égalité et la sécurité humaines.

Depuis qu’elles ont fait cette promesse, les entreprises technologiques ont résolu divers problèmes. Par exemple, Pfizer utilise Claude pour évaluer les tendances de la recherche sur le traitement du cancer après avoir collecté les données pertinentes, tandis que la société biopharmaceutique américaine Gilead utilise l'IA générative d'Amazon Web Services pour mener des évaluations de faisabilité d'études cliniques et analyser des ensembles de données.

Google DeepMind a une solide expérience dans le lancement d'outils d'intelligence artificielle qui peuvent aider les scientifiques. Par exemple, AlphaFold 3 peut prédire la structure et les interactions de presque toutes les molécules vivantes. AlphaGeometry résout des problèmes géométriques à un niveau comparable à celui des meilleurs lycéens. GraphCast est un modèle d'intelligence artificielle capable de prévoir la météo à moyen terme. Pendant ce temps, Microsoft utilise l'imagerie satellite et l'intelligence artificielle pour améliorer la réponse aux incendies de forêt à Maui, à Hawaï, et cartographier les populations vulnérables aux impacts climatiques, ce qui aide les chercheurs à découvrir des risques tels que l'insécurité alimentaire, la migration forcée et les maladies.

Pendant ce temps, OpenAI a annoncé des collaborations et un financement pour plusieurs projets de recherche, comme celui sur la manière dont les éducateurs et les scientifiques peuvent utiliser en toute sécurité des modèles d'IA multimodaux en laboratoire. L'entreprise finance également des « hackathons » pour aider les chercheurs à développer des énergies propres sur sa plateforme.

résultat: très bien. Certains travaux dans des domaines tels que l’utilisation de l’intelligence artificielle pour faciliter la découverte scientifique ou prédire la météo sont vraiment passionnants. Les entreprises d’IA n’utilisent pas encore l’IA pour prévenir le cancer, ce qui constitue une barre assez haute pour commencer.

Dans l’ensemble, il y a quelques changements positifs dans la façon dont l’IA est construite, comme la confrontation rouge-bleu, les systèmes de filigrane et de nouvelles façons de partager les meilleures pratiques entre les industries. Cependant, ce ne sont là que quelques-unes des solutions technologiques ingénieuses qui ont été trouvées pour résoudre le problème socio-technique complexe des dangers de l’IA, et il reste encore beaucoup à faire. Un an plus tard, l'engagement met toujours l'accent sur un type spécifique de sécurité de l'IA qui se concentre sur des « risques hypothétiques » tels que les armes biologiques, sans faire aucune mention de la protection des consommateurs, des deepfakes, des données et des droits d'auteur, ni de l'empreinte environnementale de l'IA, des omissions qui semblent aujourd'hui être des omissions. carrément bizarre.

Lien d'origine :

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/