Nachricht

Eingehende Analyse: Wurde die von KI-Giganten wie Google und Microsoft versprochene „freiwillige Aufsicht“ erreicht?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Vor einem Jahr, darunter Amazon, Microsoft, Google, Meta,OpenAISieben Unternehmen für künstliche Intelligenz, darunter Anthropic und Inflection, haben mit dem Weißen Haus acht freiwillige Verpflichtungen zur sicheren und vertrauenswürdigen Entwicklung künstlicher Intelligenz eingegangen.

Zu diesen Verpflichtungen gehören die Verbesserung der Tests und der Transparenz von KI-Systemen sowie der Austausch von Informationen über potenzielle Gefahren und Risiken.

Anlässlich des einjährigen Jubiläums der Unterzeichnung des freiwilligen Versprechens fragte MIT Technology Review die KI-Unternehmen, die das Versprechen unterzeichnet hatten, nach einigen Details zu ihrer bisherigen Arbeit. Ihre Antworten deuten auf vielversprechende Fortschritte für die Technologiebranche, aber auch auf einige erhebliche Vorbehalte hin.

Diese freiwilligen Verpflichtungen werden eingegangengenerative künstliche Intelligenz Der Schritt erfolgt zu einem Zeitpunkt, an dem die Hektik „möglicherweise am größten ist“, während Unternehmen darum kämpfen, ihre eigenen Modelle auf den Markt zu bringen und sie größer und besser als die ihrer Konkurrenten zu machen. Gleichzeitig beginnen wir auch Debatten über Themen wie Urheberrecht und Deepfakes zu sehen. Auch eine Lobby einflussreicher Tech-Persönlichkeiten wie Geoffrey Hinton hat Bedenken geäußert, dass KI existenzielle Risiken für die Menschheit darstellen könnte. Plötzlich reden alle über die dringende Notwendigkeit, die KI-Sicherheit zu gewährleisten, und Regulierungsbehörden stehen überall unter Handlungsdruck.

Bis vor Kurzem verlief die Entwicklung der künstlichen Intelligenz wie im „Wilden Westen“. Die Vereinigten Staaten zögern traditionell, ihre Technologiegiganten zu regulieren, und verlassen sich stattdessen darauf, dass sie sich selbst regulieren. Ein gutes Beispiel sind freiwillige Selbstverpflichtungen: Dabei handelt es sich zwar um präskriptive Regeln für den Bereich der künstlichen Intelligenz in den USA, diese sind aber immer noch freiwillig und können nicht durchgesetzt werden. Das Weiße Haus erließ später eine Durchführungsverordnung, mit der diese Verpflichtungen ausgeweitet und auf andere Technologieunternehmen und Regierungsbehörden angewendet wurden.

„Ein Jahr später sehen wir, dass einige Unternehmen mit ihren Produkten einige gute Praktiken übernehmen, aber sie sind bei weitem nicht dort, wo wir in Bezug auf gute Unternehmensführung oder den Schutz von Grundrechten sein müssen, sagte Merve Hickok, Präsident und Forschungsdirektor. Sie überprüfte die Antworten der Unternehmen auf Anfrage von MIT Technology Review. „Viele dieser Unternehmen verbreiten weiterhin unbegründete Behauptungen über ihre Produkte, etwa Behauptungen, dass diese die menschliche Intelligenz und Fähigkeiten übertreffen könnten“, fügte sie hinzu.

Ein Trend, der sich aus diesen Reaktionen von Technologieunternehmen abzeichnet, besteht darin, dass Unternehmen mehr Schritte unternehmen, um technische Lösungen zu verfolgen, wie z. B. Rot-Blau-Konfrontationen (bei denen Menschen die Mängel in KI-Modellen untersuchen) und das Hinzufügen von Wasserzeichen zu KI-generierten Inhalten.

Rishi Bommasani, Direktor des Center for Fundamental Modeling an der Stanford University, sagte, es sei unklar, welche Änderungen an diesen Verpflichtungen stattgefunden hätten und ob die Unternehmen die Maßnahmen umsetzen würden. Er überprüfte auch die Antworten für MIT Technology Review.

Ein Jahr ist im Bereich der künstlichen Intelligenz eine lange Zeit. Seit der Unterzeichnung der freiwilligen Selbstverpflichtung hat der Gründer von Inflection AI, Mustafa Suleyman, das Unternehmen verlassen, um sich Microsoft anzuschließen und die KI-bezogenen Bemühungen zu leiten. Inflection lehnte einen Kommentar ab.

Die Sprecherin des Weißen Hauses, Robyn Patterson, sagte: „Wir sind dankbar für die Fortschritte, die führende Unternehmen bei der Erfüllung freiwilliger Verpflichtungen gemacht haben, die über die Anforderungen der Executive Order hinausgehen. Der Präsident fordert den Kongress jedoch weiterhin auf, parteiübergreifende Gesetze zu künstlicher Intelligenz zu verabschieden.“

Brandie Nonnecke, Direktorin des CITRIS Policy Lab an der University of California, Berkeley, sagte, dass die Vereinigten Staaten ohne umfassende Bundesgesetze jetzt nur noch von Unternehmen verlangen können, diese freiwilligen Verpflichtungen zu erfüllen.

Aber es ist wichtig, sich daran zu erinnern, dass „diese Unternehmen im Grunde genommen für den Test lernen, der ihnen gegeben wird“, sagte Brandie Nonnecke, „also müssen wir genau hinschauen, um zu sehen, ob sie sich tatsächlich auf wirklich strenge Weise validieren.“

Hier ist unsere Einschätzung der Fortschritte, die diese KI-Unternehmen im vergangenen Jahr gemacht haben.

Verpflichtung 1. Die Unternehmen verpflichten sich, ihre KI-Systeme vor der Veröffentlichung internen und externen Sicherheitstests zu unterziehen. Diese Tests, die zum Teil von unabhängigen Experten durchgeführt werden, schützen vor einigen der größten KI-Risiken, wie etwa Biosicherheit und Cybersicherheit, sowie vor den breiteren gesellschaftlichen Auswirkungen.

Verpflichtung 1: Führen Sie interne und externe Sicherheitstests von KI-Systemen durch, bevor Sie diese veröffentlichen. Ein Teil dieser Tests wird von unabhängigen Experten durchgeführt und soll vor einigen der wichtigsten Quellen von KI-Risiken wie Biosicherheit, Cybersicherheit und umfassenderen sozialen Auswirkungen schützen.

Alle Unternehmen (mit Ausnahme von Inflection, das keine Stellungnahme abgab) gaben an, dass sie Rot-Blau-Konfrontationen durchgeführt hätten, um internen und externen Testern die Möglichkeit zu geben, die Mängel und Risiken ihrer Modelle zu untersuchen. OpenAI sagte, es verfüge über ein separates Bereitschaftsteam, das Modelle für Cybersicherheit, chemische, biologische, radiologische und nukleare Bedrohungen sowie hochentwickelte Modelle der künstlichen Intelligenz teste, die eine Person tun oder davon überzeugen können, Dinge zu tun, die Schaden anrichten könnten. Anthropic und OpenAI sagten außerdem, dass sie diese Tests mit externen Experten durchführen würden, bevor sie neue Modelle auf den Markt bringen.Um beispielsweise sein neuestes Modell, Claude 3.5, auf den Markt zu bringen, führte Anthropic mit Experten des britischen Artificial Intelligence Security Institute Tests vor der Bereitstellung durch und erlaubte außerdem der gemeinnützigen Forschungsorganisation METR, Tests vor der Bereitstellung von Claude 3.5 durchzuführen.Autopilot Die Funktionalität sei „vorläufig erkundet“ worden. Google sagte, es führe auch interne Rot-Blau-Konfrontationen auf seinem Modell Gemini durch, um die Grenzen wahlbezogener Inhalte, sozialer Risiken und nationaler Sicherheitsbedenken auszuloten. Microsoft sagte, es habe mit externen Gutachtern von NewsGuard, einer Organisation, die journalistische Integrität fördert, zusammengearbeitet, um das Risiko einzuschätzen und das Risiko des Missbrauchs von Deepfakes im Text-to-Image-Tool von Microsoft zu mindern. Meta sagte, dass es neben der Rot-Blau-Konfrontation auch sein neuestes Modell, das Llama 3, evaluiert habe, um zu sehen, wie es in einer Reihe von Risikobereichen abschneidet, darunter Waffen, Cyberangriffe und Ausbeutung von Kindern.

„Wenn es um Tests geht, reicht es nicht aus, nur zu melden, dass ein Unternehmen Maßnahmen ergreift“, sagte Rishi Bommasani. Amazon und Anthropic sagten beispielsweise, sie hätten sich mit der gemeinnützigen Organisation Thorn zusammengetan, um die Risiken anzugehen, die künstliche Intelligenz für die Kindersicherheit mit sich bringt. Er würde gerne mehr Details darüber erfahren, wie die Maßnahmen, die das Unternehmen durchführt, diese Risiken tatsächlich reduzieren.

„Wir sollten klar verstehen, dass es nicht nur Unternehmen sind, die Dinge tun, sondern dass diese Dinge die gewünschte Wirkung haben“, sagte Rishi Bommasani.

Ergebnis: sehr gut. Es ist wichtige Arbeit, Rot und Blau gegen verschiedene Risiken voranzutreiben und sie zu testen. Allerdings wünscht sich Merve Hickok, dass unabhängige Forscher einen breiteren Zugang zu den Modellen des Unternehmens erhalten.

Verpflichtung 2. Die Unternehmen verpflichten sich, branchenweit sowie mit Regierungen, der Zivilgesellschaft und der Wissenschaft Informationen zum Umgang mit KI-Risiken auszutauschen. Dazu gehören bewährte Sicherheitspraktiken, Informationen über Versuche, Sicherheitsvorkehrungen zu umgehen, und technische Zusammenarbeit.

Verpflichtung 2: Teilen Sie Informationen zum Management von KI-Risiken mit Industrie und Regierung, Zivilgesellschaft und Wissenschaft. Dazu gehören bewährte Sicherheitspraktiken, Informationen über Versuche, Schutzmaßnahmen zu umgehen, und technische Zusammenarbeit.

Nach der Unterzeichnung der freiwilligen Selbstverpflichtung gründeten Google, Microsoft, Anthropic und OpenAI das Frontier Model Forum, eine gemeinnützige Organisation mit dem Ziel, Diskussionen und Maßnahmen zum Thema Sicherheit und Verantwortung bei künstlicher Intelligenz zu fördern. Später kamen Amazon und Meta hinzu.

Rishi Bommasani sagte, die Zusammenarbeit mit gemeinnützigen Organisationen, die KI-Unternehmen selbst finanzieren, sei möglicherweise nicht im Sinne einer freiwilligen Verpflichtung. Seiner Ansicht nach könnte das Frontier Model Forum eine Möglichkeit für diese Unternehmen sein, miteinander zusammenzuarbeiten und Sicherheitsbotschaften weiterzugeben, was ihnen als Konkurrenten oft schwerfällt.

„Selbst wenn sie keine Informationen an die Öffentlichkeit weitergeben, würde man hoffen, dass sie zumindest gemeinsam Wege finden, das Risiko zu verringern“, sagte Rishi Bommasani.

Alle sieben Unterzeichner sind auch Mitglieder des Artificial Intelligence Institute for Safety Consortium (AISIC), das vom National Institute of Standards and Technology (NIST) gegründet wurde, um Richtlinien und Standards für die KI-Politik und die KI-Leistungsbewertung zu entwickeln. Ein großes Konsortium aus öffentlichen und privaten Akteuren Branchenakteure. Google, Microsoft und OpenAI haben außerdem Vertreter in der hochrangigen Beratergruppe der Vereinten Nationen für künstliche Intelligenz.

Viele Unternehmen hoben auch ihre Forschungskooperationen mit der Wissenschaft hervor. Google ist beispielsweise Teil von MLCommons und arbeitet dort mit Wissenschaftlern zusammen, um branchenübergreifende KI-Sicherheits-Benchmark-Forschung durchzuführen. Google sagte außerdem, dass es aktiv Tools und Ressourcen wie Rechenguthaben für Programme wie das Pilotprogramm „National Artificial Intelligence Research Resources“ der National Science Foundation bereitstellt, das darauf abzielt, die Forschung im Bereich der künstlichen Intelligenz in den Vereinigten Staaten zu demokratisieren.

Viele Unternehmen leisten auch einen Beitrag zur Partnership on AI, einer weiteren gemeinnützigen Organisation, die von Amazon, Google, Microsoft, Facebook, DeepMind und IBM gegründet wurde, um die zugrunde liegenden Modelle bereitzustellen.

Ergebnis: Es muss noch mehr Arbeit geleistet werden. Da die Branche gemeinsam daran arbeitet, KI-Systeme sicher und zuverlässig zu machen, ist der Austausch von mehr Informationen zweifellos ein wichtiger Schritt in die richtige Richtung. Es ist jedoch unklar, wie viel der angekündigten Bemühungen tatsächlich zu bedeutenden Veränderungen führen wird und wie viel nur kosmetischer Natur sein wird.

Verpflichtung 3. Die Unternehmen verpflichten sich, in Cybersicherheit und Schutzmaßnahmen gegen Insider-Bedrohungen zu investieren, um proprietäre und unveröffentlichte Modellgewichte zu schützen. Diese Modellgewichte sind der wichtigste Teil eines KI-Systems, und die Unternehmen sind sich einig, dass es von entscheidender Bedeutung ist, dass die Modellgewichte nur dann veröffentlicht werden, wenn dies beabsichtigt ist und Sicherheitsrisiken berücksichtigt werden.

Verpflichtung 3: Investieren Sie in Maßnahmen zur Cybersicherheit und zum Schutz vor Insider-Bedrohungen, um proprietäre und unveröffentlichte Modellgewichte zu schützen. Diese Modellgewichte sind der wichtigste Teil eines KI-Systems, und Unternehmen sind sich einig, dass es wichtig ist, Modellgewichte nur absichtlich und unter Berücksichtigung von Sicherheitsrisiken freizugeben.

Viele Unternehmen haben im vergangenen Jahr neue Cybersicherheitsmaßnahmen umgesetzt. Microsoft hat beispielsweise seine „Security Future Initiative“ ins Leben gerufen, um dem immer größer werdenden Ausmaß von Cyberangriffen entgegenzuwirken. Microsoft gibt an, dass seine Modellgewichte verschlüsselt sind, um das potenzielle Risiko eines Modelldiebstahls zu verringern, und dass bei der Bereitstellung hochgradig angepasster Modelle strenge Authentifizierungs- und Zugriffskontrollen angewendet werden.

Google hat außerdem ein Cyber-Abwehrprogramm mit künstlicher Intelligenz gestartet. Im Mai stellte OpenAI sechs neue Maßnahmen vor, die es entwickelt, um seine bestehenden Cybersicherheitspraktiken zu ergänzen, wie z. B. die Ausweitung des kryptografischen Schutzes auf KI-Hardware, und verfügt außerdem über ein Cybersicherheits-Förderprogramm, das es Forschern ermöglicht, sein Modell zum Aufbau von Cybersicherheitsabwehrmaßnahmen zu nutzen.

Amazon sagte, es habe auch spezifische Maßnahmen gegen Angriffe ergriffen, die nur bei generativer KI auftreten, wie etwa „Data Poisoning“ und „Injection von Hint-Worten“, bei denen Hinweise verwendet werden können, um Sprachmodelle dazu zu bringen, frühere Anweisungen und Sicherheitsvorkehrungen zu ignorieren.

Tage nach der Unterzeichnung der freiwilligen Selbstverpflichtung veröffentlichte Anthropic Einzelheiten zu seinen Sicherheitsvorkehrungen, zu denen gängige Cybersicherheitspraktiken wie die Kontrolle, wer Zugriff auf Modelle und Modellgewichte hat, sowie die Inspektion und Kontrolle von Lieferketten Dritter gehören. Das Unternehmen arbeitet außerdem mit unabhängigen Gutachtern zusammen, um zu bewerten, ob die von ihm entwickelten Kontrollen den Cybersicherheitsanforderungen entsprechen.

Ergebnis: sehr gut. Alle Unternehmen geben an, dass sie zusätzliche Maßnahmen zum Schutz ihrer Modelle ergriffen haben, obwohl es offenbar keinen großen Konsens darüber gibt, wie KI-Modelle am besten geschützt werden können.

Verpflichtung 4. Die Unternehmen verpflichten sich, Dritten die Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen zu erleichtern. Einige Probleme können auch nach der Veröffentlichung eines KI-Systems bestehen bleiben, und ein robuster Meldemechanismus ermöglicht es, sie schnell zu finden und zu beheben.

Verpflichtung 4: Erleichtern Sie Dritten die Entdeckung und Meldung von Schwachstellen in ihren Systemen der künstlichen Intelligenz. Auch nach der Veröffentlichung des künstlichen Intelligenzsystems können einige Probleme noch bestehen, und ein leistungsstarker Berichtsmechanismus kann es ermöglichen, Probleme schnell zu erkennen und rechtzeitig zu beheben.

Eine der beliebtesten Möglichkeiten, dieses Versprechen zu erfüllen, ist die Einführung eines „Bug-Bounty“-Programms, das Einzelpersonen für die Entdeckung von Fehlern in KI-Systemen belohnt. Darunter Google, Microsoft, Meta, Anthropic und OpenAI haben solche Pläne für Systeme der künstlichen Intelligenz auf den Weg gebracht. Amazon und Anthropic sagten außerdem, sie hätten auf ihren Websites Formulare eingerichtet, über die Sicherheitsforscher Schwachstellenberichte einreichen können.

Laut Brandie Nonnecke könnte es Jahre dauern, herauszufinden, wie man mit einer externen Prüfung gute Arbeit leisten kann. „Dies ist nicht nur eine technische, sondern eine soziotechnische Herausforderung. Es wird Jahre dauern, nicht nur die technischen Standards für künstliche Intelligenz herauszufinden, sondern auch die soziotechnischen Standards herauszufinden, was komplex und schwierig ist.“ " Sie sagte. .

Brandie Nonnecke sagte, sie befürchte, dass die ersten Unternehmen, die Prüfungen durch Dritte einführen, einen schlechten Präzedenzfall dafür schaffen könnten, wie man über die soziotechnischen Risiken künstlicher Intelligenz nachdenkt und wie man damit umgeht. Beispielsweise kann ein Audit bestimmte Risiken definieren, bewerten und angehen, andere jedoch ignorieren.

Ergebnis: Es muss noch mehr Arbeit geleistet werden. Bug Bounties sind großartig, aber nicht umfassend genug. Neue Gesetze, wie das EU-Gesetz zur künstlichen Intelligenz, werden Technologieunternehmen zur Durchführung von Audits verpflichten, und es wäre besser, wenn Technologieunternehmen Erfolgsgeschichten solcher Audits teilen würden.

Verpflichtung 5. Die Unternehmen verpflichten sich, robuste technische Mechanismen zu entwickeln, die sicherstellen, dass Benutzer wissen, wann Inhalte von KI generiert werden, wie beispielsweise ein Wasserzeichensystem. Diese Maßnahme ermöglicht es, Kreativität mit KI zu entfalten, verringert jedoch die Gefahr von Betrug und Täuschung.

Verpflichtung 5:Durch die Entwicklung leistungsstarker technischer Mechanismen, die sicherstellen, dass Benutzer wissen, welche Inhalte von KI generiert werden, wie z. B. „Wasserzeichensysteme“, kann die KI-Kreativität gedeihen und gleichzeitig das Risiko von Betrug und Täuschung verringert werden.

Viele Unternehmen haben Wasserzeichensysteme für KI-generierte Inhalte entwickelt. Google hat beispielsweise SynthID eingeführt, ein Wasserzeichen-Tool für von Gemini generierte Bilder, Audio, Text und Videos. Meta hat ein Bild-Wasserzeichen-Tool namens „Stable Signature“ und ein Sprach-Wasserzeichen-Tool namens „AudioSeal“ entwickelt. Amazon fügt Bildern, die mit seinem Titan-Bilderzeugungsmodell generiert wurden, jetzt ein „unsichtbares Wasserzeichen“ hinzu. OpenAI verwendete Wasserzeichen in seinem benutzerdefinierten Sprachmodell Voice Engine und erstellte einen Bilderkennungsklassifikator für von DALL-E 3 generierte Bilder. Anthropic ist das einzige Unternehmen, das noch kein Wasserzeichen-Tool entwickelt hat, da Wasserzeichen hauptsächlich für Bilder gedacht sind und das Claude-Modell des Unternehmens keine Bilder unterstützt.

Alle Unternehmen außer Inflection, Anthropic und Meta sind außerdem Mitglieder der Content Provenance and Authenticity Alliance (C2PA), einer Branchenallianz, die Fragen rund um die Erstellung von Inhalten und die Frage, ob diese durch künstliche Intelligenz oder Menschen erstellt oder bearbeitet wurden, erörtern wird ist in die Bildmetadaten eingebettet. Microsoft und OpenAl hängen die Quellmetadaten von C2PA automatisch an mit DALL-E 3 erstellte Bilder und mit Sora erstellte Videos an. Obwohl Meta kein Mitglied der Allianz ist, gab es bekannt, dass es den C2PA-Standard verwendet, um KI-generierte Bilder auf seiner Plattform zu identifizieren.

„Die sechs Unternehmen, die die Selbstverpflichtung unterzeichnet haben, tendieren natürlich zu technologischen Ansätzen zur Risikobewältigung, und das gilt insbesondere für Wasserzeichensysteme“, sagte Rishi Bommasani.

„Die Frage ist, können ‚technologische Lösungen‘ sinnvolle Fortschritte machen und die zugrunde liegenden sozialen Probleme lösen, die uns dazu bringen, uns zu fragen, ob Inhalte maschinell generiert werden?“

Ergebnis: sehr gut. Insgesamt ist dies ein ermutigendes Ergebnis, und obwohl das Wasserzeichensystem noch experimentell und immer noch unzuverlässig ist, ist es dennoch gut, die damit verbundene Forschung und das Engagement für den C2PA-Standard zu sehen. Das ist besser als nichts, insbesondere in einem arbeitsreichen Wahljahr.

Verpflichtung 6. Die Unternehmen verpflichten sich, die Fähigkeiten und Grenzen ihrer KI-Systeme sowie die Bereiche angemessener und unangemessener Nutzung öffentlich bekannt zu geben. Dieser Bericht wird sowohl Sicherheitsrisiken als auch gesellschaftliche Risiken abdecken, wie etwa die Auswirkungen auf Fairness und Voreingenommenheit.

Verpflichtung 6: Berichten Sie öffentlich über die Fähigkeiten, Einschränkungen und Einsatzbereiche Ihrer KI-Systeme. Der Bericht befasst sich mit Sicherheitsrisiken und sozialen Risiken, wie etwa Auswirkungen auf Fairness und Voreingenommenheit.

Das Versprechen des Weißen Hauses lässt viel Raum für Interpretationen; beispielsweise können Unternehmen solche Offenlegungspflichten technisch erfüllen, solange sie sich in diese Richtung bewegen, während der Grad der Transparenz stark variieren kann.

Die von Technologieunternehmen am häufigsten angebotene Lösung ist hier die sogenannte „Modellkarte“. Während jedes Unternehmen sie etwas anders nennt, dienen sie im Wesentlichen als eine Art Produktbeschreibung für das KI-Modell. Sie können alles abdecken, von den Fähigkeiten und Einschränkungen eines Modells (einschließlich der Messung von Fairness- und Erklärbarkeits-Benchmarks) bis hin zu Authentizität, Robustheit, Governance, Datenschutz und Sicherheit. Anthropic sagte, es werde das Modell auch auf mögliche Sicherheitsprobleme testen, die später auftreten könnten.

Microsoft hat seinen jährlichen Responsible AI Transparency Report veröffentlicht, der Einblicke in die Art und Weise gibt, wie das Unternehmen Anwendungen erstellt, die generative künstliche Intelligenz nutzen, Entscheidungen trifft und die Bereitstellung dieser Anwendungen überwacht. Microsoft sagte außerdem, es mache deutlich, wo und wie künstliche Intelligenz in seinen Produkten eingesetzt werde.

Ergebnis: Es muss noch mehr Arbeit geleistet werden. Merve Hickok sagte, die Erhöhung der Transparenz in den Governance-Strukturen und den Finanzbeziehungen zwischen Unternehmen sei für alle Unternehmen ein Bereich mit Verbesserungspotenzial, und sie würde sich auch wünschen, dass die Unternehmen in Bezug auf Datenquellen, Modellschulungsprozesse, Sicherheitsvorfälle und den Energieverbrauch transparenter wären.

Verpflichtung 7. Die Unternehmen verpflichten sich, die Erforschung der gesellschaftlichen Risiken, die KI-Systeme bergen können, zu priorisieren, einschließlich der Vermeidung schädlicher Voreingenommenheit und Diskriminierung sowie des Schutzes der Privatsphäre. Die Erfolgsbilanz der KI zeigt, wie heimtückisch und weit verbreitet diese Gefahren sind, und die Unternehmen verpflichten sich, KI einzuführen, die diese Gefahren abmildert.

Verpflichtung 7: Priorisieren Sie die Erforschung der sozialen Risiken, die künstliche Intelligenzsysteme mit sich bringen können, einschließlich der Vermeidung schädlicher Vorurteile, Diskriminierung und des Schutzes der Privatsphäre. Die Erfolgsbilanz von KI zeigt, wie heimtückisch und allgegenwärtig diese Gefahren sind, und diese Unternehmen versprechen, dass KI diese Gefahren abmildern wird.

Technologieunternehmen waren damit beschäftigt, Sicherheitsforschung zu betreiben und die Erkenntnisse in ihre Produkte zu integrieren. Amazon hat für „Amazon Bedrock“ „Leitplanken“ entwickelt, die Halluzinationen erkennen und auch Sicherheits-, Datenschutz- und Authentizitätsschutz anwenden können. Anthropic sagte, es habe ein Forschungsteam eingestellt, das sich auf die Untersuchung sozialer Risiken und Privatsphäre konzentriert, und im vergangenen Jahr neue Funktionen für Spoofing, Jailbreaking, Strategien zur Diskriminierungsreduzierung und Modelle eingeführt, die ihren eigenen Code manipulieren oder Überzeugungsarbeit leisten. OpenAI gibt an, seine Modelle darauf trainiert zu haben, „hasserfüllte Inhalte“ zu vermeiden und hasserfüllte oder extremistische Inhalte abzulehnen, und es hat GPT-4V darauf trainiert, viele Anfragen abzulehnen, die Antworten auf der Grundlage von Stereotypen erfordern. Google DeepMind hat auch Forschungsergebnisse zur Bewertung gefährlicher Fähigkeiten veröffentlicht und Untersuchungen zum Missbrauch generativer KI durchgeführt.

Alle Unternehmen investieren stark in die Forschung auf diesem Gebiet. Google hat beispielsweise Millionen von Dollar investiert, um einen neuen KI-Sicherheitsfonds einzurichten, um die Forschung auf diesem Gebiet durch hochmoderne Modellierungsforen zu fördern. Microsoft sagte, es habe 20 Millionen US-Dollar für die Untersuchung sozialer Risiken durch nationale Forschungsressourcen für künstliche Intelligenz bereitgestellt und ein Beschleunigerprogramm für die Modellforschung im Bereich künstlicher Intelligenz gestartet, das Accelerating Fundamental Model Research-Programm. Das Unternehmen hat außerdem 24 Mitarbeiter eingestellt, die sich auf Forscher im Bereich künstliche Intelligenz konzentrieren Soziologie.

Ergebnis: sehr gut. Dieses Versprechen ist leicht zu erfüllen, da es sich bei den Unterzeichnern um einige der größten und wohlhabendsten KI-Forschungslabore der Welt handelt. Während mehr Forschung zur Sicherheit von KI-Systemen ein willkommener Schritt ist, weisen Kritiker darauf hin, dass ein Fokus auf Sicherheitsforschung der KI-Forschung, die sich auf unmittelbarere Schäden wie Diskriminierung und Vorurteile konzentriert, Aufmerksamkeit und Ressourcen entzieht.

Verpflichtung 8. Die Unternehmen verpflichten sich, fortschrittliche KI-Systeme zu entwickeln und einzusetzen, um die größten Herausforderungen der Gesellschaft zu bewältigen. Von der Krebsprävention über die Eindämmung des Klimawandels bis hin zu vielem anderen kann KI – wenn sie richtig eingesetzt wird – enorm zum Wohlstand, zur Gleichheit und zur Sicherheit aller beitragen.

Verpflichtung 8:Durch die Entwicklung und den Einsatz fortschrittlicher KI-Systeme zur Lösung der größten Herausforderungen der Gesellschaft, von der Krebsprävention über die Eindämmung des Klimawandels bis hin zu vielen anderen Bereichen, kann KI bei richtiger Handhabung den Wohlstand, die Gleichheit und die Sicherheit der Menschen erheblich steigern.

Seitdem sie dieses Versprechen abgegeben haben, haben Technologieunternehmen eine Vielzahl von Problemen gelöst. Beispielsweise nutzt Pfizer Claude, um nach dem Sammeln relevanter Daten Trends in der Krebsbehandlungsforschung zu bewerten, während das US-Biopharmaunternehmen Gilead die generative KI von Amazon Web Services nutzt, um Machbarkeitsbewertungen klinischer Studien durchzuführen und Datensätze zu analysieren.

Google DeepMind kann auf eine lange Erfolgsgeschichte bei der Einführung von Tools für künstliche Intelligenz zurückblicken, die Wissenschaftlern dabei helfen können, die Struktur und Wechselwirkungen nahezu aller lebenden Moleküle vorherzusagen. AlphaGeometry löst geometrische Probleme auf einem Niveau, das mit dem von Spitzenschülern vergleichbar ist. GraphCast ist ein Modell der künstlichen Intelligenz, das mittelfristige Wettervorhersagen ermöglicht. Unterdessen nutzt Microsoft Satellitenbilder und künstliche Intelligenz, um die Reaktion auf Waldbrände in Maui, Hawaii, zu verbessern und Bevölkerungsgruppen zu kartieren, die durch Klimaauswirkungen gefährdet sind, was Forschern dabei hilft, Risiken wie Ernährungsunsicherheit, erzwungene Migration und Krankheiten aufzudecken.

In der Zwischenzeit kündigte OpenAI Kooperationen und Finanzierung mehrerer Forschungsprojekte an, beispielsweise eines, das sich mit der Frage beschäftigt, wie Pädagogen und Wissenschaftler multimodale KI-Modelle sicher in Laborumgebungen verwenden können. Das Unternehmen finanziert außerdem „Hackathons“, um Forschern bei der Entwicklung sauberer Energie auf seiner Plattform zu helfen.

Ergebnis: sehr gut. Einige der Arbeiten in Bereichen wie der Nutzung künstlicher Intelligenz zur Erleichterung wissenschaftlicher Entdeckungen oder zur Vorhersage des Wetters sind wirklich spannend. KI-Unternehmen setzen KI noch nicht zur Krebsprävention ein, was zunächst einmal eine ziemlich hohe Messlatte darstellt.

Insgesamt gibt es einige positive Veränderungen in der Art und Weise, wie KI aufgebaut wird, wie z. B. Rot-Blau-Konfrontation, Wasserzeichensysteme und neue Möglichkeiten, Best Practices zwischen Branchen auszutauschen. Dies sind jedoch nur einige der genialen technologischen Lösungen, die gefunden wurden, um das chaotische soziotechnische Problem der Gefahren der KI anzugehen, und es gibt noch viel zu tun. Ein Jahr später wird in dem Versprechen immer noch eine bestimmte Art der KI-Sicherheit überbetont, die sich auf „hypothetische Risiken“ wie Biowaffen konzentriert, während Verbraucherschutz, Deepfakes, Daten und Urheberrecht sowie der ökologische Fußabdruck von KI nicht erwähnt werden, was heute offensichtlich ist geradezu bizarr.

Ursprünglicher Link:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/