Nachricht

Der CEO von OpenAI spricht zum ersten Mal über neue KI-Startups: Inspiriert durch die medizinische Behandlung von ChatGPT

2024-07-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


kluge Dinge
Zusammengestellt von Chen Junda
EditPanken

Zhidongzhi berichtete am 15. Juli, dass OpenAI-CEO Sam Altman letzte Woche ein KI-Medizin- und Gesundheitsunternehmen gegründet habe.Thrive AI Health (kurz Thrive) Erregte weitverbreitete Besorgnis. Dieses Startup zielt darauf ab, das Verhalten und die Gewohnheiten von Patienten durch KI-Gesundheitscoaches zu ändern, um die Krise chronischer Krankheiten zu lösen, von der 127 Millionen Menschen in den Vereinigten Staaten betroffen sind. Es hat auch Investitionen von der reichsten Frau der Vereinigten Staaten erhalten.

Die medizinische Versorgung war schon immer ein soziales Thema, das der amerikanischen Gesellschaft große Sorge bereitet, und sie ist auch ein zentrales Thema bei den diesjährigen US-Wahlen. Ein ineffizientes und teures medizinisches System macht es vielen Amerikanern schwer, wirksame medizinische Leistungen zu erhalten. Als eine Spitzenfigur in der heutigen KI-Branche entschied sich Altman zu dieser Zeit für den Einstieg in die medizinische KI-Versorgung, was natürlich die Aufmerksamkeit vieler Menschen auf sich zog.

Eine weitere Gründerin von Thirve, die Thirve zusammen mit Altman gründete, ist Arianna Huffington, Gründerin des Verhaltensänderungstechnologieunternehmens Thrive Global. Die beiden wurden am 11. Juli von The Atlantic interviewt und enthüllten weitere Details zu diesem Unternehmen.

Die beiden sagten, Thrive werde sich auf die Bereitstellung von Gesundheitsberatung konzentrieren und medizinische Diagnosearbeiten vermeiden, in denen KI derzeit nicht gut sei. In Zukunft sei es möglich, Gesundheitsinformationen in Arbeitsszenarien zu integrieren.

Angesichts der Zweifel des Interviewers antworteten sie jedochEs wurde nicht klar dargelegt, in welcher Form das Produkt implementiert wird und welche konkreten Maßnahmen ergriffen werden, um die Sicherheit der Benutzerdaten zu gewährleisten.

sagte auch Altmann im Interview"vielleicht"Informationen im Kommunikationsprozess zwischen Menschen und KI sollten durch Vertraulichkeitsklauseln geschützt werden, ähnlich denen zwischen Anwälten und Mandanten, aber er ist der Meinung, dass dies von der Gesellschaft entschieden werden sollte.

Erwähnenswert ist, was Altmanns neues Unternehmen Thrive erreichen kannKI-Gesundheitsdaten sind äußerst privat und haben einen erheblichen wirtschaftlichen Wert. Versicherer können diese Informationen nutzen, um den Preis einer bestimmten Police anzupassen oder zu entscheiden, ob sie ein bestimmtes Medikament erstatten. In den Vereinigten Staaten kam es in jüngster Zeit zu Durchsickern solcher Informationen, die zu großflächigen Stilllegungen des medizinischen Systems führten.

1. Da der Schwerpunkt eher auf Gesundheitsratschlägen als auf medizinischen Diagnosen liegt, ist die Modellleistung bereits „gut genug“.

Das größte Verkaufsargument von Thrive, einem KI-Gesundheitsprodukt, ist „hochgradig personalisiertes KI-Gesundheitscoaching“. Thrive wird Benutzern personalisierte und sofortige Gesundheitsberatung bieten, indem es Informationen über Schlaf, Ernährung, Bewegung, Stress und soziale Interaktionen der Benutzer sammelt, kombiniert mit Fachwissen zu Krankenakten und Verhaltensänderungen.

Altman und Huffington glauben, dass die KI-Gesundheit für die Verbesserung des derzeit durcheinandergebrachten medizinischen Systems in den Vereinigten Staaten von großer Bedeutung ist. Derzeit werden 90 % der Ausgaben des US-amerikanischen Krankenversicherungssystems für die Behandlung chronischer Krankheiten ausgegeben, und Thrive wird dies voraussichtlich tun diesen Aufwand deutlich reduzieren.

Altman und Huffington verglichen diese Technologie mit Roosevelts New Deal und sagten, dass „KI Teil einer effizienteren medizinischen Infrastruktur werden und weiterhin die Gesundheit der Menschen im täglichen Leben unterstützen wird.“

Aber die Anwendung von KI in der Medizin- und Gesundheitsbranche ist nichts Neues. KI hat bereits eine wichtige Rolle in der CT-Rekonstruktion, der Arzneimittelentwicklung, der Hilfsdiagnose und anderen Bereichen gespielt.


▲NVIDIA hat das KI-Medizinprodukt Clara auf den Markt gebracht (Quelle: NVIDIA)

Derzeit richten sich medizinische und gesundheitliche KI-Anwendungen vor allem an Ärzte und F&E-Personal mit Fachkenntnissen und nicht an Krankheitspatienten, auf die sich Thrive bezieht.Die meisten Patienten verfügen nicht über ausreichende medizinische Kenntnisse, sodass sie wahrscheinlich nicht in der Lage sind, wirksame Urteile über die von der KI bereitgestellten Gesundheitsratschläge oder medizinischen Diagnosen zu fällen, und es ist für KI-Produkte schwierig sicherzustellen, dass sie keine Fehler machen.

In Interviews mit The Atlantic gingen Altman und Huffington auf Fragen zur Sicherheit des Produkts ein. Sie glauben, dass die aktuelle Leistung von KI-Modellen gut genug istKonzentrieren Sie sich nur auf „Gesundheitsberatung“ und nicht auf „medizinische Diagnose“.Da das Modell mithilfe von Peer-Review-Daten trainiert wurde, kann es ausreichend gute Vorschläge liefern.

Allerdings konnten sich weder Huffington noch Altman dazu äußern, wie das Produkt letztendlich aussehen würde. Sie sagten, dass das Produkt als App auf den Markt kommen würde, aber Huffington sagte auch, dass das Produkt in allen möglichen Modi verfügbar sein würde und sogar über Apps wie Microsoft Teams in Arbeitsszenarien integriert werden könnte.

2. Das Sammeln von Daten sei kein Problem, sagte Altman, die Benutzer seien bereit, sie weiterzugeben

Dieses hyperpersonalisierte Produkt muss Benutzer davon überzeugen, aktiv eine große Menge privater Informationen weiterzugeben, damit die KI über genügend Informationen verfügt, um Entscheidungen zu treffen. In einem Interview mit The Atlantic Monthly,Altman glaubt nicht, dass dies eine große Herausforderung sein wird.

Altman teilte mit, dass er das neue Unternehmen unter anderem deshalb gründete, weil viele Menschen ChatGPT bereits zur Diagnose medizinischer Probleme verwendeten, und er hörte auch von vielen Menschen, die den Empfehlungen von ChatGPT vertrauten, relevante Tests durchführten und sich behandeln ließen. Er glaubt, dass Benutzer tatsächlich sehr bereit sind, einige sehr detaillierte und private Informationen mit LLM zu teilen.

Der Reporter des Atlantic Monthly war von diesem Ansatz schockiert, da der von ChatGPT zurückgegebene medizinische Rat möglicherweise KI-Halluzinationen enthält und eine Gefahr für die Gesundheit des Patienten darstellt. Bei Patienten, die sich auf diese Falschinformationen verlassen, ist auch die Gefahr von Konflikten mit professionellen Ärzten sehr hoch.

Der Reporter glaubte auch, dass, sobald medizinische Informationen durchsickern, die Persönlichkeitsrechte und Interessen der Nutzer ernsthaft geschädigt werden könnten. Altmann reagiert jedoch nicht entschieden auf die Gefahr von Informationslecks und ist der Ansicht, dass die Lösung dieses Problems der Gesellschaft überlassen werden sollte.

Er sagte, dass die Kommunikationsinhalte zwischen Ärzten und Patienten, Anwälten und Mandanten derzeit gesetzlich geschützt seien und dass es „vielleicht“ einen ähnlichen Schutz bei der Kommunikation der Menschen mit KI geben sollte. „Vielleicht wird die Gesellschaft entscheiden, ob irgendeine Form von KI-Privilegien eingeführt wird.“ " ". Mit anderen Worten: Sie fördern möglicherweise nicht aktiv ähnliche Schutzmaßnahmen und überlassen die Entscheidung der Gesellschaft.

Doch der Schutz von Gesundheitsdaten hat ein dringendes Niveau erreicht.Erst im Februar dieses Jahres erlitt Change Healthcare, ein amerikanischer Gesundheitstechnologieriese, der mit der amerikanischen Versicherungsgruppe UnitedHealth Group verbunden ist, einen groß angelegten Ransomware-Angriff, der zu einer groß angelegten Abschaltung des Krankenversicherungssystems führte. Ein Drittel der Amerikaner war gefährdet, durchgesickert zu sein.

Und die Erfolgsbilanz von OpenAI im Datenschutz ist nicht perfekt.Anfang 2023 wurde das interne System von OpenAI durch einen Cyberangriff angegriffen und Chataufzeichnungen von Diskussionen der Mitarbeiter des Unternehmens über fortschrittliche KI-Systeme wurden durchgesickert.

Darüber hinaus laut einem Bericht des Technologiemediums Engadget Anfang 2023Bei ChatGPT kam es zu schwerwiegenden Informationslecks.Zu diesem Zeitpunkt gab es einige Störungen auf der Webseite von ChatGPT, die dazu führten, dass die Konversationstitel einiger Benutzer in anderen Chatboxen angezeigt wurden und auch die Identitätsinformationen und Bankkarteninformationen einiger Benutzer durchsickerten.

Dennoch forderte Altman in diesem Interview die Gesellschaft auf, ihr „Vertrauen“ zu schenken, was völlig im Widerspruch zu seinen Äußerungen auf dem Bloomberg Technology Summit im Jahr 2023 steht, als er alle dazu aufrief, ihm und OpenAI nicht zu vertrauen.


▲Altmann beim Bloomberg Technology Summit 2023 (Quelle: Bloomberg)

Altman glaubt, dass es die allgemeine Erwartung der Menschen ist, dass KI-Technologie ihre Gesundheit verbessert, und dass dies einer der wenigen Anwendungsbereiche ist, in denen KI eingesetzt werden kann, um die Welt zu verändern. Später fügte er hinzu, dass, um KI zur Verbesserung der menschlichen Gesundheit zu erreichen,„Es braucht ein gewisses Maß an Vertrauen“, das heißt, die Menschen müssen darauf vertrauen, dass das neue Unternehmen die Arbeit verantwortungsvoll erledigt.

In einem gemeinsam verfassten Artikel in Time haben Altman und Huffington diese „Überzeugungen“ dargelegt. Sie glauben, dass sie vor allem Vertrauen in drei Aspekte benötigen, um eine „KI-gesteuerte Verhaltensänderung“ zu erreichen und den wachsenden Trend chronischer Krankheiten umzukehren.

Auf der einen Seite ist die Überzeugung der politischen Entscheidungsträger, dass sie ein „regulatorisches Umfeld schaffen müssen, das KI-Innovationen fördert“. Auch Ärzte müssen KI-Tools vertrauen und KI-Technologie in ihre Praxen integrieren. Schließlich müssen Einzelpersonen auch darauf vertrauen, dass KI verantwortungsvoll mit ihren privaten Daten umgeht.Dies ist in der Tat ein großer Wunsch für ein Unternehmen, das noch keine Produkte hat und sich nicht zu bestimmten Sicherheitsmaßnahmen verpflichtet hat.

Fazit: Es ist möglicherweise zu früh, die Gesundheit der KI zu überlassen, und KI sollte nicht zu einem Spiel des Glaubens werden

Als Altman und Huffington über die Implementierung von KI-Gesundheitsprodukten sprachen, beschrieben sie in ihrem gemeinsam verfassten Artikel im Time Magazine das folgende Szenario: „KI-Gesundheitstrainer werden jedem sehr präzise Vorschläge machen: Setzen Sie die Nachmittagssitzung ein, ersetzen Sie drei Limonaden durch Wasser und Zitrone; Machen Sie mit Ihren Kindern einen 10-minütigen Spaziergang, nachdem Sie sie um 15:15 Uhr von der Schule abgeholt haben. Beginnen Sie Ihre Entspannungsroutine um 22:00 Uhr Verlängerung des menschlichen Lebens.

Sind die verschiedenen „ungesunden“ Verhaltensweisen, die Menschen im Leben an den Tag legen, jedoch ein Problem persönlicher Gewohnheiten oder ein größeres soziales Problem?Sollten wir die Lösung der Krise chronischer Krankheiten dem Einzelnen und der KI überlassen oder sollten wir eine systematische Prävention durch Forschung und Intervention von Regierungen und medizinischen Einrichtungen durchführen?Diese Fragen müssen möglicherweise berücksichtigt werden, bevor diese sogenannte medizinische KI-Infrastruktur Realität wird.

Im Interview sprach Altman darüber, dass die Verwirklichung der Gesundheitsvision von KI bis zu einem gewissen Grad den Glauben der Menschen erfordert, aber in einer weitreichenden Technologie wie KI und einem lebensbedrohlichen Bereich wie der medizinischen VersorgungWas wir wirklich brauchen, ist vielleicht kein solches Glaubensspiel, sondern überprüfbare und erklärbare Technologie.

Quelle: The Atlantic, Zeit