ニュース

OpenAIのCEOが新たなAIスタートアップについて初めて語る:ChatGPTの医療行為からインスピレーションを得て

2024-07-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


賢いもの
チェン・ジュンダ編纂
編集パンケン

Zhidongzhi は 7 月 15 日、OpenAI の CEO、サム・アルトマン氏が先週、AI 医療・健康関連会社を設立したと報じた。Thrive AI Health (略して Thrive)広く懸念を引き起こした。このスタートアップは、米国の 1 億 2,700 万人を悩ませている慢性疾患危機を解決するために、AI ヘルスコーチを通じて患者の行動や習慣を変えることを目指しており、米国で最も裕福な女性からも投資を受けています。

医療は常にアメリカ社会にとって大きな関心事である社会問題であり、今年のアメリカ選挙でも重要な争点となっている。非効率的で高価な医療制度により、多くのアメリカ人が効果的な医療サービスを受けることが困難になっています。今日のAI業界のトップ人物であるアルトマン氏がこのタイミングでAI医療への参入を選択したことは、当然多くの人々の注目を集めた。

アルトマン氏とともにサーヴを設立したもう一人の創業者は、行動変容テクノロジー企業スライブ・グローバルの創業者アリアナ・ハフィントン氏で、2人は7月11日にアトランティック紙のインタビューを受け、この事業についてさらに詳しく明らかにした。

両氏は、Thriveは健康アドバイスの提供に注力し、将来的にはAIが苦手とする医療診断業務を回避し、健康情報を業務シナリオに組み込むことが可能になると述べた。

しかし、面接官の疑問に直面して、製品がどのような形で実装されるのか、ユーザーデータのセキュリティを確保するためにどのような具体的な対策が講じられるのか、明確に説明できなかった。

アルトマン氏もインタビューでこう語った"多分"人間とAIの間のコミュニケーションプロセスにおける情報は、弁護士と依頼者の間と同様の秘密保持条項で保護されるべきだが、これは社会が決定すべきだと同氏は考えている。

アルトマン氏の新会社Thriveが何を得ることができるかは注目に値する。AI の健康データは非常にプライベートであり、大きな経済的価値があります。保険会社はこの情報を使用して、特定の保険の価格を調整したり、特定の医薬品を払い戻すかどうかを決定したりできます。最近、米国でこうした情報の漏洩があり、広範囲にわたる医療システムの停止を引き起こしている。

1. 医学的診断ではなく健康アドバイスに重点を置いているため、モデルのパフォーマンスはすでに「十分に優れている」

AIヘルス製品であるThriveの最大のセールスポイントは「高度にパーソナライズされたAIヘルスコーチング」です。 Thrive は、ユーザーの睡眠、食事、運動、ストレス、社会的交流に関する情報を収集し、医療記録や行動の変化に関する専門知識と組み合わせて、パーソナライズされた即時の健康アドバイスをユーザーに提供します。

Altman 氏と Huffington 氏は、米国の現在の謎に満ちた医療システムを改善する上で、AI ヘルスが非常に重要であると考えています。現在、米国の医療保険システムの支出の 90% は慢性疾患の治療に費やされており、Thrive はそれを実現すると期待されています。これを大幅に削減します。

アルトマン氏とハフィントン氏はこのテクノロジーをルーズベルト大統領のニューディール政策に例え、「AIはより効率的な医療インフラの一部となり、日常生活における人々の健康をサポートし続けるだろう」と述べた。

しかし、医療・健康業界における AI の応用は、新しいものではありません。AI は、CT 再構成、医薬品開発、補助診断などの分野ですでに重要な役割を果たしています。


▲NVIDIAがAI医療製品Claraを発売(出典:NVIDIA)

現在、AIの医療・健康アプリケーションは、このThriveが対象とする疾患患者ではなく、専門知識を持った医師や研究開発関係者を主なターゲットとしている。ほとんどの患者は十分な医学知識を持たないため、AI が提供する健康アドバイスや医療診断に対して効果的な判断を下すことができない可能性が高く、AI 製品が間違いを犯さないようにすることは困難です。

The Atlantic とのインタビューで、アルトマン氏とハフィントン氏は製品の安全性に関する質問に答えました。彼らは、If Thrive の AI モデルの現在のパフォーマンスが十分であると信じています。「医学的診断」ではなく「健康アドバイス」のみに焦点を当てる、ピアレビューされたデータを使用してトレーニングされたモデルは、十分な提案を提供できます。

ただし、ハフィントン氏もアルトマン氏も、製品が最終的にどのような形になるかについてはコメントできなかった。彼らは、この製品はアプリとして発売されると述べたが、ハフィントン氏はまた、この製品はあらゆる可能なモードで利用可能であり、Microsoft Teamsのようなアプリを通じて仕事のシナリオに統合することもできるとも述べた。

2. データを収集することは問題ではない、とアルトマン氏はユーザーは喜んでそれを共有すると述べた

この高度にパーソナライズされた製品では、AI が意思決定を行うのに十分な情報を得ることができるように、大量の個人情報を積極的に渡すようユーザーを説得する必要があります。アトランティック・マンスリー誌のインタビューで、アルトマン氏は、これが大きな課題になるとは考えていない。

Altman 氏は、新会社を立ち上げた理由の一部は、多くの人がすでに医学的問題の診断に ChatGPT を使用していること、また ChatGPT の推奨事項を信頼し、関連する検査を実施し、治療を受けた多くの人々の話を聞いたことであると共有しました。同氏は、ユーザーは実際、非常に詳細な個人情報を LLM と共有することに非常に意欲的であると考えています。

ChatGPT から返される医療アドバイスには AI の幻覚が含まれており、患者の健康を脅かす可能性があるため、Atlantic Monthly の記者はこのアプローチに衝撃を受けました。この誤った情報に依存する患者は、専門の医師と衝突する可能性が非常に高くなります。

記者はまた、ひとたび医療情報が漏洩すると、ユーザーの個人的権利や利益が著しく損なわれる可能性があるとも考えていた。しかし、アルトマン氏は情報漏洩のリスクに対しては毅然とした対応をしておらず、この問題の対処は社会に委ねるべきだと考えている。

同氏は、医師と患者、弁護士と依頼者の間のコミュニケーション内容は現在法律で保護されており、「おそらく」人々とAIのコミュニケーションにも同様の保護が必要になるだろうと述べ、「おそらく社会が何らかの形でAIの特権を設けるかどうかを決めることになるだろう」と語った。 「」。言い換えれば、同様の保護を積極的に推進せず、決定を社会に委ねる可能性がある。

しかし、医療データの保護は緊急のレベルに達しています。ちょうど今年2月、アメリカの保険グループ、ユナイテッドヘルス・グループ傘下のアメリカのヘルステクノロジー大手チェンジ・ヘルスケアが大規模なランサムウェア攻撃を受け、医療保険システムがほぼ1件停止されるという大規模な被害が発生した。アメリカ人の 3 人が情報漏えいの危険にさらされていました。

また、OpenAI のデータ保護における実績は完璧ではありません。2023年初め、OpenAIの社内システムがサイバー攻撃を受け、先進的なAIシステムについて議論した同社従業員のチャット記録が流出した。

さらに、テクノロジーメディア Engadget の 2023 年初頭の報道によると、ChatGPT では重大な情報漏洩が発生しました。当時、ChatGPTのWebページにいくつかの不具合があり、一部のユーザーの会話タイトルが他のチャットボックスに表示され、一部のユーザーの身元情報や銀行カード情報も漏洩した。

それにもかかわらず、アルトマン氏はこのインタビューで依然として社会に「信頼」を与えるよう呼びかけたが、これは2023年のブルームバーグ・テクノロジー・サミットで、彼とOpenAIを信用しないよう呼びかけた同氏の発言とは全く逆である。


▲2023年のブルームバーグ・テクノロジー・サミットに出席したアルトマン氏(出典:ブルームバーグ)

アルトマン氏は、AI テクノロジーによって健康状態が改善されることは人々の共通の期待であり、これは AI を使用して世界を変えることができる数少ない応用分野の 1 つであると考えています。彼は後に、人間の健康を改善する AI を実現するには、「それにはある程度の信頼が必要だ」ということは、新しい会社が責任を持って仕事をするということを人々が信頼する必要があるということだ。

タイム誌の共著記事で、アルトマン氏とハフィントン氏はこれらの「信念」について詳しく説明した。彼らは、「AI 主導の行動変容」を達成し、慢性疾患の増加傾向を逆転させるには、主に 3 つの側面での信頼が必要であると考えています。

一方で、政策立案者は「AI イノベーションを促進する規制環境」を構築する必要があると考えています。医療従事者も AI ツールを信頼し、AI テクノロジーを診療に統合する必要があります。最後に、個人は AI が自分の個人データを責任を持って処理してくれると信頼する必要もあります。これは、まだ製品を持たず、具体的なセキュリティ対策に取り組んでいない企業にとって、確かに大きな要求です。

結論: AI に健康を引き継ぐのは時期尚早かもしれない、そして AI は信仰ゲームになるべきではない

AI 健康製品の導入について、アルトマン氏とハフィントン氏は、タイム誌の共著記事で次のシナリオを説明しました。「AI 健康コーチは、全員に非常に正確な提案を提供します。午後のセッションを中止します。ソーダ 3 杯を水とレモンに置き換えます。午後 3 時 15 分に子供たちを学校に迎えに行った後、一緒に 10 分間散歩します。「この AI ヘルスコーチは、最終的には人々の頑固な悪い習慣の一部を変え、最終的には人間の健康全体を改善します。」人間の寿命を延ばすこと。

しかし、人々が生活の中で行うさまざまな「不健康な」行動は、個人的な習慣の問題なのでしょうか、それともより大きな社会問題なのでしょうか?慢性疾患危機の解決を個人やAIに任せるべきなのか、それとも政府や医療機関の研究や介入を通じて組織的な予防を行うべきなのか。これらの質問は、このいわゆる AI 医療インフラが現実になる前に、人々が考慮する必要があるものかもしれません。

インタビューの中でアルトマン氏は、AIの健康ビジョンの実現にはある程度の人々の信念が必要であるが、AIのような遠大なテクノロジーや医療のような生命を脅かす分野では、私たちに本当に必要なのは、そんな信念ゲームではなく、検証可能で説明可能な技術なのかもしれない。

出典: アトランティック、タイム