notizia

Il CEO di OpenAI parla per la prima volta delle nuove startup AI: ispirate dal trattamento medico di ChatGPT

2024-07-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


cose intelligenti
Compilato da Chen Junda
Modifica Panken

Zhidongzhi ha riferito il 15 luglio che la settimana scorsa, il CEO di OpenAI Sam Altman ha fondato un'azienda medica e sanitaria basata sull'intelligenza artificiale.Thrive AI Health (Thrive in breve) Ha causato una preoccupazione diffusa. Questa startup mira a cambiare i comportamenti e le abitudini dei pazienti attraverso coach sanitari basati sull'intelligenza artificiale per risolvere la crisi delle malattie croniche che affliggono 127 milioni di persone negli Stati Uniti. Ha anche ricevuto investimenti dalla donna più ricca degli Stati Uniti.

L’assistenza medica è sempre stata una questione sociale di grande preoccupazione per la società americana, ed è anche una questione chiave nelle elezioni americane di quest’anno. Il sistema sanitario inefficiente e costoso rende difficile per molti americani ottenere servizi medici efficaci. Essendo una figura di spicco nel settore dell'intelligenza artificiale oggi, Altman ha scelto di entrare nel settore delle cure mediche dell'intelligenza artificiale in questo momento, cosa che ha naturalmente attirato l'attenzione di molte persone.

Un'altra fondatrice di Thirve with Altman è Arianna Huffington, fondatrice della società di tecnologia per il cambiamento comportamentale Thrive Global. I due sono stati intervistati da The Atlantic l'11 luglio. Rivela maggiori dettagli su questa impresa.

I due hanno affermato che Thrive si concentrerà sulla fornitura di consulenza sanitaria ed eviterà il lavoro di diagnosi medica in cui l’intelligenza artificiale attualmente non è brava. In futuro, sarà possibile integrare le informazioni sanitarie negli scenari di lavoro.

Tuttavia, di fronte ai dubbi dell'intervistatore, loroNon è riuscita a spiegare chiaramente in quale forma verrà implementato il prodotto e quali misure specifiche saranno adottate per garantire la sicurezza dei dati degli utenti.

Ha detto anche Altmann nell'intervista"Forse"Le informazioni nel processo di comunicazione tra esseri umani e intelligenza artificiale dovrebbero godere della protezione di clausole di riservatezza simili a quelle tra avvocati e clienti, ma ritiene che ciò dovrebbe essere deciso dalla società.

Vale la pena ricordare ciò che può ottenere la nuova società di Altmann, ThriveI dati sanitari dell’intelligenza artificiale sono estremamente privati ​​e hanno un valore economico significativo. Gli assicuratori possono utilizzare queste informazioni per adeguare il prezzo di una polizza specifica o decidere se rimborsare un determinato farmaco. Recentemente si sono verificate fughe di tali informazioni negli Stati Uniti, causando diffuse chiusure del sistema medico.

1. Concentrandosi sui consigli sanitari piuttosto che sulla diagnosi medica, la performance del modello è già “abbastanza buona”

Il principale punto di forza di Thrive, un prodotto sanitario basato sull’intelligenza artificiale, è il “coaching sanitario basato sull’intelligenza artificiale altamente personalizzato”. Thrive fornirà agli utenti consigli sanitari personalizzati e immediati raccogliendo informazioni su sonno, alimentazione, esercizio fisico, stress e interazioni sociali degli utenti, combinati con competenze in cartelle cliniche e cambiamenti di comportamento.

Altman e Huffington ritengono che la salute dell'intelligenza artificiale sia di grande importanza per migliorare l'attuale sistema medico crivellato negli Stati Uniti. Attualmente, il 90% delle spese del sistema di assicurazione medica statunitense viene speso per il trattamento delle malattie croniche e si prevede che Thrive lo farà. ridurre significativamente questa spesa.

Altman e Huffington hanno paragonato questa tecnologia al New Deal di Roosevelt, affermando che "l'intelligenza artificiale diventerà parte di un'infrastruttura medica più efficiente e continuerà a sostenere la salute delle persone nella vita quotidiana".

Ma l’applicazione dell’intelligenza artificiale nel settore medico e sanitario non è una novità. L’intelligenza artificiale ha già svolto un ruolo importante nella ricostruzione della TC, nello sviluppo di farmaci, nella diagnosi ausiliaria e in altri campi.


▲NVIDIA ha lanciato il prodotto medico AI Clara (Fonte: NVIDIA)

Al momento, le applicazioni mediche e sanitarie dell’IA sono rivolte principalmente ai medici e al personale di ricerca e sviluppo con conoscenze professionali, piuttosto che ai pazienti affetti da malattie presi di mira da questo Thrive.La maggior parte dei pazienti non ha conoscenze mediche sufficienti, quindi è probabile che non siano in grado di esprimere giudizi efficaci sui consigli sanitari o sulle diagnosi mediche fornite dall’intelligenza artificiale, ed è difficile per i prodotti dell’intelligenza artificiale garantire che non commettano errori.

Nelle interviste con The Atlantic, Altman e Huffington hanno risposto a domande sulla sicurezza del prodotto. Ritengono che le prestazioni attuali dei modelli di intelligenza artificiale siano abbastanza buoneConcentrarsi solo sui “consigli sanitari” piuttosto che sulla “diagnosi medica”e addestrato utilizzando dati sottoposti a revisione paritaria, il modello può fornire suggerimenti sufficientemente validi.

Tuttavia, né Huffington né Altman hanno potuto commentare quale forma avrebbe assunto il prodotto alla fine. Hanno detto che il prodotto sarà lanciato come app, ma Huffington ha anche detto che il prodotto sarà disponibile in ogni modalità possibile e potrebbe anche essere integrato in scenari di lavoro tramite app come Microsoft Teams.

2. La raccolta dei dati non è un problema, Altman ha affermato che gli utenti sono disposti a condividerli

Questo prodotto iper-personalizzato deve convincere gli utenti a fornire attivamente una grande quantità di informazioni private in modo che l’intelligenza artificiale possa avere informazioni sufficienti per prendere decisioni. In un'intervista con The Atlantic Monthly,Altman non pensa che questa sarà una sfida enorme.

Altman ha condiviso che parte del motivo per cui ha avviato la nuova società era che molte persone stavano già diagnosticando problemi medici su ChatGPT e ha anche ascoltato molte persone che credevano alle raccomandazioni di ChatGPT, eseguivano test pertinenti e ricevevano cure. Crede che gli utenti siano effettivamente molto disposti a condividere alcune informazioni molto dettagliate e private con LLM.

Un giornalista di The Atlantic è rimasto scioccato da questo approccio perché i consigli medici restituiti da ChatGPT potrebbero contenere allucinazioni legate all'intelligenza artificiale e rappresentare una minaccia per la salute del paziente. È molto probabile che i pazienti che fanno affidamento su queste false informazioni entrino in conflitto con i medici professionisti.

Il giornalista ritiene inoltre che, una volta trapelate informazioni mediche, ciò potrebbe danneggiare seriamente i diritti personali e gli interessi degli utenti. Tuttavia, Altmann non è fermo nella sua risposta al rischio di fuga di informazioni, ritenendo che questo problema debba essere lasciato alla società.

Ha detto che il contenuto della comunicazione tra medici e pazienti, avvocati e clienti è attualmente protetto dalla legge, e che "forse" dovrebbe esserci una protezione simile nella comunicazione delle persone con l'intelligenza artificiale. "Forse la società deciderà se stabilire una qualche forma di privilegi dell'intelligenza artificiale. " ". In altre parole, potrebbero non promuovere attivamente protezioni simili, lasciando la decisione alla società.

Ma la protezione dei dati sanitari ha raggiunto un livello urgente.Proprio nel febbraio di quest'anno, Change Healthcare, un colosso americano della tecnologia sanitaria affiliato al gruppo assicurativo americano UnitedHealth Group, ha subito un attacco ransomware su larga scala, causando la chiusura su larga scala del sistema di assicurazione medica di quasi un... un terzo degli americani correva il rischio di essere trapelati.

E il track record di OpenAI nella protezione dei dati non è perfetto.All'inizio del 2023, il sistema interno di OpenAI è stato attaccato da un attacco informatico e sono trapelati i record delle chat delle discussioni dei dipendenti dell'azienda sui sistemi IA avanzati.

Inoltre, secondo un rapporto del media tecnologico Engadget all’inizio del 2023,ChatGPT ha subito gravi fughe di informazioni.A quel tempo, c'erano alcuni problemi sulla pagina web di ChatGPT, che facevano apparire i titoli delle conversazioni di alcuni utenti in altre finestre di chat e venivano divulgate anche le informazioni sull'identità di alcuni utenti e le informazioni sulla carta di credito.

Nonostante ciò, Altman ha comunque invitato la società a dare loro "fiducia" in questa intervista, il che è completamente contrario alle sue osservazioni al Bloomberg Technology Summit del 2023, quando ha invitato tutti a non fidarsi di lui e di OpenAI.


▲Altmann al Bloomberg Technology Summit del 2023 (Fonte: Bloomberg)

Altman ritiene che sia un’aspettativa comune delle persone lasciare che la tecnologia dell’intelligenza artificiale migliori la propria salute, e questa è una delle poche aree di applicazione in cui l’intelligenza artificiale può essere utilizzata per cambiare il mondo. In seguito ha aggiunto che per ottenere che l’intelligenza artificiale migliori la salute umana,"Ci vuole una certa dose di fiducia", il che significa che le persone devono avere fiducia che la nuova azienda svolga il lavoro in modo responsabile.

In un articolo pubblicato su Time, scritto in collaborazione, Altman e Huffington hanno spiegato queste "credenze". Ritengono che per ottenere un “cambiamento comportamentale guidato dall’intelligenza artificiale” e invertire la tendenza crescente delle malattie croniche, hanno principalmente bisogno di fiducia in tre aspetti.

Da un lato c’è la convinzione dei policy maker di dover creare un “ambiente normativo che promuova l’innovazione dell’intelligenza artificiale”. Anche i medici devono fidarsi degli strumenti di intelligenza artificiale e integrare la tecnologia dell’intelligenza artificiale nelle loro pratiche. Infine, le persone devono anche avere fiducia nell’intelligenza artificiale per gestire i propri dati privati ​​in modo responsabile.Si tratta infatti di una grande richiesta per un'azienda che non dispone ancora di prodotti e non si è impegnata ad adottare misure di sicurezza specifiche.

Conclusione: potrebbe essere troppo presto per affidare la salute all’intelligenza artificiale, e l’intelligenza artificiale non dovrebbe diventare un gioco di fede

Parlando dell'implementazione dei prodotti sanitari basati sull'intelligenza artificiale, Altman e Huffington hanno descritto il seguente scenario nel loro articolo su Time Magazine, in cui sono coautori: "Gli allenatori sanitari basati sull'intelligenza artificiale forniranno suggerimenti molto precisi per tutti: metti la sessione pomeridiana, sostituisci tre bibite con acqua e limone; fai una passeggiata di 10 minuti con i tuoi bambini dopo essere andati a prenderli a scuola alle 15:15; inizia la tua routine di rilassamento alle 22:00 "Questo coach sanitario basato sull'intelligenza artificiale finirà per cambiare le cattive abitudini ostinate delle persone. , migliorando in definitiva la salute umana generale e estendere la durata della vita umana.

Tuttavia, i vari comportamenti “non salutari” che le persone hanno nella vita sono un problema di abitudini personali o un problema sociale più ampio?Dovremmo lasciare la risoluzione della crisi delle malattie croniche ai singoli individui e all’intelligenza artificiale, o dovremmo effettuare una prevenzione sistematica attraverso la ricerca e l’intervento dei governi e delle istituzioni mediche?Queste domande potrebbero essere ciò che le persone devono considerare prima che la cosiddetta infrastruttura medica basata sull’intelligenza artificiale diventi realtà.

Nell’intervista, Altman ha parlato di come la realizzazione della visione sanitaria dell’IA richieda in una certa misura la fiducia delle persone, ma in una tecnologia di vasta portata come l’IA e in un campo pericoloso per la vita come l’assistenza medica,Ciò di cui abbiamo veramente bisogno potrebbe non essere un gioco di credenze, ma una tecnologia verificabile e spiegabile.

Fonte: The Atlantic, Time