noticias

El CEO de OpenAI habla por primera vez sobre nuevas empresas de IA: inspiradas por el tratamiento médico de ChatGPT

2024-07-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


cosas inteligentes
Compilado por Chen Junda
EditarPanken

Zhidongzhi informó el 15 de julio que la semana pasada, el director ejecutivo de OpenAI, Sam Altman, fundó una empresa médica y de salud de inteligencia artificial.Thrive AI Health (Thrive para abreviar) Causó una preocupación generalizada. Esta startup tiene como objetivo cambiar los comportamientos y hábitos de los pacientes a través de entrenadores de salud con inteligencia artificial para resolver la crisis de enfermedades crónicas que afecta a 127 millones de personas en los Estados Unidos. También ha recibido inversión de la mujer más rica de Estados Unidos.

La atención médica siempre ha sido un tema social de gran preocupación para la sociedad estadounidense, y también es un tema clave en las elecciones estadounidenses de este año. El sistema médico ineficiente y costoso dificulta que muchos estadounidenses obtengan servicios médicos eficaces. Como figura destacada de la industria de la IA en la actualidad, Altman decidió ingresar a la atención médica de IA en este momento, lo que naturalmente atrajo la atención de muchas personas.

Otra fundadora de Thirve con Altman es Arianna Huffington, fundadora de la empresa de tecnología de cambio de comportamiento Thrive Global. Los dos fueron entrevistados por The Atlantic el 11 de julio. Revela más detalles sobre esta empresa.

Los dos dijeron que Thrive se centrará en brindar consejos de salud y evitar trabajos de diagnóstico médico en los que la IA no es buena actualmente. En el futuro, es posible integrar información de salud en escenarios laborales.

Sin embargo, ante las dudas del entrevistador, esteNo explicó claramente de qué forma se implementará el producto ni qué medidas específicas se tomarán para garantizar la seguridad de los datos de los usuarios.

Altmann también dijo en la entrevista"tal vez"La información en el proceso de comunicación entre humanos y la IA debería gozar de la protección de cláusulas de confidencialidad similares a las que existen entre abogados y clientes, pero cree que esto debería decidirlo la sociedad.

Cabe mencionar que lo que puede obtener la nueva empresa de Altmann, ThriveLos datos de salud de la IA son extremadamente privados y tienen un valor económico significativo. Las aseguradoras pueden utilizar esta información para ajustar el precio de una póliza específica o decidir si reembolsan un determinado medicamento. Ha habido filtraciones recientes de dicha información en los Estados Unidos, lo que provocó cierres generalizados del sistema médico.

1. Centrándose en consejos de salud en lugar de diagnósticos médicos, el rendimiento del modelo ya es "suficientemente bueno"

El mayor atractivo de venta de Thrive, un producto de salud con IA, es el "entrenamiento de salud con IA altamente personalizado". Thrive brindará a los usuarios asesoramiento de salud personalizado e instantáneo mediante la recopilación de información sobre el sueño, la alimentación, el ejercicio, el estrés y las interacciones sociales de los usuarios, combinado con experiencia en registros médicos y cambios de comportamiento.

Altman y Huffington creen que la salud de la IA es de gran importancia para mejorar el actual sistema médico plagado de Estados Unidos. Actualmente, el 90% de los gastos del sistema de seguro médico de Estados Unidos se gastan en el tratamiento de enfermedades crónicas, y se espera que Thrive. reducir significativamente este gasto.

Altman y Huffington compararon esta tecnología con el New Deal de Roosevelt y dijeron que "la IA se convertirá en parte de una infraestructura médica más eficiente y seguirá apoyando la salud de las personas en la vida diaria".

Pero la aplicación de la IA en la industria médica y sanitaria no es nada nuevo. La IA ya ha desempeñado un papel importante en la reconstrucción por TC, el desarrollo de fármacos, el diagnóstico auxiliar y otros campos.


▲NVIDIA ha lanzado el producto médico de IA Clara (Fuente: NVIDIA)

En la actualidad, las aplicaciones médicas y de salud de la IA están dirigidas principalmente a médicos y personal de I+D con conocimientos profesionales, en lugar de a los pacientes con enfermedades a los que se dirige este Thrive.La mayoría de los pacientes no tienen conocimientos médicos suficientes, por lo que es probable que no puedan emitir juicios eficaces sobre los consejos de salud o el diagnóstico médico proporcionados por la IA, y es difícil para los productos de IA garantizar que no cometerán errores.

En entrevistas con The Atlantic, Altman y Huffington abordaron preguntas sobre la seguridad del producto. Creen que el rendimiento actual de los modelos de IA es suficientemente bueno si prosperan.Centrarse únicamente en "consejos de salud" en lugar de "diagnóstico médico"y entrenado con datos revisados ​​por pares, el modelo puede proporcionar sugerencias suficientemente buenas.

Sin embargo, ni Huffington ni Altman pudieron comentar sobre qué forma tomaría finalmente el producto. Dijeron que el producto se lanzaría como una aplicación, pero Huffington también dijo que el producto estaría disponible en todos los modos posibles e incluso podría integrarse en escenarios de trabajo a través de aplicaciones como Microsoft Teams.

2. Recopilar datos no es un problema, Altman dijo que los usuarios están dispuestos a compartirlos.

Este producto hiperpersonalizado necesita convencer a los usuarios de que entreguen activamente una gran cantidad de información privada para que la IA pueda tener suficiente información para tomar decisiones. En una entrevista con The Atlantic Monthly,Altman no cree que esto sea un gran desafío.

Altman compartió que parte de la razón por la que fundó la nueva empresa fue que muchas personas ya estaban diagnosticando problemas médicos en ChatGPT, y también escuchó de muchas personas que creyeron en las recomendaciones de ChatGPT, realizaron pruebas relevantes y recibieron tratamiento. Él cree que los usuarios están realmente muy dispuestos a compartir información muy detallada y privada con LLM.

Un periodista de The Atlantic se sorprendió por este enfoque porque los consejos médicos proporcionados por ChatGPT pueden contener alucinaciones de IA y representar una amenaza para la salud del paciente. Los pacientes que confían en esta información falsa también tienen muchas probabilidades de tener conflictos con los médicos profesionales.

El periodista también cree que una vez que se filtra información médica, puede dañar gravemente los derechos e intereses personales de los usuarios. Sin embargo, Altmann no es firme en su respuesta al riesgo de fuga de información, y considera que este problema debería dejarse en manos de la sociedad.

Dijo que el contenido de la comunicación entre médicos y pacientes, abogados y clientes está actualmente protegido por la ley, y que "quizás" debería haber una protección similar en la comunicación de las personas con la IA "Quizás la sociedad decidirá si se establece algún tipo de privilegios de la IA". " ". En otras palabras, es posible que no promuevan activamente protecciones similares, dejando la decisión en manos de la sociedad.

Pero la protección de los datos sanitarios ha alcanzado un nivel urgente.Tan solo en febrero de este año, Change Healthcare, un gigante estadounidense de tecnología sanitaria afiliado al grupo de seguros estadounidense UnitedHealth Group, sufrió un ataque de ransomware a gran escala, que provocó un cierre a gran escala del sistema de seguro médico de casi una persona. Un tercio de los estadounidenses corría el riesgo de sufrir una filtración.

Y el historial de OpenAI en protección de datos no es perfecto.A principios de 2023, el sistema interno de OpenAI fue atacado por un ciberataque y se filtraron los registros de chat de los empleados de la empresa sobre las discusiones sobre sistemas avanzados de IA.

Además, según un informe del medio tecnológico Engadget de principios de 2023,ChatGPT ha experimentado graves filtraciones de información.En ese momento, hubo algunos fallos en la página web de ChatGPT, lo que provocó que los títulos de las conversaciones de algunos usuarios aparecieran en otros cuadros de chat, y también se filtraron la información de identidad de algunos usuarios y la información de sus tarjetas bancarias.

A pesar de esto, Altman todavía llamó a la sociedad a darles "confianza" en esta entrevista, lo que es completamente contrario a sus declaraciones en la Cumbre Tecnológica de Bloomberg en 2023, cuando llamó a todos a no confiar en él y en OpenAI.


▲Altmann en la Cumbre Tecnológica Bloomberg 2023 (Fuente: Bloomberg)

Altman cree que la expectativa común de la gente es permitir que la tecnología de IA mejore su salud, y esta es una de las pocas áreas de aplicación donde la IA se puede utilizar para cambiar el mundo. Más tarde añadió que para lograr que la IA mejore la salud humana,"Se necesita cierta fe", lo que significa que la gente tiene que confiar en que la nueva empresa hará el trabajo de manera responsable.

En un artículo escrito en coautoría en Time, Altman y Huffington explicaron detalladamente estas "creencias". Creen que para lograr un "cambio de comportamiento impulsado por la IA" y revertir la creciente tendencia de las enfermedades crónicas, necesitan confianza principalmente en tres aspectos.

Por un lado está la creencia de los responsables políticos de que necesitan crear un “entorno regulatorio que promueva la innovación en IA”. Los profesionales médicos también deben confiar en las herramientas de inteligencia artificial e integrar la tecnología de inteligencia artificial en sus consultas. Por último, las personas también deben confiar en la IA para manejar sus datos privados de manera responsable.De hecho, se trata de una gran petición para una empresa que aún no tiene ningún producto y no se ha comprometido a adoptar medidas de seguridad específicas.

Conclusión: puede que sea demasiado pronto para entregar la salud a la IA, y la IA no debería convertirse en un juego de fe

Hablando sobre la implementación de productos de salud de IA, Altman y Huffington describieron el siguiente escenario en su artículo en coautoría en la revista Time: "Los asesores de salud de IA brindarán sugerencias muy precisas para todos: reemplace la sesión de la tarde con tres refrescos con agua y limón; camine 10 minutos con sus hijos después de recogerlos de la escuela a las 3:15 p. m.; comience su rutina de relajación a las 10 p. m. "Este entrenador de salud de IA eventualmente cambiará algunos de los malos hábitos obstinados de las personas y, en última instancia, mejorará la salud humana en general. alargando la vida humana.

Sin embargo, ¿los diversos comportamientos "no saludables" que las personas tienen en la vida son un problema de hábitos personales o un problema social más amplio?¿Deberíamos dejar la crisis de las enfermedades crónicas en manos de los individuos y de la IA para que la resuelvan, o deberíamos llevar a cabo una prevención sistemática mediante la investigación y la intervención de gobiernos e instituciones médicas?Estas preguntas pueden ser las que la gente debe considerar antes de que la llamada infraestructura médica de IA se convierta en realidad.

En la entrevista, Altman habló sobre cómo la realización de la visión de salud de la IA requiere la creencia de las personas hasta cierto punto, pero en una tecnología de gran alcance como la IA y en un campo que amenaza la vida como la atención médica,Lo que realmente necesitamos tal vez no sea un juego de creencias, sino tecnología verificable y explicable.

Fuente: El Atlántico, Hora