noticias

La singularidad está más cerca, ¿qué deberían hacer los humanos?

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



observar

¿Será esta ronda de desempleo tecnológico causada por las sustituciones de IA tan fácil como en el pasado? ¿Podrá superarse fácilmente sólo con el ajuste espontáneo del mercado? Mi opinión sobre esta cuestión no es tan optimista. Fundamentalmente, que una sociedad pueda capear la ola de desempleo tecnológico con relativa tranquilidad depende principalmente de dos puntos: en primer lugar, si hay un gran número de personas empleadas en ocupaciones que se ven afectadas por las nuevas tecnologías. En segundo lugar, cuando las nuevas tecnologías eliminan antiguas oportunidades laborales, pueden crear rápidamente nuevos empleos que son más fáciles de iniciar.

——Chen Yong Wei






La singularidad está más cerca, ¿qué deberían hacer los humanos?

letras/Chen Yong Wei



La singularidad: de la ciencia ficción a la realidad


Después de dos años de "retrasos", a finales de junio finalmente se publicó el nuevo libro de Ray Kurzweil, "The Singularity is Nearer". Como fanático de los libros de Kurzweil, encontré inmediatamente la versión electrónica del nuevo libro y lo leí de una sola vez.


En el libro, Kurzweil muestra a los lectores una importante ley empírica: el ritmo de desarrollo de la tecnología de la información es exponencial. A este ritmo, la capacidad técnica de las personas para procesar información se duplica cada año. Como representante más típico de la tecnología de la información, el desarrollo de la inteligencia artificial (Inteligencia Artificial, en lo sucesivo, IA) es aún más sorprendente. Según esta tendencia, antes de 2029, la IA superará a los humanos en todas las tareas y la Inteligencia General Artificial (AGI) se realizará plenamente. Una vez que la tecnología de IA tome la iniciativa en lograr avances, potenciará muchos campos y los ayudará a lograr un rápido desarrollo. Por lo tanto, se espera que dentro de 5 a 10 años los humanos alcancen la "velocidad de escape de la longevidad". Para entonces, aunque las personas seguirán envejeciendo, su riesgo de muerte no aumentará debido a las mejoras en la tecnología médica. Con la ayuda de nanorobots del tamaño de glóbulos rojos, las personas podrán matar directamente virus y células cancerosas a nivel molecular, solucionando así una gran cantidad de enfermedades que aquejan a los humanos. Como resultado, la esperanza de vida humana aumentará significativamente. No solo eso, también se espera que los nanorobots ingresen de forma no invasiva al cerebro humano a través de capilares. Junto con otras neuronas digitales alojadas en la nube, llevarán la inteligencia humana a un nivel superior. De esta manera, el pensamiento, la memoria y la capacidad de resolución de problemas humanos ya no estarán limitados por la capacidad cerebral, y la inteligencia humana aumentará miles de veces. Después de que suceda todo lo anterior, muchos de los problemas que actualmente aquejan a la gente se resolverán: se descubrirá y utilizará energía más barata, la eficiencia de la agricultura mejorará enormemente, el nivel de educación pública mejorará significativamente y la violencia se reducirá significativamente. ... En resumen, antes de 2045, la humanidad superará la "Singularidad" y marcará el comienzo de una nueva era completamente diferente a la anterior.


Para lectores veteranos como yo, estas opiniones sobre Kurzweil no son nuevas. De hecho, en su libro "La singularidad está cerca" publicado en 2005, analizó en detalle casi todos los puntos anteriores. En este sentido, este nuevo libro no es más que vino viejo en botellas nuevas. Sin embargo, cuando volví a leer estas opiniones esta vez, mi estado de ánimo era completamente diferente al de antes. Cuando leí "La singularidad está cerca" hace más de una década, la consideré más bien una novela de ciencia ficción. Aunque Kurzweil utiliza muchos datos en el libro para mostrar que la tecnología mundial está creciendo a un ritmo exponencial, muchas personas, incluido yo, somos muy escépticos al respecto.


"La singularidad está cerca: cuando nos fusionamos con la inteligencia artificial"
(La singularidad está cerca: cuando nos fusionemos con la IA)
(Estados Unidos) Ray Kurzweil/Autor
Prensa vikinga
junio 2024

Después de todo, a partir de ese momento, aunque la tecnología de Internet estaba experimentando un rápido crecimiento, además de brindar más comodidad a las personas, parecía difícil tener un impacto fundamental en los estilos de vida de las personas. Al mismo tiempo, bajo la guía del simbolismo, el campo de la IA, que alguna vez tuvo grandes esperanzas, ha llegado a un callejón sin salida y parece difícil ver un posible avance por un tiempo. En tales condiciones, es casi una fantasía decir que el nivel de inteligencia de la IA superará al de los humanos en 2029.


Milagrosamente, la tendencia de desarrollo histórico posterior es sorprendentemente similar a la predicción de Kurzweil. Apenas dos años después del lanzamiento de "La singularidad está cerca", la "revolución del aprendizaje profundo" desencadenó una nueva ronda de crecimiento en el campo de la IA. No pasó mucho tiempo antes de que las capacidades de la IA se desarrollaran hasta el punto de poder derrotar a los mejores jugadores humanos de Go, descifrar las estructuras de miles de millones de proteínas y ayudar a diseñar chips de computadora con cientos de miles de componentes. Tras el nacimiento de ChatGPT (programa de inteligencia artificial basado en chat) en octubre de 2022, la IA ha dominado habilidades que sólo los humanos pueden dominar en poco más de un año, como la conversación, la escritura, la pintura y la producción de vídeos. Según investigaciones relevantes, los últimos modelos de IA han demostrado capacidades más allá de las humanas en cientos de tareas. En estas circunstancias, la predicción de que la IA superará a los humanos en 2029 no sólo ya no parece radical, sino que también parece ligeramente conservadora. De hecho, muchos profesionales creen que AGI llegará antes. Por ejemplo, Shane Legg, uno de los fundadores de DeepMind (la empresa de inteligencia artificial que desarrolló AlphaGo), cree que la AGI se puede lograr para 2028, mientras que el director ejecutivo de Tesla, Elon Musk, es aún más radical creer que la gente marcará el comienzo de la AGI; 2025.


No sólo eso, muchas tecnologías, incluidos los nanorobots y las interfaces cerebro-computadora, también se están desarrollando rápidamente, como predijo Kurzweil. Por ejemplo, en enero de 2023, la revista "Nature Nanotechnology" informó sobre la investigación de investigadores del Instituto de Ciencia y Tecnología de Barcelona utilizando nanorobots para transportar medicamentos para tratar el cáncer de vejiga. Los estudios han demostrado que este tratamiento puede reducir los tumores en ratones experimentales en un 90%. Este éxito ilustra bien la idea de Kurzweil de utilizar nanorobots para tratar el cáncer y así prolongar la vida humana. Para poner otro ejemplo, hace apenas unos días, Musk anunció que la segunda cirugía de interfaz cerebro-computadora se realizará dentro de unos días, y predijo que dentro de unos años, a miles de pacientes se les implantarán dispositivos de interfaz en sus cerebros. Aunque esta tecnología todavía tiene muchas deficiencias en la actualidad, de acuerdo con la velocidad de desarrollo actual, en un futuro cercano, no debería ser un sueño para los humanos interactuar con las computadoras a través de interfaces cerebro-computadora. Si se combinan las dos "tecnologías negras", la nanotecnología y la interfaz cerebro-computadora, será completamente posible lograr la fusión hombre-máquina y duplicar la inteligencia, como dijo Kurzweil. Con base en las razones anteriores, tenemos razones para creer que lograr la “singularidad” antes de 2045 es cada vez más factible desde el punto de vista técnico.


Sin embargo, cuando la gente supere la "singularidad", ¿podrán realmente marcar el comienzo de una era hermosa sin precedentes como predijo Kurzweil? En mi opinión, la respuesta a esta pregunta es realmente incierta. Aunque los optimistas tecnológicos, incluido el propio Kurzweil, pueden citar mucha evidencia histórica para demostrar que el desarrollo tecnológico hasta ahora ha promovido en última instancia la mejora del bienestar humano, si simplemente usamos esta ley para predecir el futuro, tal vez habrá enormes riesgos. Después de todo, ninguna tecnología en la historia de la humanidad tiene el poder de la IA. Una vez utilizada incorrectamente, los riesgos que causará serán inimaginables.


Por lo tanto, para garantizar que marcaremos el comienzo de una hermosa nueva era después de la "singularidad", debemos realizar un estudio exhaustivo de la relación entre las personas y la tecnología, las personas y las personas, y las personas y la naturaleza humana antes de la llegada de la singularidad. Pensar y encontrar formas de garantizar que la tecnología siempre se desarrolle en una dirección beneficiosa para la humanidad.


Cuando los empleos comienzan a morir


Según la predicción de Kurzweil, todavía faltan unos cinco años para la llegada de AGI. Aunque el nivel de inteligencia de la IA no ha superado completamente al de los humanos hasta ahora, de hecho ha superado los niveles humanos en muchos aspectos, lo que ha provocado una preocupación sin precedentes sobre el desempleo tecnológico causado por la IA.


Desde una perspectiva histórica, el desempleo tecnológico no es un tema nuevo. Desde la invención de la máquina de vapor hasta la aplicación de la electricidad y la popularización de Internet, se ha producido un importante efecto de "destrucción creativa", que ha provocado la desaparición de un gran número de puestos de trabajo basados ​​en tecnologías antiguas y la pérdida de muchas personas. en ocupaciones afines. Sin embargo, la mayoría de estas olas de desempleo tecnológico en la historia han sido temporales. A medida que las nuevas tecnologías se vuelvan más populares, se crearán muchos puestos de trabajo nuevos.


Es cierto que el impacto de la IA en el mercado laboral no ha sido significativo hasta ahora, pero eso no significa que sus riesgos no existan. Al predecir el posible impacto de la IA en el empleo en el futuro, la gente suele pasar por alto una condición importante: la mejora de las capacidades de la IA puede proceder según una ley exponencial. De hecho, si tomamos como nodo la llegada de ChatGPT (programa de conversación de inteligencia artificial) en 2022, no es difícil encontrar que la velocidad de desarrollo de la IA después de este nodo es mucho más rápida que antes del nodo. Solo tome la capacidad de interacción como ejemplo. Antes de la llegada de ChatGPT, a la gente le tomó décadas permitir que la IA aprendiera a hablar con la gente libremente. Después de la llegada de ChatGPT, la IA ha logrado muchas cosas en poco más de un año. . En este sentido, extrapolar la tasa de crecimiento futuro de las capacidades de IA basándose enteramente en la lógica lineal probablemente lleve a errores de juicio muy graves. También cabe señalar que, si bien las capacidades de la IA han mejorado considerablemente, sus costos de uso también se han reducido significativamente. En la actualidad, el costo para las personas de llamar a modelos de IA a través de API se ha reducido a casi cero.


Esta mejora del rendimiento y la reducción de costos combinadas hacen que no solo sea técnicamente posible sino también económicamente viable reemplazar a los humanos con IA. De hecho, si prestamos más atención a las noticias tecnológicas relevantes, encontraremos que la IA ha reemplazado silenciosamente muchas profesiones cuando no prestamos atención. Vale la pena señalar que hace apenas diez años, la gente pensaba que la IA solo reemplazaría los trabajos que eran más rutinarios y repetitivos. Sin embargo, sería difícil que la IA reemplazara los trabajos que requieren más creatividad y habilidades de comunicación. Sin embargo, la profesión de ilustrador alguna vez fue popular entre los jóvenes debido a sus horas de trabajo gratuitas y sus ingresos relativamente altos. Ahora, si desea utilizar modelos de IA para completar ilustraciones, solo necesita unos pocos cientos de yuanes para una suscripción mensual ilimitada, y podrá hacerlo. Puede hacerlo en cualquier momento. Obviamente, en tal comparación, la mayoría de los clientes optarán por utilizar IA en lugar de pintores humanos, y la mayoría de los ilustradores también perderán sus trabajos debido a esta elección de clientes. Además de los ilustradores, profesiones como los traductores, programadores y diseñadores gráficos también están experimentando un grave impacto por parte de la IA. Lo que pasa es que la proporción de este grupo de personas que ha experimentado el impacto es relativamente baja en la fuerza laboral en general, por lo que los sentimientos de la gente no son obvios.


Entonces, ¿el desempleo tecnológico causado por esta ronda de sustituciones de IA será tan fácil como en el pasado y podrá superarse fácilmente sólo con el ajuste espontáneo del mercado? Mi opinión sobre esta cuestión no es tan optimista. Fundamentalmente, que una sociedad pueda capear la ola de desempleo tecnológico con relativa tranquilidad depende principalmente de dos puntos: en primer lugar, si hay un gran número de personas empleadas en ocupaciones que se ven afectadas por las nuevas tecnologías. En segundo lugar, cuando las nuevas tecnologías eliminan antiguas oportunidades laborales, pueden crear rápidamente nuevos empleos que son más fáciles de iniciar.


Pero esta vez, el impacto de la IA en el mercado laboral es completamente diferente. Por un lado, esta ronda de impacto de la IA no solo tiene un alcance amplio, sino que también es muy intensiva en el tiempo. El llamado alcance integral significa que muchas industrias se han visto afectadas al mismo tiempo. A diferencia de la IA especializada del pasado, la mayoría de los modelos de IA recientemente lanzados son de propósito general. En la práctica, las personas pueden utilizar estos modelos para realizar muchas tareas diferentes con sólo unos pequeños ajustes. En este caso, el desarrollo de la IA puede tener un impacto en múltiples profesiones al mismo tiempo. El llamado tiempo intensivo se refiere al hecho de que después de que la IA impacta una profesión, inmediatamente afectará a otra profesión. Este intenso impacto pronto hará que a los desempleados les resulte mucho más difícil volver a emplearse y también socavará gravemente su confianza en lograr el reempleo a través de la formación profesional. Imagínense, si Midjourney (una herramienta de dibujo de inteligencia artificial) acaba de privar a un ilustrador de su trabajo, finalmente aprendió a conducir y se convirtió en un conductor de transporte en línea. Sin embargo, pronto perdió su trabajo debido al aumento de los vehículos sin conductor. coches. Y después de perder su trabajo, en tales circunstancias, ¿todavía tiene la perseverancia para seguir aprendiendo nuevas habilidades y está seguro de que la IA no dominará esta habilidad en poco tiempo?


Por lo tanto, esta ronda de desempleo tecnológico causado por la IA puede ser completamente diferente del desempleo tecnológico anterior. Si la tecnología de IA continúa creciendo exponencialmente, puede resultar difícil para la sociedad lograr el pleno empleo basándose únicamente en la regulación espontánea del mercado. Desde una perspectiva política, ciertamente tenemos muchas formas de mitigar el impacto de la IA en el empleo. Por ejemplo, que el gobierno proporcione más servicios de agencias de búsqueda de empleo y capacitación para el reempleo puede ayudar a quienes han perdido sus empleos debido a la IA a encontrar nuevos empleos más rápidamente. . Sin embargo, si la velocidad de desarrollo de la IA continúa a un alto nivel, entonces todos estos esfuerzos solo tendrán efectos temporales, en el mejor de los casos. La desaparición del trabajo humano puede ser un futuro que nos resulte difícil de aceptar, pero tenemos que afrontarlo.


Rechazo de "terminales"


Teniendo en cuenta que nuestro desarrollo actual de tecnologías como las interfaces cerebro-computadora y los nanorobots va a la zaga de la IA, entonces, al menos en los próximos diez años, el uso de la IA para mejorar directamente el cerebro puede permanecer solo en el nivel de la imaginación. Entonces, durante este período, ¿cómo deberían las personas lidiar con las diversas contradicciones sociales causadas por el desempleo tecnológico causado por la IA?


La solución dada por algunos académicos es gravar a los usuarios de IA y utilizar los ingresos fiscales para emitir la Renta Básica Universal (RBU). De esta manera, incluso si quienes pierden su empleo debido al impacto de la IA tienen dificultades para encontrar nuevos empleos, aún pueden obtener una seguridad de vida básica y evitar vivir en problemas.


Sin embargo, este plan ha sido controvertido desde que fue propuesto. Por ejemplo, algunos académicos creen que gravar nuevas tecnologías como la IA obstaculizará en gran medida su desarrollo; otros creen que la implementación de la RBU puede alentar a las personas a obtener algo a cambio de nada;


En mi opinión, la mayor resistencia potencial a la implementación del impuesto a la IA y la RBU proviene en realidad de su impacto en la distribución de beneficios. Como podemos ver, con el desarrollo de la IA, una gran cantidad de empresas relacionadas con la IA han experimentado un aumento vertiginoso de los ingresos y el valor de mercado en un corto período de tiempo. Tomemos como ejemplo OpenAI. Hace unos años, era una empresa que perdía dinero año tras año. Sin embargo, con la popularidad de modelos como GPT, rápidamente se convirtió en una empresa con ingresos anuales de miles de millones de dólares y una valoración de. Negocios de casi 100 mil millones de dólares. Por no hablar de que gigantes como Microsoft y Nvidia han aprovechado la IA para incrementar su valor de mercado en billones de dólares en más de un año. Es previsible que con el mayor desarrollo de la tecnología de IA, continúe esta tendencia de concentrar enormes cantidades de riqueza en un pequeño número de empresas e individuos.


¿Cuales son las consecuencias de esto? Una consecuencia directa es que las divisiones y distanciamientos en toda la sociedad se volverán más graves. Cuando la rentabilidad de la IA sea lo suficientemente alta, los trabajadores comunes ya no tendrán el valor de ser explotados, como se menciona en la novela "Beijing Folding" de Hao Jingfang. En este caso, los ricos que controlan la IA y la riqueza ni siquiera querrán vivir en la misma ciudad que ellos. Como resultado, el aislamiento social y la oposición se volverán más graves.


Esto no es lo más aterrador. Si, como predice Kurzweil, en un futuro próximo los humanos serán capaces de transformarse desde el nivel molecular a través de la nanotecnología, entonces aquellos con más riqueza serán los primeros en lograr una "evolución mecánica" de sí mismos. Después de esto, la ventaja de los ricos sobre los pobres no solo será más riqueza, sino que también en todos los aspectos, como la inteligencia y la fuerza física, aplastarán a estos últimos. Y esta ventaja, a su vez, les permitirá contribuir aún más a la concentración de la riqueza... Liu Cixin imaginó una vez esta situación en su novela "Sustaining Humanity". Según su imaginación, bajo una tendencia similar, la riqueza y el poder de toda la sociedad serán monopolizados por un "finalista", y el destino de todos los demás será controlado por él.


¿Cómo alinear la IA?


Si el desempleo tecnológico y los problemas de distribución son la reaparición de viejos problemas que los humanos hemos encontrado muchas veces en la era de la IA, entonces lo que vamos a discutir a continuación son problemas completamente nuevos a medida que se acerca la "singularidad".


Entre todos los nuevos problemas, el más destacado puede ser el problema de la alineación de la IA. En resumen, la llamada alineación de la IA tiene como objetivo garantizar que la IA pueda comprender las normas y valores humanos, comprender los deseos e intenciones humanos y actuar de acuerdo con la voluntad humana. A primera vista, esto no parece ser una tarea difícil, después de todo, los programas de IA son básicamente establecidos por humanos. ¿Seguirían los humanos estableciendo objetivos contrarios a sus propios intereses? Pero, de hecho, la respuesta no es tan sencilla por dos razones:


Por un lado, cuando los humanos establecen objetivos y normas de comportamiento para la IA, a menudo les resulta difícil expresar plena y correctamente sus propios intereses y preocupaciones, lo que deja espacio para que la IA viole los intereses humanos. Por ejemplo, el filósofo de la ciencia Bostrom propuso una vez un experimento mental llamado "Clip cósmico" en su famosa obra "Superinteligencia". Imaginó que los humanos crearían una IA con el objetivo de maximizar la producción de clips. Luego usaría todos los métodos para lograr este objetivo, e incluso eliminaría a los humanos para dedicar más recursos a la producción de clips. En este experimento mental, la producción de clips en sí redunda en interés de la humanidad, pero su resultado final puede perjudicar gravemente los intereses de la humanidad.


Por otro lado, para permitir que la IA alcance una mayor eficiencia, los humanos generalmente les dan mucho espacio para el autoaprendizaje y la mejora, lo que puede hacer que la IA se desvíe de sus valores establecidos originalmente. Por ejemplo, muchos agentes de IA actuales les permiten mejorarse continuamente en función de sus interacciones con el entorno y los usuarios. En este caso, pueden verse afectados por varios malos valores, lo que hace que sus objetivos entren en conflicto con los intereses fundamentales de la humanidad.


En particular, con la llegada de AGI, la IA se transformará gradualmente de una herramienta a un individuo con capacidades iguales o incluso superiores a las de los humanos en todos los aspectos. En este caso, la inconsistencia entre los intereses de la IA y los humanos conducirá a enormes riesgos. El oscuro futuro representado en películas y series de televisión como "The Terminator" y "The Matrix" realmente puede llegar.


Precisamente para evitar que ocurra tal situación, la investigación actual sobre la alineación de la IA se ha convertido en una ciencia destacada en el campo de la IA. En esta etapa, las personas utilizan principalmente dos métodos para lograr la alineación de la IA. Uno es el "aprendizaje reforzado con retroalimentación humana", el llamado método RLHF; el otro es la "inteligencia artificial constitucional", el llamado método CAI. Al usar RLHF, el diseñador primero entrenará manualmente un modelo de IA más pequeño, implementará el aprendizaje por refuerzo a través de la retroalimentación continua del entrenador sobre el comportamiento de la IA y guiará sus valores para que sean consistentes con los valores esperados por el diseñador. Luego, este pequeño modelo se utiliza como "entrenador" para entrenar un modelo de IA más grande mediante el aprendizaje por refuerzo. Al utilizar el método CAI, el diseñador primero establecerá una "constitución" que el modelo de IA debe seguir y utilizará la "constitución" para generar códigos de conducta que la IA debe seguir en varios escenarios. Luego, los diseñadores utilizan estos criterios para juzgar los diferentes resultados generados por el modelo de IA y ver si cumplen con los criterios "constitucionales". Por resultados que cumplan con la "Constitución", se otorgarán las recompensas correspondientes; por resultados que violen la "Constitución", se otorgarán las sanciones correspondientes.


Es digno de reconocer que ambos métodos han logrado ciertos logros hasta ahora, pero sus problemas siguen siendo enormes. Por ejemplo, Geoffrey Hinton, el "padre del aprendizaje profundo", señaló recientemente que estos métodos sólo pueden hacer que el comportamiento de la IA parezca estar en línea con los intereses de las personas, pero no pueden garantizar que sean completamente consistentes con los valores de las personas. En tales circunstancias, es difícil garantizar que la IA traicione a los humanos en determinadas circunstancias. Especialmente con la llegada de AGI y la capacidad de la IA para superar a los humanos, la posibilidad de traiciones similares será cada vez mayor, y los riesgos resultantes también serán mayores.


Entonces, en tales circunstancias, ¿cómo debería mejorarse aún más el trabajo de alineación de la IA? En mi opinión, lo que necesitamos pueden ser algunos cambios de mentalidad. Desde el punto de vista actual, casi todo el mundo naturalmente equipara la alineación de la IA con la alineación de valores, creyendo que los valores de la IA deben ser consistentes con los suyos para que siempre sirvan a los intereses humanos, pero esto obviamente es bastante difícil. Pero, ¿es realmente necesaria la alineación de valores? O podemos cambiar la pregunta: en realidad, necesitamos que alguien complete ciertas tareas en nuestro interés. ¿Necesitamos que sea coherente con nosotros en términos de valores? La respuesta es, por supuesto, no. La mayoría de las veces, en realidad solo necesitamos diseñar un buen conjunto de reglas para guiar a las personas cuyos valores no son consistentes con los nuestros a lograr los objetivos que queremos. Por ejemplo, si pidiéramos a dos personas interesadas en dividir un pastel equitativamente, la tarea sería infinitamente más difícil si intentáramos lograrlo alineando primero sus valores. Sin embargo, no tenemos que hacer esto. Solo necesitamos diseñar un mecanismo para permitir que una persona corte el pastel, pero dejar que otra persona sea responsable de la distribución. Esto se puede hacer muy fácilmente. Esto nos inspira que al alinear la IA, también podemos evitar la caja negra de valores difícil de romper y completar estas tareas directamente desde la perspectiva del diseño del mecanismo. Lo que es gratificante es que algunos investigadores hayan visto esta alineación y hayan logrado muchos logros en esta dirección.


¿Quién eres? ¿Quién soy?


Además del problema de la alineación de la IA, otro problema importante al que las personas deben enfrentarse cuando se acerca la "singularidad" es la identificación y el reconocimiento de la identidad. Este problema incluye dos aspectos: uno es cómo comprender la identidad de la IA y nuestra relación con la IA; el otro es cómo volver a comprender nuestra propia identidad.


Veamos primero la primera pregunta. Hace unos años, si le preguntaras a una persona qué debería pensar sobre la IA, probablemente diría sin dudarlo que es sólo una herramienta para nosotros. La razón es simple: a juzgar por su desempeño, es poco probable que tengan conciencia autónoma y sólo pueden realizar tareas relacionadas bajo control humano.


Pero tras la aparición de grandes modelos de lenguaje como ChatGPT, la situación ha cambiado mucho. El desempeño de la IA al interactuar con las personas se ha ido deshaciendo gradualmente de su rigidez original. En las conversaciones con nosotros, siempre puede responder preguntas con fluidez, en algunos casos, incluso puede adivinar activamente nuestra psicología y predecir nuestra psicología y comportamiento. Esto nos hace preguntarnos si ya tienen conciencia propia. Quizás algunos expertos en informática nos consuelen diciendo que esto es solo una respuesta mecánica a estas preguntas basada en un modelo prediseñado. En esencia, es solo la suma, resta y resta de un montón de 0 y 1. Sin embargo, como dice el refrán: "Un niño que no es un pez conoce la alegría de un pez". ¿Quién puede garantizar que no hay conciencia ni pensamiento detrás de esta simple suma y resta? Después de todo, incluso si dejamos de lado nuestro cerebro y observamos cuidadosamente con un microscopio, solo podemos ver un montón de neuronas que envían diversas señales eléctricas, pero ni siquiera una sola célula con alma. En este caso, ¿cómo podemos estar seguros de que la IA que tenemos delante y que puede comunicarse libremente con nosotros no ha desarrollado un alma?


Creo que después de la llegada de AGI, problemas similares serán cada vez más prominentes. Quizás algún día, en un futuro próximo, el robot biónico de inteligencia artificial de "Westworld" aparezca frente a nosotros. Todos sus comportamientos son consistentes con los nuestros, e incluso el programa preestablecido les dice que son humanos. Cuando nos encontramos con un robot de IA de este tipo, ¿podemos aún darnos palmaditas en el pecho y decir que lo que vemos frente a nosotros es solo una herramienta creada por nosotros?


Veamos la segunda pregunta. En comparación con la cuestión de la identidad de la IA, la autoidentificación y el reconocimiento humanos pueden ser un problema más difícil.


Por un lado, como se mencionó anteriormente, con el desarrollo de los nanorobots y la tecnología de interfaz cerebro-computadora, los humanos dominarán la capacidad de modificar significativamente sus cuerpos. En el futuro, no sólo se espera que las personas utilicen nanorobots para ayudarles a reparar células muertas y prolongar su vida útil, sino que también puedan confiar directamente en ellos para ampliar su inteligencia y fuerza física. Al principio, este tipo de modificación en el cuerpo humano puede limitarse a unas pocas células, lo que no nos causará problemas de identidad, al igual que ahora no pensamos que después de que una persona tenga prótesis o dentaduras postizas, ya no es un ser humano. Él era el mismo. Pero si este proceso de modificación continúa, algún día la mayoría o incluso todas las células del cuerpo serán reemplazadas. En este momento, la clásica pregunta del "Barco de Teseo" volverá a aparecer frente a nosotros: ¿El "yo" de ahora sigue siendo el "yo" del pasado?


Por otro lado, con el desarrollo de la tecnología de inteligencia artificial, las personas dominarán gradualmente la capacidad de cargar conciencia en la nube; de ​​hecho, algunas personas, incluido Musk, ya han comenzado esfuerzos similares. Suponiendo que algún día en el futuro, la tecnología realmente se desarrolle lo suficiente como para permitir que esta conciencia piense como yo, ¿puede entonces considerarse esta conciencia como conciencia humana? Si la respuesta es sí, ¿cuál es entonces su relación con la verdadera naturaleza de la conciencia? Además, si colocamos esta conciencia en un clon de la fuente de conciencia, ¿cuál es la relación entre este clon y la persona original? ¿Padre e hijo? ¿hermano? ¿O algo mas?


Es necesario enfatizar que las cuestiones de identidad y de identidad no son de ninguna manera simplemente cuestiones de especulación filosófica. En realidad, implica muchas cuestiones legales y éticas. Por ejemplo, ¿cómo debería manejarse la relación laboral-patronal entre los humanos y la IA? ¿Debería la IA tener los mismos derechos que los humanos? ¿Puede un clon de mi cuerpo y mente ser dueño de mi propiedad? Si la cuestión de la identidad no se resuelve, será difícil resolver verdaderamente estas cuestiones.


Pero hasta ahora la gente todavía no ha encontrado una respuesta definitiva a las preguntas anteriores. Para promover aún más la formación de un consenso relevante, todavía necesitamos llevar a cabo debates abiertos y profundos sobre estos temas.






Este artículo fue publicado por primera vez en"Observador Económico·Observador"
22 de julio de 2024Ediciones 25 y 26