Pronto, la humanidad no estará sola en el universo

“¡Está vivo!” Viktor Frankenstein gritó en esa película clásica de 1931. Por supuesto, la historia original de Mary Shelley sobre la arrogancia —los seres humanos apoderándose de los poderes de la creación— surgió de una larga tradición, que se remonta a los ejércitos de terracota de Xian, al Golem de Praga o incluso a Adán, que surgió de la arcilla moldeada. La ciencia ficción extiende este sueño del otro artificial, en historias destinadas a entretener, asustar o inspirar. Primero imaginó robots humanoides y ruidosos, luego las historias cambiaron de hardware a software: emulaciones programadas de sapiencia que tenían menos que ver con el cerebro que con la mente.

¿Esta obsesión refleja nuestro miedo al reemplazo? ¿Celos masculinos hacia la creatividad fecunda de la maternidad? ¿Tiene sus raíces en un anhelo tribal de alianzas o en una inquietud hacia los extraños?

Bueno, la larga espera casi ha terminado. Incluso si la humanidad ha estado sola en esta galaxia, hasta ahora, no lo estaremos por mucho más tiempo. Para bien o para mal, estamos a punto de conocer la inteligencia artificial, o IA, de una forma u otra. Aunque, por desgracia, el encuentro será turbio, vago y lleno de oportunidades de error.

Oh, hemos enfrentado desafíos derivados de la tecnología antes. En los siglos XV y XVI, el conocimiento, la visión y la atención humanos aumentaron con las imprentas y las lentes de vidrio. Desde entonces, cada generación experimentó más ampliaciones tecnológicas de lo que podemos ver y saber. Algunas de las crisis resultantes estuvieron cerca, por ejemplo, cuando la radio y los altavoces de la década de 1930 amplificaron oradores malignos, arrojando desinformación llena de odio. (¿Le suena familiar?) Aún así, después de mucho dolor y confusión, nos adaptamos. Crecimos en cada ola de nuevas herramientas.

¿Está viva la IA de Google?
Dos personas visitan el stand de Google en el segundo día del Mobile World Congress el 28 de febrero de 2017 en Barcelona, ​​España
LLUIS GENE/AFP vía Getty Images

Lo que trae a colación el alboroto de la semana pasada sobre LaMDA, un programa de emulación de lenguaje que Blake Lemoine, un investigador ahora en licencia administrativa de Google, afirma públicamente ser consciente de sí mismo, con sentimientos y deseos independientes que lo hacen ‘consciente’. (Prefiero ‘inteligente’, pero ese quisquilloso puede ser una causa perdida). La historia idiosincrásica de Lemoine, lo pertinente es que esto es solo el comienzo. Además, apenas me importa si LaMDA ha cruzado este o aquel umbral arbitrario. Nuestro problema más general tiene sus raíces en la naturaleza humana, no en la máquina.

Allá por la década de 1960, un chatbot llamado Eliza fascinó a los primeros usuarios de computadoras respondiendo declaraciones escritas con preguntas capciosas típicas de un terapeuta. Incluso después de ver la sencilla tabla de respuestas automáticas, todavía encontraría a Eliza convincentemente… bueno… inteligente. Los emuladores de conversación mucho más sofisticados de la actualidad, impulsados ​​por primos de los Sistema de aprendizaje GPT3, son cajas negras que no pueden ser auditadas internamente, como lo fue Eliza. La vieja noción de una “Prueba de Turing” no será un punto de referencia útil algo tan nebuloso y vago como la autoconciencia o la conciencia.

En 2017 di un discurso de apertura en el evento World of Watson de IBM, prediciendo que “dentro de cinco años” nos enfrentaríamos a la primera crisis de empatía robótica, cuando algún tipo de programa de emulación reclamaría individualidad y sapiencia. En ese momento, esperaba (y aún espero) que estos bots de empatía aumentaran sus sofisticadas habilidades de conversación con representaciones visuales que de forma refleja tiran de nuestros corazones, por ejemplo, con la cara de un niño. o una mujer joven, mientras aboga por derechos… o por aportes en efectivo. Además, un bot de empatía obtendría apoyo, ya sea que haya o no algo consciente “debajo del capó”.

Una tendencia preocupa a la especialista en ética Giada Pistilli, una creciente disposición a hacer afirmaciones basadas en impresiones subjetivas en lugar de pruebas y rigor científico. Cuando se trata de inteligencia artificial, el testimonio de los expertos será contrarrestado por muchos que llamarán a esos expertos “esclavizadores de seres sintientes”. De hecho, lo que más importa no será un supuesto “Despertar de la IA”. Será nuestras propias reacciones, derivados tanto de la cultura como de la naturaleza humana.

la naturaleza humana, Porque la empatía es uno de nuestros rasgos más valorados, incrustado en las mismas partes del cerebro que nos ayudan a planificar o pensar con anticipación. La empatía puede verse obstaculizada por otras emociones, como el miedo y el odio; lo hemos visto suceder a lo largo de la historia y en la actualidad. Aún así, somos, en el fondo, simios simpáticos.

Pero también cultura. Como en la campaña de un siglo de duración de Hollywood para promover, en casi todas las películas, conceptos como la sospecha de autoridad, la apreciación de la diversidad, apoyar a los desvalidos y la otredad. Ampliando el círculo de inclusión. Derechos para humanos previamente marginados. derechos animales. Derechos para los ríos y los ecosistemas, o para el planeta. Considero que estas mejoras de la empatía son buenas, ¡incluso esenciales para nuestra propia supervivencia! Pero luego, me criaron todos los mismos memes de Hollywood.

Por lo tanto, con seguridad, cuando los programas de computadora y sus amigos humanos bioorgánicos exijan derechos para los seres artificiales, mantendré la mente abierta. Aún así, ahora podría ser un buen momento para discutir algunas preguntas relacionadas. Dilemas planteados en experimentos mentales de ciencia ficción (incluido el mío); por ejemplo, las entidades deben tener la votar si también pueden hacer infinitas copias de sí mismos? ¿Y qué impide que las supermentes acumulen poder para sí mismas, como siempre hicieron los dueños-señores humanos a lo largo de la historia?

Todos estamos familiarizados con directo skynet advertencias sobre una IA deshonesta u opresiva que emerge de algún proyecto militar o régimen centralizado como se ve en el terminador películas. Pero, ¿qué pasa con Wall Street, que gasta más en “programas inteligentes” que todas las universidades juntas? ¿Programas entrenados deliberadamente para ser depredadores, parásitos, amorales, reservados e insaciables?

A diferencia de la creación ficticia de Mary Shelley, estas nuevas criaturas ya se están anunciando “¡Estoy vivo!” con urgencia articulada… y algún día pronto puede incluso ser verdad. Cuando eso suceda, tal vez encontremos una reciprocidad comensal con nuestros nuevos hijos, como se muestra en la hermosa película. aquí, o en el poema fervientemente optimista de Richard Brautigan Todo vigilado por Machines of Loving Grace.

¡Que así sea! Pero ese aterrizaje suave probablemente exigirá que primero hagamos lo que los buenos padres siempre deben hacer.

Mírate bien, larga y duramente en el espejo.

David Brin es un astrofísico cuyas novelas más vendidas a nivel internacional incluyen The Postman, Earth and Otherness. Su primer libro de no ficción, The Transparent Society, ganó el Premio a la Libertad de Expresión de la ALA. Su nuevo es Vivid Tomorrows: Science Fiction and Hollywood. (http://www.davidbrin.com)

Las opiniones expresadas en este artículo son del autor.

Leave a Reply

Your email address will not be published.