La lucha por una ideología
HogarHogar > Blog > La lucha por una ideología "peligrosa" que da forma al debate sobre la IA

La lucha por una ideología "peligrosa" que da forma al debate sobre la IA

Feb 15, 2024

París (AFP) – La filosofía favorita de Silicon Valley, el largoplacismo, ha ayudado a encuadrar el debate sobre la inteligencia artificial en torno a la idea de la extinción humana.

Emitido el: 28/08/2023 - 11:13

Pero los críticos cada vez más acérrimos advierten que la filosofía es peligrosa y que la obsesión por la extinción distrae la atención de los problemas reales asociados con la IA, como el robo de datos y los algoritmos sesgados.

El autor Emile Torres, un antiguo partidario de largo plazo convertido en crítico del movimiento, dijo a la AFP que la filosofía se basaba en el tipo de principios utilizados en el pasado para justificar los asesinatos en masa y el genocidio.

Sin embargo, el movimiento y las ideologías vinculadas como el transhumanismo y el altruismo efectivo tienen una gran influencia en las universidades desde Oxford hasta Stanford y en todo el sector tecnológico.

Capitalistas de riesgo como Peter Thiel y Marc Andreessen han invertido en empresas de extensión de vida y otros proyectos favoritos vinculados al movimiento.

Elon Musk y Sam Altman de OpenAI firmaron cartas abiertas advirtiendo que la IA podría extinguir a la humanidad, aunque se beneficiarán argumentando que sólo sus productos pueden salvarnos.

En última instancia, los críticos dicen que este movimiento marginal tiene demasiada influencia en los debates públicos sobre el futuro de la humanidad.

Los partidarios del largo plazo creen que tenemos el deber de intentar producir los mejores resultados para el mayor número de seres humanos.

Esto no es diferente para muchos liberales del siglo XIX, pero los partidarios del largo plazo tienen en mente un cronograma mucho más largo.

Miran hacia el futuro lejano y ven billones y billones de humanos flotando en el espacio, colonizando nuevos mundos.

Argumentan que tenemos el mismo deber hacia cada uno de estos humanos futuros que hacia cualquiera que esté vivo hoy.

Y como son tantos, pesan mucho más que los ejemplares actuales.

Este tipo de pensamiento hace que la ideología sea "realmente peligrosa", afirmó Torres, autor de "Human Extinction: A History of the Science and Ethics of Annihilation".

"Cada vez que tienes una visión utópica del futuro marcada por cantidades casi infinitas de valor, y la combinas con una especie de modo utilitario de pensamiento moral donde los fines pueden justificar los medios, va a ser peligroso", dijo Torres.

Si una máquina superinteligente pudiera estar a punto de cobrar vida con el potencial de destruir a la humanidad, los partidarios del largo plazo están obligados a oponerse a ella sin importar las consecuencias.

Cuando un usuario de Twitter, la plataforma ahora conocida como X, preguntó en marzo cuántas personas podrían morir para evitar que esto sucediera, el idealólogo de largo plazo Eliezer Yudkowsky respondió que sólo se necesita suficiente gente "para formar una población reproductiva viable".

"Mientras eso sea cierto, todavía existe la posibilidad de alcanzar las estrellas algún día", escribió, aunque luego borró el mensaje.

El longtermismo surgió del trabajo realizado por el filósofo sueco Nick Bostrom en las décadas de 1990 y 2000 en torno al riesgo existencial y el transhumanismo: la idea de que los humanos pueden mejorar mediante la tecnología.

El académico Timnit Gebru ha señalado que el transhumanismo estuvo vinculado a la eugenesia desde el principio.

El biólogo británico Julian Huxley, que acuñó el término transhumanismo, también fue presidente de la Sociedad Británica de Eugenesia en las décadas de 1950 y 1960.

"El longtermismo es eugenesia con un nombre diferente", escribió Gebru en X el año pasado.

Bostrom ha enfrentado durante mucho tiempo acusaciones de apoyar la eugenesia después de que enumeró como un riesgo existencial las "presiones disgénicas", esencialmente personas menos inteligentes que procrean más rápido que sus pares más inteligentes.

El filósofo, que dirige el Instituto del Futuro de la Humanidad de la Universidad de Oxford, se disculpó en enero tras admitir que había escrito mensajes racistas en un foro de Internet en los años 1990.

"¿Apoyo la eugenesia? No, no como se entiende comúnmente el término", escribió en su disculpa, señalando que había sido utilizado para justificar "algunas de las atrocidades más horribles del siglo pasado".

A pesar de estos problemas, los partidarios de largo plazo como Yudkowsky, un desertor de la escuela secundaria conocido por escribir fanfiction de Harry Potter y promover el poliamor, siguen siendo elogiados.

Altman le atribuye el mérito de haber conseguido financiación para OpenAI y sugirió en febrero que merecía un premio Nobel de la paz.

Pero Gebru, Torres y muchos otros están tratando de volver a centrarse en daños como el robo de obras de artistas, los prejuicios y la concentración de la riqueza en manos de unas pocas corporaciones.

Torres, que usa el pronombre ellos, dijo que si bien había verdaderos creyentes como Yudkowsky, gran parte del debate sobre la extinción estaba motivado por las ganancias.

"Hablar de la extinción humana, de un auténtico acontecimiento apocalíptico en el que todo el mundo muere, es mucho más sensacionalista y cautivador que el salario de 1,32 dólares la hora por parte de trabajadores kenianos, o la explotación de artistas y escritores", dijeron.

© 2023 AFP