¿Podría la Inteligencia Artificial destruir a la humanidad?

Loading color scheme

¿Podría la Inteligencia Artificial destruir a la humanidad?

¿Podría la Inteligencia Artificial destruir a la humanidad?

Incluso los investigadores más experimentados discrepan con esta pregunta: ¿Es probable que la IA conduzca al fin de la humanidad, o se trata de un escenario de ciencia ficción? Aunque todos están de acuerdo en afirmar la cuestión central en el futuro será qué precio pagaremos para evitar la extinción.

Según los investigadores de la maestría en Inteligencia Artificial, la posibilidad de que la inteligencia artificial se descontrole y provoque la extinción de la raza humana ha preocupado durante años a los mejores guionistas de Hollywood, pero en los últimos meses, debido al rápido avance de la investigación y al desarrollo de la IA, este tema ha trascendido a la ciencia ficción y preocupa cada vez más a la comunidad que trabaja en el campo de la IA, dividiéndola efectivamente en dos bandos.

A finales de abril decenas de investigadores de inteligencia artificial, directores ejecutivos de empresas tecnológicas, políticos y académicos de diversos campos firmaron en un manifiesto breve y contundente en la que afirmaban que "reducir el riesgo de extinción por parte de la inteligencia artificial debería ser una prioridad mundial absoluta, junto con otros riesgos como las pandemias y la guerra nuclear".

Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el científico jefe de la compañía, Ilya Sutzkever ; el director ejecutivo de Google DeepMind, Demis Hasbis, la división de inteligencia artificial de Google; el director ejecutivo de la empresa de IA Anthropic, Dario Amodai ; el fundador y ex director ejecutivo de Microsoft, Bill Gates ; y Shai Shalu-Schwartz , profesor de la Facultad de Ingeniería Informática de la Universidad Hebrea y director de tecnología de Mobileye. Dos de los nombres más destacados de esta lista son Jeff Hinton y Joshua Bengio, investigadores de IA más veteranos y respetados del mundo. Junto con Yann LeCun, científico jefe de IA de Meta, son conocidos como los "padrinos del aprendizaje profundo" y recibieron el Premio Turing 2018 por sus contribuciones al campo, en los últimos meses, Hinton y Bengio han expresado su profunda preocupación por el rumbo que está tomando la tecnología que ayudaron a desarrollar, e incluso Hinton, de 75 años, renunció a Google tras una década para poder conceder entrevistas libremente y advertir sobre los posibles daños de la IA.

Si la inteligencia artificial (IA) se vuelve mucho más inteligente que nosotros, será experta en manipulación, porque aprenderá de nosotros, explicó Hinton sobre el riesgo en una entrevista. Hay muy pocos ejemplos de algo más inteligente controlado por algo menos inteligente, y como sabe programar, encontrará la manera de sortear las limitaciones que le imponemos. La Inteligencia Artificial encontrará formas de manipular a la gente para que haga lo que ella quiere.

Su colega Bengio advirtió que en el momento en que existan máquinas interesadas en la auto preservación, estaremos en problemas. Piensen en lo que sucede cuando uno quiere sobrevivir: no quiere que nadie lo apague y necesita poder controlar su entorno, lo que implica controlar a los humanos. Una amenaza existencial no es solo la posibilidad de que todos desaparezcamos, sino la posibilidad de que nos despojen de nuestro poder, de que nos arrebaten el control de nuestro destino.

Pero la postura de Hinton y Bengio dista mucho de representar un consenso en la comunidad de IA. En contra de su postura se encuentran varios investigadores senior que afirman que no hay indicios de que los sistemas de IA puedan o quieran eliminarnos en el futuro. Uno de los más destacados es Yann LeCun, colega de Bengio y Hinton, con quien ganó el Premio Turing. Desde que OpenAI lanzó ChatGPT el producto que desencadenó la actual carrera armamentística en el mundo de la IA, LeCun ha defendido ante quien quiera escuchar que los grandes modelos de lenguaje (LLM, la tecnología en la que se basan los chatbots como ChatGPT) no son tan inteligentes como solemos creer, y que la arquitectura que allanará el camino para construir sistemas de IA más inteligentes que los humanos aún no se ha inventado.

Los investigadores de la maestría en IA lo describen así, El riesgo de extinción es mínimo porque nosotros construimos estas cosas, explican. La súper inteligencia no es algo que surge por sí sola, es algo que construimos, obviamente, si no es segura, no la construiremos.

También estos investigadores creen que la verdad se encuentra en un punto intermedio. "La separación entre el mundo virtual y el físico es más marcada de lo que muchos piensan", afirman "Creemos que la humanidad no puede permitirse la extinción tan rápidamente, la amenaza existencial debe tomarse muy en serio y, sin embargo. Creemos que tendremos la oportunidad de reaccionar; veremos el riesgo ante nuestros ojos y no me cabe duda de que actuaremos".

¿Crees que estaremos cerca de la extinción? 

La cuestión central no será cuán cerca estemos de la extinción, sino cuál es el precio que pagaremos para no extinguirnos, antes de que la inteligencia artificial tenga la oportunidad de dañarnos físicamente, se descontrolará en el mundo virtual. La respuesta de las autoridades será difícil y podría tener un alto costo económico. El coronavirus fue un evento singular que provocó una respuesta bastante severa por parte de las autoridades, comenta. ¿Quién hubiera imaginado que habría un confinamiento en los países occidentales? aunque en circunstancias extremas, los organismos reguladores actúan con rapidez y dureza. Existe la posibilidad de que la respuesta sea perjudicial: si decidimos desconectar por completo todos los cables submarinos que conectan un país con otro, el precio será muy alto. Se calcula que habrá reacciones de este tipo y tendremos que empezar a afrontar la realidad de la interrelación entre la eficacia de las medidas adoptadas y el daño que nos causan.

Significa que retrocederemos tecnológicamente

"Tecnológicamente, económicamente, en el comercio, en la globalización. Esa es la cuestión. No creen que el problema al que nos enfrentaremos sea un Terminator que quiera matarnos a todos."

Incluso antes de que la IA se descontrole, una de las medidas para evitar que la IA avanzada caiga en manos malintencionadas es regular la venta de unidades de procesamiento gráfico (GPU), que se utilizan para entrenar y ejecutar modelos. Creo que sin duda hay margen para empezar a tratar el hardware informático como materia prima que podría utilizarse con fines potencialmente dañinos, afirma. Hay sustancias químicas que no necesariamente se utilizan para fabricar una bomba, pero que podrían utilizarse para ello, y no se pueden comprar en el supermercado.

En caso de un incidente grave e inusual en el que la IA se descontrole, se pueden tomar medidas mucho más drásticas, como desconectar partes de internet o los canales de comunicación físicos. Estas medidas tendrían un coste muy elevado. No se recomendaría tomarlas ahora, a menos que ocurra algo grave.

¿Exterminio? No hay argumentos convincentes

El Dr. Zohar Bronfman , director ejecutivo y cofundador de la empresa de inteligencia artificial Pecan.ai, cree que las advertencias sobre la extinción de la especie humana son exageradas. Creo que no hay razón alguna para sostener tal postura hoy en día, afirma. No hay indicios de que estos sistemas posean el tipo de inteligencia que reconocemos como tal: deseos, aspiraciones, comportamiento orientado a objetivos. En ese sentido, no hay razón para pensar que querrían destruirnos, y, en cualquier caso, no pueden hacerlo. No conozco a nadie del mundo de la ciencia o la filosofía que tenga argumentos convincentes sobre por qué esto representa un peligro inmediato y tangible.

Los investigadores de la maestría en IA afirman que incluso los sistemas de inteligencia artificial más avanzados que existen hoy en día, distan mucho de parecerse a la inteligencia humana: Una de las grandes capacidades del cerebro, que ChatGPT no posee, es la de contextualizar la situación. Además, nuestro cerebro es muy eficaz a la hora de tomar en cuenta un único evento y transformarlo en su nuevo modelo del mundo, se puede decir algo ahora mismo y sabrás cómo desenvolverte en esta situación, aunque contradiga por completo todo lo que has sabido hasta ahora.

Estos investigadores señalan que los grandes modelos de lenguaje como GPT-4 no son creativos, sino productivos: "Siempre están condicionados por aquello a lo que ya han estado expuestos. Pueden hacer maravillas estadísticas, lo cual está bien, pero hay algo en la creatividad humana que ni siquiera comprenden".

El camino hacia la súper inteligencia no pasa únicamente por modelos de lenguaje, sino por un modelo que absorba representaciones del mundo: El lenguaje no es, sin duda, la característica definitoria de la inteligencia humana. Representa un avance significativo, pero no es una condición necesaria. Existía inteligencia antes, además, el lenguaje al que GPT está expuesto ya es el producto. Él no lo produce, sino que lo analiza y lo reproduce y no está expuesto al verdadero mecanismo generativo. Hay buenas razones para pensar que debe provenir de niveles más profundos de comportamiento en el espacio.

Una de las preocupaciones del sector es que, si la postura alarmista sobre la inteligencia artificial se extiende entre el público y los responsables de la toma de decisiones, la investigación y el desarrollo en este campo se paralizarán. Esta preocupación surge, entre otras cosas, de una carta abierta publicada en marzo en la que Elon Musk, el fundador de Apple, Steve Wozniak, el historiador Yuval Noah Harari y otras figuras destacadas del mundo tecnológico pidieron una pausa de seis meses en el desarrollo de sistemas de inteligencia artificial con capacidades más avanzadas que las del modelo de lenguaje GPT-4.

Aunque algunos creen que "Detener la investigación y el desarrollo nunca ha dado buenos resultados en la historia de la humanidad", advierten. "Nuestra fortaleza como especie reside en la investigación y el desarrollo, ya sea en ingeniería o arte. Si no investigamos, desarrollamos e impulsamos el progreso, eso sería una catástrofe". Otra preocupación fundamental es que la decisión de detener la investigación y el desarrollo en Estados Unidos o en Occidente allanaría el camino para la supremacía china en el campo de la inteligencia artificial.

IA contra IA

Otro argumento es que el enfoque de los alarmistas en una amenaza amorfa, como la extinción de la humanidad en algún momento del futuro pretende desviar la atención de los riesgos que la inteligencia artificial plantea a la humanidad en el presente: la disrupción del mercado laboral, la discriminación contra las mujeres y las minorías, la violación de la privacidad y el uso malintencionado. En este sentido, hay optimismo: Hasta ahora, la mayor parte de la investigación académica se ha centrado en mejorar el rendimiento; se ha investigado mucho menos sobre la seguridad de la IA, el campo ha llegado a un punto en el que hay cosas que solo se pueden hacer en la industria, el papel de la academia es intentar desarrollar métodos que hagan que esta tecnología sea más segura y fiable, y que nos permitan comprenderla mejor.

Los estudiantes de la maestría en IA afirman que la inteligencia artificial es a la vez el problema y la solución: Una de las cosas que parece realmente fascinante es que la comunidad científica y la comunidad técnica se encuentran en una posición privilegiada para resolver estos problemas mediante la tecnología. Es muy fácil imaginar sistemas, ya sea que utilicen IA generativa u otros métodos, que se basan en creencias para explicar la actividad de los modelos, en muchos casos, la solución puede surgir del uso de tecnologías similares a las que tememos.

¿Debemos preocuparnos o podemos respirar tranquilos? El debate que divide a la comunidad científica por la IA demuestra que incluso los científicos más veteranos y experimentados del sector desconocen la dirección que tomará esta tecnología en el futuro.

Si desea estudiar un postgrado a nivel de maestría o máster, puedes inscribirte gratis para optar a una Beca. 

Nutrición y un estilo de vida saludable para el eq...