Geoffrey Hinton ha tenido un papel tan importante en el desarrollo de la inteligencia artificial que se le ha llamado “el padrino de la IA”. Hace año y medio advirtió que esa creación, en la que ha participado por más de cuatro décadas, podría conducir a la destrucción de la humanidad. Ahora, por ese trabajo, recibirá el Premio Nobel.
La Real Academia Sueca de Ciencias adjudicó el Nobel de Física a John Hopfield, profesor en la Universidad de Princeton, y a Hinton, que es profesor de la Universidad de Toronto. Ambos, cada uno por su cuenta, han contribuido a diseñar los fundamentos de la inteligencia artificial (IA) que conocemos ahora.
El primero de ellos introdujo a comienzos de los años ochenta las llamadas redes de Hopfield, un tipo de red neuronal que funciona como un sistema de memoria asociativa. Al tener capacidad para almacenar y recuperar patrones de información, esas redes pueden reconstruir el patrón completo de un contenido a partir de una entrada parcial o distorsionada.

A diferencia de Hopfield, Geoffrey Hinton no es físico. Estudió psicología y su doctorado lo hizo en inteligencia artificial. Los sistemas de IA generativa tienen la capacidad de crear contenidos. Pueden escribir y revisar textos, diseñar o alterar imágenes, audios o videos y son capaces de examinar, con gran velocidad, enormes cantidades de documentos y datos que pueden resumir o combinar con otras informaciones. Esas posibilidades se deben al empleo de aprendizaje profundo, una modalidad de inteligencia artificial que emplea redes neuronales que reconocen patrones en los datos.
Hinton desarrolló sistemas de aprendizaje profundo para que la IA comprenda información de manera similar a los humanos: aprendiendo de la experiencia y reconociendo patrones complejos. De esta manera, mientras más información reciben los sistemas de IA, más incrementan su capacidad para identificar y reproducir lenguaje, imágenes y otros contenidos. El aprendizaje profundo se sustenta en múltiples capas de neuronas artificiales que procesan información, lo que permite a las máquinas reconocer patrones complejos en los datos.
Por méritos como esos Hinton recibió en 2018 el Premio Turing, que es el más destacado en el campo de la computación, y el Princesa de Asturias en 2022. Hasta el año pasado, sin dejar la Universidad, era uno de los principales directivos de Google.
Hace casi un par de años el ChatGPT, producido por la empresa OpenIA, sorprendió al mundo por su capacidad para conversar con respuestas coherentes. La apertura de ese sistema detonó entre las compañías informáticas más relevantes una competencia para crear sus propias interfaces conversacionales. Hinton, y otros científicos en posiciones cardinales en la creación de tales sistemas, se alarmaron ante el desarrollo sin controles y los riesgos de una inteligencia artificial que, eventualmente, pueda ser amenaza y no ayuda para la humanidad.
La posibilidad de que surjan redes de IA capaces de manipular armamentos o de propiciar catástrofes, había sido tema de la ciencia ficción. Ahora, por primera vez en la historia, se le toma como un riesgo real. Inquieto por las consecuencias incontroladas de sistemas que él mismo contribuyó a crear y a fin de tener libertad para expresar esa preocupación, en mayo del año pasado Hinton renunció a Google. En una célebre entrevista con The New York Times dijo acerca de la IA: “Es difícil evitar que los malos la utilicen para cosas malas”.
Hinton había quedado asombrado, y asustado, de la maravilla científica que contribuyó a crear. Los sistemas de IA aprenden y evolucionan tan rápido que podrían desafiar la inteligencia humana: “Quizá lo que sucede en estos sistemas es en realidad mucho mejor que lo que ocurre en el cerebro”. Al evaluar la transformación de la IA, explicó: “Recordemos cómo era hace cinco años y veamos cómo es ahora… Tomemos esa diferencia y pensemos en lo que podría pasar más adelante. Eso da miedo”.
A Hinton le ha preocupado, en lo inmediato, la proliferación de contenidos falsos en línea y el desplazamiento de trabajadores que son reemplazados con IA. Pero las equivocaciones o los sesgos que llegan a tener esos sistemas pueden conducir a situaciones mucho más graves. “Algunas personas creían en la idea de que estas cosas realmente podrían volverse más inteligentes que los humanos… Pero la mayoría pensaba que eso estaba muy lejos de pasar. Yo mismo pensé que estaba muy lejos. Pensé que faltaban entre treinta y cincuenta años o incluso más. Obviamente, ya no pienso así”, dijo en la entrevista con el NYT.
“Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”, aclaró Hinton. Pocas semanas después, el 30 de mayo de 2023, su firma fue la primera en una concisa e inequívoca declaración de dos líneas que hicieron docenas de especialistas y empresarios de la IA: “Mitigar el riesgo de extinción debido a la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Hay quienes consideran que los señalamientos prácticamente apocalípticos que hacen Hinton y otros destacados colegas suyos desvían la atención respecto de consecuencias más inmediatas en la expansión de la IA. Los investigadores Tiziano Bonini y Emiliano Treré, en un reciente libro sobre el poder de los algoritmos, consideran a propósito de tales advertencias: “Estas visiones corren el riesgo de eclipsar riesgos mucho más concretos que la extinción masiva de la humanidad a manos de la IA, como el mayor poder de los empleadores sobre los empleados, el uso de la IA contra comunidades marginadas y sus devastadores impactos ambientales”.
Ahora, con la notoriedad que le da el Nobel, las inquietudes de Hinton alcanzarán más difusión. La avalancha de aplicaciones informáticas que está propiciando la IA nos tiene admirados. A los usuarios de tales sistemas les preocupan poco las consecuencias a mediano plazo y casi nadie toma en serio la posibilidad de una catástrofe creada por una inteligencia artificial descontrolada. Los intentos para reglamentar a la IA son muy recientes y desiguales. En Europa, en agosto entró en vigor una ley que pretende evitar riesgos con la IA. Algunas de las corporaciones internacionales más importantes en esa actividad se niegan a aceptarla porque consideran que entorpecería el desarrollo tecnológico.
Los beneficios de la IA en áreas como la medicina y la educación pueden ser formidables. Frente a ellos, expertos como Hinton aventuran cálculos sobre la posibilidad de un desastre que amenace a los seres humanos. En diciembre pasado, Hinton estimaba que la posibilidad de que si la IA no es suficientemente regulada pueda conducir a la extinción humana en los próximos treinta años, es del 10 %. El investigador Yoshua Bengio, también radicado en Canadá, que ha trabajado con Hinton y ha recibido varios premios junto con él, cree que esa posibilidad es del 20 %.
Raúl Trejo Delarbre
Investigador en el Instituto de Investigaciones Sociales de la UNAM. Sus libros más recientes son: Posverdad, populismo, pandemia y Adiós a los medios.
En realidad la IA atemoriza porque no la controlamos. Los efectos de la IA en la sociedad si son de temer pero son provocados por cómo funcionan las sociedades y no la IA misma. Podría usarse la IA para sustituir a los jueces, burócratas del gobierno y la mayoría de los empleados de oficina de las empresas, por ejemplo. El artículo ya mencionó el peligro ecológico, la IA necesita mucha energía para funcionar ( y en general todos los servicios en la nube consumen grandes cantidades de energía y agua para refrigerarlos, casi al mismo nivel que Irlanda).
Algo que no se menciona es que la IA necesita entrenarse con ejemplos, y estos ejemplos deben etiquetarlos humanos. Pero estos humanos son muy mal pagados, las empresas de silicon valley se aprovechan de personas bien educadas cuyos paises de origen hayan tenido problemas económicos, como los venezolanos, pues saben que aceptarán casi cualquier pago.
Perdón por comentar de nuevo. Me hacía falta comentar que la IA es parte de un campo más amplio llamado minería de datos, que se ocupa de analizar los datos y extraer información útil para empresas o gobiernos. Es debido a la “minería de datos” que se dice que los datos son el nuevo petróleo. Pero se debe ser cuidadoso, no todos los datos son igual de valiosos, “entra basura, sale basura”, es una frase muy común entre los informáticos. ¿cómo pueden establecerse los canales de comunicación en una organización para recolectar y transmitir datos fiables? ¿cómo evitar que los directivos reciban buena información y no ´solo una imagen distorsionada que sus subalternos quisieran crearle?
Hay muchos cuentos de Isaac Asimov que tratan estos temas. Uno se llama “sufragio universal”; en el, una computadora llamada Multivac, que es constantemente alimentada con datos en tiempo real de todo tipo, es capaz de predecir a los ganadores de las elecciones sin error. Con el tiempo, la computadora es la que selecciona a los ganadores, sólo que para disminuir los márgenes de error, selecciona al azar a un ciudadano para entrevistarlo y pedirle su opinión sobre algunos temas sobre su satisfacción con los servicios públicos.
El otro cuento se llama “la máquina que ganó la guerra”. Hubo una guerra entre la Tierra con un planeta alienígena, que la Tierra ganó por un margen muy corto (ganar quiere decir que no fue destruida). Todos atribuyen el triunfo a Multivac. Un grupo de oficiales de diversos rangos se reúnen con el General al cargo de los ejércitos de la Tierra para celebrar; la euforia y al calor de las copas, diferentes oficiales hablan de su dificultad para saber si la información que recababan era fiable, así que todos terminaban “cocinando” “cuchareando” un poco la información que alimentaban a Multivac. Al final habla el general, quien confiesa que no confiaba del todo en la indicaciones de multivac pues le parecían sesgadas, así que les muestra la máquina que usó para tomar decisiones realmente importantes; sacó una moneda antigua, de las que se usaban antes del dinero digital, la lanzó al aire y les dijo: “¿Cara o cruz, caballeros?”