Últimas Noticias

Un Gigante de la IA abandona Google, por temor a una Distopia Próxima

Un Gigante de la IA abandona Google, por temor a una Distopia Próxima


 

Geoffrey Hinton dijo que una parte de él ahora lamenta el trabajo de su vida en redes neuronales, que en 2018 le valió el premio Turing, considerado el premio Nobel de la informática. Entre sus antiguos alumnos se encuentran Yann LeCun, ganador del premio Turing, e Ilya Sutskever, cofundador y científico jefe de OpenAI.

¿Qué ha cambiado?

Hinton citó la nueva generación de grandes modelos lingüísticos, especialmente GPT-4 de Open AI del año pasado, que le ha hecho darse cuenta de lo inteligentes que pueden llegar a ser las máquinas. “Mira cómo era hace cinco años y cómo es ahora. Coge la diferencia y propágala hacia delante. Eso da miedo”.

“La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas… algunas personas lo creían”, dijo Hinton al Times. “Pero la mayoría de la gente pensaba que estaba muy lejos. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”.

Hinton había pensado que Google era un “buen administrador” de la IA, cuidadoso con cualquier lanzamiento que pudiera causar daño, hasta que Microsoft empezó a centrarse en su negocio principal de búsquedas incorporando la GPT-4 a Bing. Esto llevó a Google a desplegar la IA más rápidamente en una competición que podría ser “imposible de detener”, dijo.

¿Los deepfakes inundarán Internet?

En particular, Hinton no firmó la carta abierta del Future of Life Institute, que pedía una pausa de 6 meses en el desarrollo de IA más potente que la GPT-4 hasta que haya más guardarraíles. Dijo que no quería criticar públicamente a Google ni a otras empresas hasta que hubiera dimitido.

Hasta la fecha, la carta ha recibido más de 27.500 firmas, entre ellas las de Elon Musk, Steve Wozniak, cofundador de Apple, y Yoshua Bengio, que compartió el premio Turing con Hinton y LeCun. (LeCun no firmó la carta, tuiteando que no estaba de acuerdo con la premisa).

La preocupación inmediata de Hinton es que Internet se llene de deepfakes de tal manera que el ciudadano de a pie “ya no sea capaz de saber qué es verdad”.

En el futuro, considera que el riesgo más fundamental proviene de que los sistemas de IA generen y ejecuten código por sí mismos, actuando así de forma autónoma de maneras que podrían ser perjudiciales para la sociedad.

A medida que las máquinas se entrenen, podrían mostrar comportamientos inesperados e incluso perjudiciales. Por ejemplo, se teme que una máquina entrenada para maximizar recompensas pueda impedir que la gente la apague si se da cuenta de que puede obtener más recompensas permaneciendo encendida, aunque perjudique a los humanos.

Mientras que otros expertos en IA creen que esta amenaza existencial de la IA es hipotética, Hinton piensa que la carrera mundial de la IA entre Microsoft, Google y otros se intensificará sin obstáculos si no hay regulación. Pero regular la IA puede ser complicado si las empresas y las naciones quieren trabajar en ella en secreto, ya que no es rastreable, a diferencia de las armas nucleares.

Por eso, la mejor manera de avanzar es que los mejores científicos del mundo ideen formas de controlar la IA, afirma Hinton.

No es ciencia ficción: “Estas cosas son totalmente diferentes a nosotros”, afirmó Hinton en otra entrevista con MIT Technology Review. “A veces pienso que es como si los extraterrestres hubieran aterrizado y la gente no se hubiera dado cuenta porque hablan muy bien inglés”.

Hinton dijo que los grandes modelos lingüísticos (LLM) tienen enormes redes neuronales con un gran número de conexiones. Pero siguen siendo minúsculos en comparación con el cerebro humano, que tiene 100 billones de conexiones. Los LLM tienen hoy hasta un billón, como mucho. “Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Así que quizá tenga un algoritmo de aprendizaje mucho mejor que el nuestro”, afirma.

Durante mucho tiempo se pensó que las redes neuronales aprendían mal en comparación con el cerebro humano, que puede captar nuevas ideas y habilidades con rapidez. Pero eso cambió con estos grandes modelos lingüísticos. En el “aprendizaje de pocos disparos”, estos LLM preentrenados pueden entrenarse para una tarea con sólo unos pocos ejemplos.

Si comparamos este LLM con la velocidad de un ser humano, la ventaja de éste desaparece, afirma Hinton.

¿Qué hay de la tendencia de los LLM a alucinar, o a generar ficción o errores en sus respuestas, no es eso una debilidad? Hinton afirma que esta confabulación es una característica, no un fallo. “La confabulación es una característica de la memoria humana. Estos modelos hacen algo igual que las personas”.

Hinton cree que el siguiente paso de estas máquinas inteligentes es la capacidad de crear sus propios subobjetivos, o pasos intermedios necesarios para llevar a cabo una tarea. Ya hay proyectos experimentales como AutoGPT y BabyAGI que pueden enlazar chatbots con otros programas para encadenar tareas sencillas, y podría avanzarse a partir de ahí. En las manos equivocadas, esta capacidad podría ser mortal.

“De repente he cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros. Creo que ahora están muy cerca de serlo y que en el futuro serán mucho más inteligentes que nosotros”, afirma Hinton. “¿Cómo sobreviviremos a eso?”.

LeCun no comparte la misma visión pesimista. Por el contrario, el científico jefe de IA en Meta declaró a MIT Technology Review que las máquinas inteligentes marcarán el comienzo de “un nuevo renacimiento para la humanidad, una nueva era de iluminación”. Estoy completamente en desacuerdo con la idea de que las máquinas dominarán a los humanos simplemente porque son más inteligentes, y mucho menos destruirán a los humanos”.

Incluso entre los humanos, los más inteligentes no son los más dominantes, señaló LeCun. “Y los más dominantes no son los más inteligentes. Tenemos numerosos ejemplos de ello en la política y los negocios”.

Bengio, profesor de informática en la Universidad de Montreal (Canadá), tiene una opinión más neutral.

“Oigo a gente que denigra estos temores, pero no veo ningún argumento sólido que me convenza de que no existen riesgos de la magnitud de los que piensa Geoff (Hinton)”, declaró a la revista. Pero preocuparse en exceso no sirve de mucho. “El miedo excesivo puede ser paralizante, así que deberíamos intentar mantener los debates en un nivel racional”.

 

Fuente de Información: IOT WORLD TODAY (2023, Mayo) Google AI Giant Leaves Company, Fearing a Coming Dystopia https://www.iotworldtoday.com/metaverse/a-giant-in-ai-leaves-google-fearing-a-coming-dystopia?_mc=NL_DR_EDT__20230503&cid=NL_DR_EDT__20230503&utm_source=eloqua&utm_medium=email&utm_campaign=IOT_News_IoTWorldToday_NL_05032023&sp_cid=1126&utm_content=IOT_News_IoTWorldToday_NL_05032023&sp_rid=532003&sp_aid=1551&sp_eh=c0fb93b4c75052fe3e01a5e84c13b4a133120ce1057014674b494bbf9f242aa1