Alerta sobre el uso de la IA: “la gente no sabe lo que se viene”, Geoffrey Hinton, padre de la IA y Nobel de Física

El científico británico llamó a gobiernos y compañías a definir regulaciones claras sobre inteligencia artificial, advirtiendo que sin consensos técnicos rigurosos, el desarrollo de la IA podría avanzar sin control

Guardar
Geoffrey Hinton, pionero de la
Geoffrey Hinton, pionero de la inteligencia artificial, advirtió que el desarrollo actual de la tecnología podría escapar al control humano si no se refuerzan las medidas de seguridad y regulación - REUTERS/Mark Blinch/File Photo

Geoffrey Hinton, pionero en el desarrollo de la inteligencia artificial y reconocido con el Nobel de Física, ha lanzado una de las advertencias más contundentes de los últimos años sobre el rumbo de esta tecnología.

En una entrevista reciente con la cadena CBS, Hinton comparó el crecimiento de la IA con criar un cachorro de tigre, en apariencia inofensivo al principio, pero con un potencial peligroso a medida que crece. “La gente no sabe lo que se viene”, afirmó, con un tono que deja poco margen para la ambigüedad.

Hinton, una figura clave en el campo del aprendizaje profundo y uno de los científicos que sentaron las bases técnicas para el funcionamiento de modelos como ChatGPT o Gemini, ha centrado sus críticas en dos frentes principales: la falta de regulación en el desarrollo de la IA y la creciente presión comercial que guía a las grandes compañías tecnológicas.

El científico británico llamó a
El científico británico llamó a gobiernos y compañías a definir regulaciones claras sobre inteligencia artificial, advirtiendo que sin consensos técnicos rigurosos, el desarrollo de la IA podría avanzar sin control - (Imagen Ilustrativa Infobae)

La IA podrá superar al humano

Según sus estimaciones, existe entre un 10% y un 20% de probabilidad de que la inteligencia artificial evolucione hasta un punto en el que escape al control humano. Aunque estas cifras pueden parecer especulativas, coinciden con advertencias previas de otros referentes del sector, como Elon Musk.

Para Hinton, el ritmo de desarrollo actual es tan acelerado que ya no se puede descartar un escenario en el que sistemas autónomos tomen decisiones sin supervisión.

No se trata de una visión apocalíptica gratuita. Hinton subraya que no basta con seguir perfeccionando modelos más potentes: “hay que invertir de forma urgente en hacerlos más seguros”.

El Nobel de Física del 2024 sugirió que las empresas tecnológicas asignen al menos un tercio de su capacidad de cómputo a la investigación en seguridad de IA. Es decir, no solo avanzar, sino hacerlo con precaución.

Geoffrey Hinton, ganador del Nobel
Geoffrey Hinton, ganador del Nobel de Física y pionero del aprendizaje profundo, advirtió que la inteligencia artificial podría volverse incontrolable si no se priorizan medidas de seguridad y regulación global - Christine Olsson/TT News Agency/via REUTERS

El rol de las grandes tecnológicas y el giro de OpenAI

En sus declaraciones más recientes, Hinton también ha cuestionado el rumbo que han tomado algunas de las compañías más influyentes del sector. Acusó directamente a Google, su antiguo empleador, de haber abandonado su política de no colaborar con proyectos militares que involucren inteligencia artificial.

Esta decisión, a su juicio, combina de forma peligrosa intereses comerciales, falta de regulación y usos bélicos.

Uno de los temas que más ha motivado su preocupación es el caso de OpenAI. A través de mensajes publicados en la red social X, el investigador criticó la transformación de la organización en una empresa con ánimo de lucro. Según Hinton, esta maniobra contradice la misión original de OpenAI, que consistía en desarrollar inteligencia artificial segura y accesible con fines benéficos.

Reconocido con el Nobel por
Reconocido con el Nobel por su aporte a la ciencia computacional, Hinton cuestionó el rumbo comercial de la IA y alertó sobre los riesgos de delegar su desarrollo a intereses empresariales sin control efectivo - (Imagen ilustrativa Infobae)

Detrás de este cambio no hay solo una cuestión administrativa. Lo que está en juego, según explica, es el control sobre una tecnología que puede redefinir sectores enteros de la sociedad. La entrada de grandes inversores como Microsoft y SoftBank en el ecosistema de OpenAI ha incrementado la presión por generar beneficios a corto plazo, lo que a su entender puede desplazar el interés por la seguridad y el bien común.

A pesar de la gravedad de sus advertencias, Hinton no descartó el potencial positivo de la inteligencia artificial. Reconoció que puede ser una herramienta valiosa en la educación, la medicina o la lucha contra el cambio climático. Pero insiste en que ese potencial no debe servir como excusa para ignorar los riesgos.

El mensaje de fondo que transmite es claro: si la comunidad científica, los gobiernos y las empresas no actúan con responsabilidad, la inteligencia artificial puede evolucionar sin frenos hacia escenarios difíciles de revertir.

“La gente no sabe lo que se viene”, señaló Hinton, no como amenaza, sino como un llamado urgente a tomar conciencia. Porque en este campo, la imprevisión puede tener consecuencias que ni los propios creadores pueden anticipar.