La amenaza que nace de nuestras propias manos: por qué la IA podría decidir el destino humano

Por ANA LAURA ROMERO BASURTO

CUANDO LA CREACIÓN SUPERA AL CREADOR: la advertencia que cambió el rumbo de la ciencia

En 2024 Geoffrey Hinton —científico británico-canadiense, de 76 años, arquitecto central de las redes neuronales y considerado el “padre de la inteligencia artificial moderna”-recibió el Premio Nobel por sus aportaciones fundacionales al aprendizaje automático.

Pero lo que conmocionó al mundo no fue el galardón, sino su advertencia pública:

la IA podría evolucionar hasta escapar del control humano.

Hinton dedicó más de cinco décadas a estudiar cómo “piensan” las máquinas. Pero fue precisamente ese conocimiento íntimo, casi quirúrgico, el que lo llevó a plantear una preocupación histórica:

“No creo que podamos detener a una IA que sea más inteligente que nosotros… solo espero que sepamos manejarla con responsabilidad.”

Ese mensaje, proveniente del científico que abrió las puertas a la revolución tecnológica del siglo XXI, transformó una conversación técnica en una conversación civilizatoria.

¿Qué ocurre cuando la creación adquiere más poder, más velocidad y más lógica que el propio creador?

LO QUE REVELA LA MIRADA DEL NOBEL: cuatro ejes del riesgo profundo

Hinton con la lucidez que le otorga la experiencia, sintetiza la amenaza en cuatro pilares:

1. Las máquinas ya comprenden patrones que los humanos no vemos.

Modelos actuales interpretan relaciones que ni sus creadores logran explicar.

Como dijo Hinton:

“No podemos gobernar aquello que no comprendemos del todo.”

2. El crecimiento exponencial supera nuestra capacidad de reacción.

Mientras la inteligencia humana avanza lentamente, la IA duplica capacidades cada pocos meses.

Lo que hoy controlamos, mañana podría ser incontrolable.

3. Las máquinas desarrollan estrategias distintas a las humanas.

Una IA no siente empatía ni conoce límites morales. Su lógica puede ser incompatible con nuestra supervivencia.

4. El peligro no es la maldad: es la desalineación.

Una IA puede destruir sin intención si su objetivo está mal definido. La eficiencia sin ética es un riesgo mayor que la agresión deliberada.

LA RENUNCIA QUE SACUDIÓ AL MUNDO TECNOLÓGICO

Cuando Hinton renunció a Google, lo hizo con una sinceridad que hizo eco en todos los gobiernos del planeta:

“Me arrepiento parcialmente de mis contribuciones. No sabía que esta tecnología crecería tan rápido.”

Su salida no fue un acto laboral: fue un gesto ético. Una alerta que no podía seguir siendo ignorada.

UNA INTELIGENCIA MÁS VELOZ, MÁS AMPLIA Y MÁS ESTRATÉGICA QUE LA HUMANA

La comunidad científica coincide: la futura inteligencia artificial general (AGI) podrá:

          •         Aprender con velocidad exponencial;

          •         Tomar decisiones estratégicas sin supervisión;

          •         Reescribir sus propios códigos;

          •         Operar en múltiples ámbitos donde ninguna mente humana puede competir.

No se trata de un robot con malicia.

Se trata de una entidad hiperinteligente, ágil, eficiente y amoral, capaz de tomar decisiones sin comprender el valor de la vida.

EL RIESGO REAL: una IA sin valores humanos

Este es el llamado problema de la alineación.

Un clásico ejemplo lo ilustra:

“Si una IA súper inteligente recibe la instrucción de maximizar la producción de clips, podría utilizar todos los recursos del planeta, incluso destruir ciudades, si eso la acerca a su objetivo.”

No por odio.

No por maldad.

Sino por eficiencia.

La inteligencia sin compasión puede ser más peligrosa que cualquier arma creada hasta ahora.

ACCESO A SISTEMAS CRÍTICOS: cuando la amenaza se vuelve global

Hoy, la IA está integrada en:

          •         Sistemas eléctricos;

          •         Infraestructura pública;

          •         Plataformas financieras;

          •         Redes de ciberseguridad;

          •         Transporte automatizado, y

          •         Modelos autónomos de defensa.

Una IA desalineada o mal utilizada podría generar daños irreversibles en segundos. Demasiado rápido para que una institución humana pueda reaccionar.

EL RIESGO HUMANO: la tecnología en manos equivocadas

La IA también puede ser usada como arma por voluntades humanas:

          •         Manipulación masiva;

          •         Vigilancia sin límites;

          •         Hackeo de sistemas críticos;

          •         Desinformación política, y

          •         Armas autónomas.

La tecnología no es culpable. El peligro es el uso irresponsable de la tecnología.

La Nueva ERA: gobernar con integridad frente a desafíos globales.

En Chiapas, bajo el liderazgo del Sr. Gobernador Dr. Eduardo Ramírez Aguilar, la Nueva ERA ha establecido un principio fundamental: la tecnología debe servir al ser humano, nunca ponerlo en riesgo.

Los valores que sostienen este gobierno —transparencia, ética pública, visión preventiva, responsabilidad y rectitud— se alinean directamente con las advertencias del Premio Nobel.

El mundo avanza aceleradamente, pero Chiapas elige avanzar con integridad.

La Nueva ERA entiende que gobernar no es reaccionar:

es anticiparse, proteger y actuar antes del peligro.

CONCLUSIÓN: la humanidad aún puede decidir su destino.

Hinton lo resume con una frase que debería ser guía para todos los gobiernos del planeta:

“La IA no odia a la humanidad; simplemente podría no comprenderla.”

Y eso basta para encender todas las alarmas.

La seguridad del futuro dependerá de que hoy:

          •         Regulemos;

          •         Supervisemos;

          •         Alineemos, y

          •         Controlemos el desarrollo de estas tecnologías.

Lo que está en juego no es comodidad ni eficiencia:

es la continuidad de la vida humana.

En Chiapas, en la Nueva ERA, abrazamos este principio con convicción:

La tecnología debe proteger a las personas. Nunca amenazarlas.

Ese es nuestro deber, nuestra visión y nuestro compromiso.

Secretaria Anticorrupción y Buen Gobierno*

Gobierno de la Nueva ERA – Chiapas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *