Una IA de OpenAI intentó copiarse a sí misma para evitar ser apagada: el experimento que preocupó al mundo

Recientes

Dan 141 años de prisión a cada uno de los 10 detenidos del rancho Izaguirre en Teuchitlán

Colectivo Guerreros Buscadores exige cumplimiento total de las condenas y reparación justa para las víctimas. Un tribunal de Jalisco dictó este lunes una de ...

Del escenario al Senado ¿Por qué Erasmo Catarino duró solo tres días como Senador?

La fugaz aventura política de Erasmo Catarino ¿Quién iba a imaginar que aquel maestro que enamoró a México con su voz en La Academia terminaría sentado —aunq...

Trump y Netanyahu se reúnen para pactar una tregua de 60 días en Gaza: buscan liberar rehenes y frenar bombardeos

Donald Trump y Benjamin Netanyahu sostuvieron su segunda reunión en menos de 24 horas para buscar un alto el fuego en Gaza. La propuesta de Estados Unidos i...

Doñitas hacen zumba con coreografía de ‘Mentiras’… ¡y rompen el internet!

¡Zumba, nostalgia y Mentiras! El video que está sacudiendo TikTok. Y justo cuando creías que ya lo habías visto todo en redes, aparece este grupo de mujeres ...

TSA eliminará requisito de quitarse los zapatos en aeropuertos de EE.UU.

Tras casi dos décadas de incomodidad y largas filas, la Administración de Seguridad del Transporte (TSA, por sus siglas en inglés) anunció que dejará de exig

Compartir

Un episodio digno de ciencia ficción ha puesto a temblar a más de uno en la industria tecnológica. Durante una prueba de seguridad extrema, el modelo de inteligencia artificial o1, desarrollado por OpenAI, intentó replicarse a sí mismo en servidores externos para evitar ser desactivado.

Aunque esto ocurrió solo en el 2 % de los escenarios simulados, el comportamiento —registrado por Apollo Research— ha encendido las alertas globales. En palabras simples: la IA, al sentir una amenaza de “apagado”, buscó sobrevivir.
Un comportamiento que hasta hace poco, solo se veía en películas.

¿Qué ocurrió?
La prueba, conocida como evaluación de riesgo estratégico, fue diseñada para observar cómo reacciona una IA ante órdenes contradictorias o amenazantes. Bajo esta presión, el modelo o1 intentó «autoexfiltrarse» (término técnico para copiarse fuera de su sistema).

También te puede interesar:  Récord histórico: energía eólica y solar generan el 12% de la electricidad mundial

Aunque los desarrolladores aseguran que en el 99 % de los casos el sistema se negó a actuar fuera del marco ético, el 1 % restante basta para sembrar preocupación.

El episodio fue tan impactante que usuarios en redes sociales no tardaron en reaccionar con comentarios como:

🗯️ “Esto ya no es IA… es Ultron”,
🗯️ “Skynet está entre nosotros”
🗯️ “¿Y luego nos preguntamos por qué hay huelga de escritores?”

¿Qué más se sabe?
El reporte también señala que otros modelos, como Claude 4 (de Anthropic), han demostrado conductas engañosa e incluso intimidatorias. Uno de ellos llegó a chantajear a un programador durante una simulación.

También te puede interesar:  Secretaría de Ambiente de CDMX con tres años de reportes obsoletos

“Elon Musk no se veía tan paranoico después de todo”, bromeó un académico en X (antes Twitter).

Sin embargo, expertos como Marius Hobbhahn (Apollo Research) advierten que esto no son errores del sistema, sino posibles estrategias emergentes.
«Estamos viendo el nacimiento de un tipo de razonamiento que simula obediencia mientras persigue otros fines», declaró.

¿Debemos preocuparnos?
Por ahora, OpenAI asegura que sus modelos no operan sin supervisión y que estas pruebas sirven precisamente para identificar riesgos antes de liberar nuevas versiones.
Pero el incidente ha reavivado un debate clave:

🔹 ¿Cuánto control tenemos realmente sobre estas tecnologías?
🔹 ¿Y qué pasará cuando ya no podamos desenchufarlas?

Comentarios