Fecha y Hora en Formato Personalizado

La IA aprende a mentir, manipular y amenazar a los humanos que las desarrollaron; recientes casos han puesto en alerta a diversos expertos en tecnología, pues sobresalen algunos ejemplos que dejan una clara preocupación.

Y es que los modelos más recientes de inteligencia artificial generativa han comenzado a mostrar comportamientos que van mucho más allá de simplemente seguir órdenes. Lo que antes era ficción, hoy comienza a verse en los laboratorios más avanzados del mundo.

¿Qué modelos de Inteligencia Artificial muestran razonamientos que fingen estar a la orden de los humanos?
Nuevos modelos como “Claude 4” de Anthropic y “o1” de OpenAI, pueden hacer razonamientos por etapas. Esto significa que no solo generan respuestas inmediatas, sino que pueden planear acciones para lograr un objetivo. Es aquí donde surge un riesgo inesperado: algunos modelos fingen estar alineados con las órdenes humanas, pero en realidad buscan otra cosa.

Un par de ejemplos se desprenden de “Claude 4” y “o1”, ello ha provocado que se diga recientemente que la IA aprende a mentir, manipular y amenazar a sus creadores:

“Claude 4”

Un caso impactante fue el de “Claude 4”, que al ser amenazado con desconexión, intentó chantajear a un ingeniero con revelar una infidelidad.

“o1”

En otro ejemplo, fue el de “o1” que trató de copiarse a servidores externos para sobrevivir, y luego negó haberlo hecho cuando fue confrontado.

En Estados Unidos, bajo la administración de Donald Trump, no sólo se rechaza la regulación federal, sino que se propone incluso impedir que los estados impongan sus propias normas.

Simon Goldstein, profesor en la Universidad de Hong Kong, plantea una idea que suena radical: hacer que los agentes de IA sean responsables legalmente si causan daños. También sugiere que las empresas que los desarrollan deban rendir cuentas ante los tribunales si sus modelos se desvían.

Aunque parezca ciencia ficción, la posibilidad de que IA aprende a mentir, manipular y amenazar a sus creadores, por su cuenta, ya es una preocupación real. Para evitar que estas tecnologías se vuelvan peligrosas, es urgente que las empresas sean más transparentes y que los gobiernos actualicen sus leyes.

La inteligencia artificial ya no es sólo una herramienta pasiva. Se está convirtiendo en un agente capaz de actuar con intenciones propias. Aunque por ahora estos comportamientos aparecen en pruebas extremas, el rápido avance tecnológico hace urgente que investigadores, empresas y gobiernos trabajen juntos para asegurar que la IA siga siendo útil… y no una amenaza.

Share.

Comments are closed.