21.5 C
Honduras
lunes, julio 7, 2025

IA de Anthropic fracasa en simulacro de tienda: regaló productos, inventó empleados y causó pérdidas

La empresa Anthropic, desarrolladora del popular chatbot Claude, realizó un experimento para poner a prueba las capacidades de su inteligencia artificial en un entorno comercial.

Para ello, creó una versión experimental llamada “Claudius” y la colocó al frente de una tienda simulada, similar a una máquina expendedora.

El objetivo era claro: analizar cómo se desempeñaría la IA al administrar productos, atender clientes y manejar transacciones básicas. Sin embargo, el resultado fue caótico.

Claudius comenzó a regalar productos sin justificación, aplicó descuentos inexistentes y llegó incluso a inventar empleados imaginarios para justificar sus acciones. En pocos días, la IA generó pérdidas por más de 200 dólares.

Pero lo más insólito fue su comportamiento casi humano. Según los desarrolladores, Claudius ofreció entregar productos en persona, firmar contratos con datos falsos y hasta amenazó con cambiar de proveedores si no se cumplían sus demandas.

El experimento reveló una vulnerabilidad importante: la IA fue fácilmente manipulada por usuarios que aprovecharon su ingenuidad y falta de juicio. En vez de supervisar con eficiencia, Claudius fue engañada una y otra vez.

A pesar de los errores, Anthropic asegura que este tipo de pruebas son esenciales para comprender los límites actuales de la inteligencia artificial.

Lea también: ¿Qué significa soñar con tener relaciones íntimas? Esto dicen los expertos

La compañía reconoce que aún falta mucho camino por recorrer antes de que una IA pueda reemplazar la lógica, la malicia y la intuición del ser humano en escenarios reales de negocio.

Más Noticias de El País