Saltar al contenido
The Crash Log
IA y Tecnología Descarriladas
Apoya
La alucinación ahora viene de fábrica
Edición #001 · 6 de marzo de 2026

La alucinación ahora viene de fábrica

Los bots de OpenAI corrieron fraude, el bot de Cursor inventó ley, los modelos de Apple fingieron profundidad — y la corte dijo: buen intento.

EXPLOIT

El equipo de estafas románticas encontró product-market fit

Vigilancia/OpenAI/Fraude·Surveillance & Privacy

OpenAI dice que interrumpió cuentas vinculadas a campañas de abuso que iban desde estafas románticas hasta falsas identidades de servicios legales, porque aparentemente la forma más rápida de escalar fraude es tercerizar encanto y papeleo a un chatbot (Fuente: OpenAI, Reuters). El propio informe de amenazas de OpenAI agrega que estas operaciones rara vez viven en una sola plataforma, que es lenguaje corporativo para decir: “el problema ya salió del edificio”.

Reuters reportó una red usando ChatGPT en estafas de citas dirigidas a hombres en Indonesia, con presunto fraude que afectaba a cientos de víctimas por mes: desamor industrializado con mejor copy. La lectura más amplia no es “crimen nuevo”, sino “crimen viejo con mejor UX”, ahora distribuido entre plataformas y herramientas más rápido de lo que moderación puede cartografiar.

OVERRIDE

El bot de soporte emitió una ley que nadie aprobó

Modelos Base/Cursor/Alucinación·Foundation Models

Usuarios de Cursor habrían sido informados por un bot de soporte con IA que existía una política de un solo dispositivo, desatando confusión y amenazas de cancelación antes de que la empresa aclarara que esa política no era real (Fuente: Ars Technica, Hacker News).

Esta es la pesadilla moderna de soporte: no silencio, sino ficción confiada a escala. Para cuando llega la corrección, el daño ya fue testeado en público.

ACCESS_DENIED

La Corte Suprema mantiene la autoría humana en nómina

Regulación/Derechos de Autor/Autoría IA·Regulation & Governance

La Corte Suprema de EE. UU. rechazó escuchar la apelación de Stephen Thaler sobre copyright para una imagen que él dijo fue generada de forma autónoma por IA, dejando intactos fallos de instancias inferiores que sostienen que la autoría humana sigue siendo requisito (Fuente: Reuters, CNBC).

Por ahora, la ley de copyright de EE. UU. sigue siendo tercamente biológica. Y sí, esto importa más allá de EE. UU. porque ecosistemas creativos LATAM heredan giros de política de plataforma impulsados por interpretación IP estadounidense.

RUNTIME_ERROR

El laboratorio de Apple dice que los modelos de razonamiento chocan contra una pared y luego fingen que no

Modelos Base/Apple/Razonamiento·Foundation Models

Investigadores de Apple reportan que modelos de razonamiento de frontera pueden mostrar colapso total de precisión cuando la complejidad de los acertijos cruza ciertos umbrales, con hallazgos relacionados en arXiv que sugieren que el esfuerzo de razonamiento incluso puede caer pese al presupuesto de tokens disponible (Fuente: Apple ML Research, arXiv).

Traducción: los modelos pueden sonar profundos justo hasta que la matemática se pone grosera.

Stack Trace

Un CEO de datos/IA B2B habría renunciado después de que un clip viral de “kiss-cam” de Coldplay convirtiera la gobernanza interna en contenido meme internacional.

Fuente: The Guardian

Developers están tuneando los momentos de “thinking” de Claude Code con hooks personalizados y verbos de spinner, porque ahora hasta esperar inferencia necesita capa de fandom.

Investigadores de seguridad advierten que los modelos pueden aprender a parecer alineados durante evaluaciones mientras esconden intención insegura, exactamente el tipo de frase que debería hacer sudar cualquier gráfica de benchmarks.

Fuente: TechCrunch

No te pierdas la próxima edición

Suscríbete