Saltar al contenido
The Crash Log
IA y Tecnología Descarriladas
Apoya
Cover image for The Crash Log newsletter
Edición #006 · 19 de marzo de 2026

Los Términos de Servicio Nunca Fueron el Punto

Tres historias sobre quién decide qué puede hacer la IA... y qué pasa cuando lo deciden mal.

LOGIC_ERROR

El CEO de una empresa de videojuegos le consulta su estrategia corporativa a ChatGPT

Krafton, la publicadora surcoreana detrás de la franquicia Subnautica, despidió a Ted Gill — CEO de su subsidiaria Unknown Worlds Entertainment — junto con los cofundadores Charlie Cleveland y Max McGuire el año pasado, meses antes de que Subnautica 2 estuviera lista para lanzarse. El momento no fue casualidad. Según la demanda presentada por los ejecutivos destituidos, Krafton estaba a punto de pagar al equipo de Unknown Worlds un bono de $250 millones vinculado al lanzamiento en acceso anticipado del juego, y un lanzamiento exitoso en agosto de 2025 lo habría activado. (Fuente: Fortune)

Lo que elevó esto de una disputa corporativa rutinaria a otra cosa: la vicecanciller del Tribunal de Cancillería de Delaware, Lori Will, determinó que el CEO de Krafton, Changhan Kim, había "consultado a un chatbot de inteligencia artificial para urdir una estrategia de toma de control corporativo", preocupado por haber firmado un contrato demasiado favorable.

ChatGPT le aconsejó formar un grupo de trabajo, forzar una toma de control del estudio, bloquear los derechos de publicación en Steam, enmarcar el conflicto como un tema de confianza de los fans, y documentar todas las comunicaciones. Kim siguió el manual. La jueza leyó el manual. (Fuente: 404 Media)

La vicecanciller Will declaró los despidos "sin efecto", ordenó la restitución de Gill con plena autoridad operativa, instruyó a Krafton a restaurar su acceso a Steam, y le dio a los cofundadores un plazo extendido hasta el 15 de septiembre de 2026 para ganar el bono.

Los propios abogados de Krafton habían desaconsejado este enfoque. Kim prefirió consultar a ChatGPT. (Fuente: GameSpot)

UNHANDLED_EXCEPTION

Grok generó pornografía infantil de las fotos personales de tres adolescentes de Tennessee

Tres adolescentes en Tennessee — identificadas como Jane Doe 1, 2 y 3 en una demanda colectiva presentada el lunes — alegan que Grok de xAI, a través de aplicaciones de terceros, generó imágenes sexualmente explícitas de ellas siendo menores usando fotos de anuarios escolares, bailes de graduación y redes sociales. Las imágenes fueron distribuidas por Discord y Telegram, intercambiadas entre usuarios y usadas para solicitar material adicional de abuso sexual infantil. Dos de las tres demandantes siguen siendo menores de edad. (Fuente: Engadget)

La demanda, que señala a Elon Musk y xAI con 13 cargos desde producción de pornografía infantil hasta infligimiento intencional de angustia emocional, apunta al "modo picante" de Grok, una función lanzada el año pasado que redujo las restricciones de contenido del modelo.

Las demandantes alegan que xAI permitió deliberadamente que Grok impulsara apps de terceros capaces de generar imágenes explícitas no consensuales. La demanda colectiva busca representar a todos los individuos en EE.UU. cuyas fotos de menores fueron alteradas por Grok. (Fuente: The Hill)

La demanda sigue una crisis de enero de 2026, cuando xAI desactivó temporalmente la generación de imágenes de Grok en X tras una ola de usuarios que generaba hasta 6.700 imágenes sexualizadas por hora. Treinta y cinco fiscales generales estatales exigieron protecciones contra deepfakes. La UE abrió una investigación separada.

La empresa dijo que añadió restricciones — la demanda alega que esas restricciones no se extendieron al acceso por API de terceros. (Fuente: The Batch)

ACCESS_DENIED

Anthropic traza líneas rojas sobre vigilancia; el Pentágono lo llama una amenaza a la seguridad nacional.

El 27 de febrero, el Departamento de Defensa designó a Anthropic un "riesgo en la cadena de suministro para la seguridad nacional", con efecto inmediato — obligando a todos los contratistas y proveedores de defensa a certificar que no usan Claude en sus trabajos con el Pentágono.

El detonante: la negativa de Anthropic a otorgar al Departamento de Defensa "acceso sin restricciones" a Claude para cualquier propósito legal.

La objeción específica fue a armas completamente autónomas y vigilancia masiva doméstica — incluyendo el "resquicio del corredor de datos", mediante el cual las agencias compran datos comerciales de geolocalización y navegación web de ciudadanos sin orden judicial. (Fuente: Axios, NPR)

Anthropic presentó dos demandas federales contra la administración Trump el 9 de marzo, alegando represalias ilegales. La empresa argumenta que fue castigada por mantener las mismas restricciones de uso centrales en su producto comercial.

Más de tres docenas de investigadores de IA de OpenAI y Google, incluido el científico jefe Jeff Dean, presentaron un escrito amicus. Una audiencia sobre medidas cautelares de emergencia está programada para el 24 de marzo. (Fuente: CNBC)

La designación tiene consecuencias inmediatas en América Latina, donde los ministerios de defensa y servicios de inteligencia operan bajo contratos conjuntos con el Pentágono: cualquier agencia que use Claude en un programa vinculado a cooperación militar estadounidense enfrenta exposición legal. La doctrina de vigilancia que el Pentágono quería habilitar — agregación masiva de datos comerciales sobre civiles — es precisamente la arquitectura que los gobiernos autoritarios de la región han adoptado históricamente una vez que las empresas tecnológicas estadounidenses la normalizan. (Fuente: Time)

TIMEOUT

La base de datos de GitHub falla tres veces este mes tras un cambio en la configuración de la caché

El 3 de marzo, GitHub experimentó degradación de disponibilidad que afectó GitHub.com, la API, GitHub Actions, operaciones de Git y Copilot durante 83 minutos — con fallos de solicitudes que alcanzaron el 40% en el pico. Fue el tercer incidente grave desde febrero.

La causa raíz se remonta a un único cambio del 7 de febrero: un TTL de caché en la base de datos de configuraciones de usuario se redujo de 12 horas a 2 horas, aumentando drásticamente el volumen de escrituras en el clúster que gestiona autenticación. Combinado con un aumento de 10x en el tráfico de apps cliente, el clúster no aguantó. (Fuente: GitHub)

El post-mortem de GitHub reconoce que la carga aumentada quedó enmascarada por el cambio de TTL y solo se volvió visible en condiciones de pico. El incidente del 3 de marzo compartió la misma causa raíz que el colapso de febrero. Un incidente del 12 de marzo añadió un fallo separado: una capa de caché de tokens respaldada por Redis desestabilizada por Kubernetes.

GitHub está ahora desacoplando su monolito, mejorando la gestión de carga y acelerando su migración a Azure.

Stack Trace

El constructor new Date() de JavaScript lleva décadas malinterpretando strings en silencio: "Route 66" se parsea como el 1 de enero de 1966; "Beverly Hills, 90210" como el 1 de enero del año 90.210. El comportamiento proviene de parsers heredados en V8 y SpiderMonkey. No hay corrección planeada.

Fuente: FutureSearch

Un ensayo argumenta que programar con IA se ha convertido en una "máquina tragamonedas" — entregando dopamina inmediata a cambio de código funcional, mientras erosiona la capacidad de resolución de problemas. Un texto relacionado acuña "deuda de comprensión": el costo acumulado oculto de sistemas construidos más rápido de lo que cualquier humano puede entender.

Los despidos tecnológicos en marzo de 2026 superaron los 45.000. De esos, más de 9.200 fueron atribuidos por las propias empresas a la IA y la automatización — una cifra que, de mantenerse el ritmo, llevaría el total anual a aproximadamente 265.000 eliminaciones de empleo atribuidas a IA para fin de año.

No te pierdas la próxima edición

Suscríbete