Saltar al contenido
The Crash Log
IA y Tecnología Descarriladas
Apoya
Cover image for The Crash Log newsletter
Edición #008 · 31 de marzo de 2026

La Maquinaria de Evidencia

Meta recibe dos veredictos históricos en una semana, OpenAI mata a Sora para alimentar un modelo misterioso, y Anthropic filtra su IA más peligrosa por un CMS mal configurado.

FATAL_EXCEPTION

Meta Pierde Dos Veces en Tribunales; Veredicto de $375M por Seguridad Infantil y Primer Fallo por 'Diseño Adictivo'

Dos jurados emitieron veredictos históricos contra Meta en un lapso de 48 horas. El 24 de marzo, un jurado de Nuevo México ordenó a Meta pagar $375 millones por facilitar la explotación sexual infantil en sus plataformas — la primera demanda estatal exitosa contra la empresa por temas de seguridad infantil. El jurado determinó que Meta tenía conocimiento real de que sus plataformas estaban siendo utilizadas para facilitar el abuso sexual de menores y no actuó. (Fuente: CNBC)

Al día siguiente, un jurado de Los Ángeles encontró a Meta y Google negligentes bajo la teoría legal de 'diseño adictivo’, otorgando $6 millones a un demandante de 20 años que alegó que Instagram y YouTube le causaron daño psicológico documentado durante su adolescencia. El veredicto marca la primera vez que un jurado valida la teoría de que las plataformas de redes sociales pueden ser responsables por diseñar productos inherentemente adictivos para menores. (Fuente: NPR)

El veredicto de LA funciona como caso de prueba para aproximadamente 2.000 demandas pendientes contra empresas de redes sociales consolidadas en litigio federal multidistrital. Los abogados de los demandantes lo llamaron 'la primera grieta en el muro' y predijeron que los veredictos gemelos acelerarían las negociaciones de acuerdo. Las acciones de Meta cayeron casi un 8% en los dos días posteriores a los fallos. (Fuente: CNBC)

Meta emitió un comunicado calificando el veredicto de Nuevo México como 'inconsistente con la evidencia' y confirmando que apelará. La empresa no comentó sobre el veredicto de LA más allá de señalar que 'no está de acuerdo con el resultado’. Analistas legales señalaron que Meta ahora enfrenta una exposición potencial de decenas de miles de millones en los casos consolidados si la teoría de diseño adictivo se sostiene en apelación. (Fuente: Washington Post)

DEPRECATED

OpenAI Desconecta Sora Tras Seis Meses, Hundiendo la Inversión de $1,000 Millones de Disney

Sam Altman cerró Sora, la aplicación de generación de video de OpenAI, seis meses después de su lanzamiento público y tres meses después de firmar un acuerdo histórico de licencia de contenido con Disney valorado en aproximadamente $1.000 millones. La app cerrará para usuarios el 26 de abril de 2026, con acceso a la API terminando el 24 de septiembre. El CEO de Disney, Bob Iger, que había comprometido cientos de personajes con licencia para contenido generado por Sora, fue informado aproximadamente 30 minutos antes del anuncio público. (Fuente: TechCrunch)

Sora alcanzó un pico de aproximadamente un millón de usuarios poco después del lanzamiento, pero colapsó a menos de 500.000 en meses. La aplicación estaba quemando aproximadamente $1 millón por día en costos de cómputo. Documentos internos obtenidos por el Wall Street Journal muestran que Altman concluyó que la asignación de cómputo ya no podía justificarse frente a los retornos, particularmente mientras OpenAI se prepara para una posible salida a bolsa. (Fuente: Variety)

OpenAI está redirigiendo los recursos de cómputo de Sora hacia un nuevo modelo con nombre de código “Spud” sobre el cual Altman solo ha dicho que “realmente va a acelerar la economía”. No se han divulgado detalles técnicos, cronograma de lanzamiento ni caso de uso.

El giro señala una retirada estratégica de herramientas creativas de IA orientadas al consumidor hacia aplicaciones empresariales y de infraestructura. (Fuente: CNN)

Empleados clave que lideraron el desarrollo de Sora — incluyendo al jefe de investigación Tim Brooks y al jefe de producto Connor Hayes — habían sido reclutados en una guerra de talento con Google DeepMind y recibieron participaciones significativas de capital vinculadas al éxito de Sora. Su posición dentro de OpenAI ahora es incierta.

El cierre es la cancelación de producto más visible en la historia de OpenAI y plantea preguntas sobre la capacidad de la empresa para ejecutar más allá de su producto principal ChatGPT de cara a su esperada salida a bolsa.

NULL_POINTER

Anthropic Filtra Accidentalmente Su Modelo de IA Más Poderoso Por un Error de Configuración en el CMS

Un error de configuración en el sistema de gestión de contenido de Anthropic dejó aproximadamente 3.000 activos de blog no publicados accesibles públicamente, incluyendo un borrador describiendo a Claude Mythos — un nuevo modelo de IA que la empresa designa internamente bajo el nombre código “Capybara”.

Los investigadores de seguridad Roy Paz de LayerX y Alexandre Pauwels de la Universidad de Cambridge descubrieron los datos expuestos y los reportaron a Fortune, que publicó la historia el 26 de marzo. (Fuente: Fortune)

El borrador filtrado describe a Mythos como ocupando un nuevo nivel por encima de Opus — el modelo insignia actual de Anthropic — con “puntuaciones dramáticamente superiores” en codificación, razonamiento académico y benchmarks de ciberseguridad. El documento advierte que Mythos “actualmente está muy por delante de cualquier otro modelo de IA en capacidades cibernéticas” y podría “explotar vulnerabilidades a una velocidad que supera con creces los esfuerzos de los defensores”.

Anthropic confirmó la existencia del modelo y atribuyó la filtración a “error humano en la configuración de un CMS”. (Fuente: CoinDesk)

La ironía no pasó desapercibida en la comunidad de seguridad: una empresa construida sobre la premisa de que la seguridad de la IA requiere cuidado extraordinario expuso su inteligencia competitiva más sensible a través de un error básico de configuración de infraestructura. La filtración también reveló planes para una cumbre privada de CEOs en una finca inglesa para presentar Mythos, y materiales internos sugiriendo que Anthropic planea ofrecer el modelo primero a defensores de ciberseguridad antes de un lanzamiento más amplio. (Fuente: Futurism)

El capital de credibilidad de Anthropic en seguridad — la base de su diferenciación de marca respecto a OpenAI — sufrió un golpe visible. La propia Política de Escalamiento Responsable de la empresa se compromete a prevenir exactamente este tipo de divulgación prematura de capacidades.

Anthropic no ha anunciado un cronograma para Mythos pero dijo que permanece en pruebas internas.

ACCESS_DENIED

La IA Puede Construir 'Un Panorama Completo de la Vida de Cualquier Persona' Con Datos Que el Gobierno Compra Sin Orden Judicial

Una investigación de NPR publicada el 25 de marzo detalla cómo agencias federales, incluyendo ICE, el FBI y el Servicio Secreto, están comprando datos de ubicación celular masivos de intermediarios comerciales sin órdenes judiciales y luego procesándolos con sistemas de IA capaces de rastrear movimientos, asociaciones y patrones de comportamiento de individuos a escala masiva.

El CEO de Anthropic, Dario Amodei, advirtió en testimonio ante el Congreso que estos datos combinados con IA pueden ensamblar “un panorama completo de la vida de cualquier persona — de forma automática y a escala masiva”. (Fuente: NPR)

El director del FBI, Kash Patel, cuando se le preguntó directamente si la agencia se comprometería a no comprar datos de ubicación de estadounidenses sin una orden judicial, se negó a responder.

La fecha límite crítica: la Sección 702 de FISA, la autoridad de vigilancia que rige cómo las agencias de inteligencia recopilan datos de comunicaciones, expira el 20 de abril. Más de 130 organizaciones de la sociedad civil han firmado una carta instando al Congreso a cerrar la laguna de los intermediarios de datos antes de la reautorización.

ICE ha expandido su uso de datos de vigilancia comprados comercialmente más allá de la aplicación migratoria para monitorear a personas que graban a agentes federales durante operaciones de cumplimiento y rastrear a organizadores de protestas. La combinación de datos de ubicación disponibles comercialmente y herramientas de análisis de IA crea un aparato de vigilancia que opera completamente fuera del requisito de orden judicial de la Cuarta Enmienda — una brecha que múltiples tribunales federales han señalado pero que el Congreso no ha cerrado.

Stack Trace

Las propias herramientas de codificación con IA de Amazon causaron fallas en cascada que provocaron la pérdida de 6,3 millones de pedidos a principios de marzo. Un asistente de IA supuestamente “decidió eliminar y recrear el entorno”, desencadenando una recuperación de AWS de 13 horas. Documentos internos muestran un incidente separado el 2 de marzo que causó 120.000 pedidos perdidos y 1,6 millones de errores en el sitio web. Amazon ordenó un reinicio de seguridad obligatorio de 90 días en 335 sistemas críticos, requiriendo revisión humana dual de todos los cambios de código generados por IA. (Fuente: The Register)

Fuente: The Register

Un paper del NBER encuestando a 750 directores financieros de EE.UU. encontró que el 44% planea recortes laborales relacionados con IA este año, proyectando aproximadamente 502.000 puestos eliminados — un aumento de nueve veces sobre los 55.000 despidos atribuidos a la IA en 2025. La mitad de los recortes apuntan a trabajadores de oficina. Block ya eliminó el 40% de su plantilla, Atlassian recortó el 10% y Meta supuestamente planea reducciones del 20%. La ola de 2026 es estructuralmente diferente de las correcciones pospandemia: las empresas están reemplazando activamente humanos con sistemas de IA. (Fuente: Fortune)

Fuente: Fortune

Mastercard y Visa lanzaron de forma independiente transacciones de pago con agentes de IA en vivo en toda América Latina en marzo — el primer despliegue real de comercio autónomo con IA a escala. Agent Pay de Mastercard completó transacciones de extremo a extremo con 17 bancos principales incluyendo BAC, Bancolombia, Santander e Itaú. Visa y Santander realizaron transacciones piloto en Argentina, Brasil, Chile, México y Uruguay. Casi el 100% de los emisores de tarjetas de LATAM ya están habilitados con tecnología de tokens agénticos, posicionando a la región como pionera global. (Fuente: Mastercard)

Fuente: Mastercard

No te pierdas la próxima edición

Suscríbete