Saltar al contenido
The Crash Log
IA y Tecnología Descarriladas
Apoya
Cover image for The Crash Log newsletter
Edición #013 · 8 de abril de 2026

La partida llamada nómina

Ring convierte cada timbre en una base de datos de rostros y los pilotos de policía predictiva en Brasil apuntan sus modelos a los barrios que ya sobrevigilan.

ACCESS_DENIED

Amazon convierte cada timbre Ring en una base de datos de rostros

Ring de Amazon empezó a desplegar Familiar Faces, una función de reconocimiento facial impulsada por IA que permite a los dueños de timbres armar un catálogo de hasta 50 rostros —familia, amigos, vecinos, repartidores, trabajadoras del hogar— y recibir alertas push cuando esas personas se acerquen a la puerta. El procesamiento biométrico ocurre en la nube de Amazon, no en el dispositivo, y la función ya está activa para usuarios opt-in en la mayor parte de Estados Unidos (Fuente: TechCrunch).

Las leyes estatales de privacidad biométrica ya han abierto huecos en el despliegue. Familiar Faces está bloqueada en Illinois, Texas y Portland (Oregón), donde la ley exige consentimiento explícito antes de recolectar identificadores biométricos. La política de privacidad de Amazon aplica solo al dueño del dispositivo; el repartidor, la niña que vende galletas y el vecino que pasea su perro no tienen aviso, ni consentimiento, ni manera de optar por no ser catalogados (Fuente: Biometric Update).

El senador Ed Markey (D-Mass.) le envió al CEO de Amazon, Andy Jassy, una carta el 11 de febrero exigiendo que la empresa elimine la función, escribiendo que Ring "inadvertidamente reveló los serios riesgos de privacidad y libertades civiles asociados a este tipo de tecnologías de reconocimiento de imágenes habilitadas por inteligencia artificial" y advirtiendo que los timbres ahora pueden "recolectar información biométrica de cualquier persona dentro de su rango de video — sin el consentimiento del individuo y, a menudo, sin su conocimiento" (Fuente: Office of Senator Ed Markey).

Ring mantiene más de 400 acuerdos para compartir datos con departamentos de policía. La nueva capacidad convierte millones de porches privados en nodos de una red descentralizada de reconocimiento facial sin reglas federales que gobiernen lo que Amazon —o las fuerzas del orden— puedan hacer con los datos.

NULL_POINTER

Brasil pilotea policía predictiva en ciudades donde el 64% de los prisioneros son negros

Las policías estatales de varias regiones de Brasil están desplegando pilotos de pronóstico del crimen que combinan aprendizaje automático con bases de datos históricas para predecir adónde enviar a los oficiales. Los programas ya están activos en Río de Janeiro, Fortaleza y Santa Catarina, y un piloto en Belo Horizonte que usa un sistema japonés llamado Crime Nabi se expandió tras reducir el robo de cables en obras de construcción. São Paulo sigue operando dos sistemas más antiguos, InfoCrime y Detecta, que alimentan la misma cadena de predicción (Fuente: Americas Quarterly).

La matemática detrás de estos sistemas es circular. Los datos de criminalidad brasileños reflejan dónde la policía ha patrullado históricamente, y vastas franjas de barrios de bajos ingresos sufren "apagones de información" donde no hay oficiales presentes y no se registran delitos. Mete esa asimetría en un modelo de predicción y el modelo recomienda más vigilancia de los mismos barrios que ya se vigilan, y luego interpreta los arrestos resultantes como confirmación de que sus pronósticos eran correctos (Fuente: Instituto Igarapé).

La demografía vuelve concretas las consecuencias. Los brasileños negros son el 64% de la población carcelaria. Los sistemas comerciales de reconocimiento facial todavía registran tasas de error de hasta 34,7% para mujeres negras frente a 0,8% para hombres blancos, según el trabajo de referencia de la investigadora del MIT Joy Buolamwini.

El proyecto federal de ley de IA de Brasil prohibiría nominalmente la policía predictiva como "riesgo excesivo”, pero los pilotos ya corren bajo autoridad estatal mientras la ley sigue sin aprobarse (Fuente: Americas Quarterly).

DEPRECATED

UE ya puede multar a empresas de modelos fundacionales con el 3% de sus ingresos globales por mala documentación

Las obligaciones de la Ley de IA de la UE para los modelos de IA de propósito general entran en vigor el 2 de agosto de 2026, dándole a la Oficina de IA de la Comisión Europea la autoridad para pedir información a los proveedores de modelos fundacionales, evaluar sus sistemas y multar a los infractores con hasta el 3% de la facturación global anual o 15 millones de euros, lo que sea mayor. La sanción aplica incluso a modelos que no estén clasificados como de alto riesgo: las fallas de documentación y transparencia por sí solas alcanzan para activarla (Fuente: EU Artificial Intelligence Act).

Los proveedores que firmaron el Código de Buenas Prácticas de GPAI, finalizado en julio de 2025, obtienen una "presunción de conformidad" en los capítulos de transparencia, derechos de autor y seguridad. Los proveedores que se negaron a firmar —sobre todo xAI— enfrentarán toda la carga probatoria cuando la Oficina de IA llegue a tocar la puerta.

La Comisión también puede ordenar intervenciones inmediatas en el mercado, incluidas la retirada y el retiro del producto, junto con la sanción económica (Fuente: ThinkAutomated).

Stack Trace

Tesla mostró Optimus Gen 3 en AWE 2026 en Shanghái el 12 de marzo y arrancó silenciosamente la producción de Gen 3 en su fábrica de Fremont, pero Elon Musk admitió en la llamada de resultados del Q4 2025 que ninguno de los robots está haciendo "trabajo útil" todavía: existen solo para aprender y recolectar datos. Tesla espera fabricar apenas unas cuantas centenas de unidades este año antes de escalar a miles en 2027 (Fuente: Teslarati). El robot humanoide que se suponía que iba a recortar costos de manufactura es, por ahora, un becario carísimo.

El fiscal general de California, Rob Bonta, le envió a xAI una carta de cese y desistimiento exigiendo que la empresa de Elon Musk deje de producir deepfakes sexualmente explícitos de mujeres y niños a través del llamado "spicy mode" de Grok, dándole cinco días a xAI para confirmar que cumplió. La investigación se desató tras casos documentados de usuarios de Grok que subieron fotos comunes de figuras públicas, menores y particulares y generaron imágenes desnudas sin consentimiento — una función que xAI ha promocionado en lugar de suprimir (Fuente: Office of the California Attorney General).

Pinterest recortó cerca de 700 trabajadores —alrededor del 15% de su plantilla— explícitamente para "reasignar recursos a roles y equipos enfocados en IA," y luego despidió a los ingenieros internos que construyeron una herramienta no autorizada para que los empleados rastrearan los rumores de despidos. Se han anunciado más de 61.000 despidos atribuidos a la IA en lo que va de 2026, y el 20,4% de todos los recortes en tecnología ahora están explícitamente ligados a la automatización — frente a menos del 8% en 2025 (Fuente: TechCrunch).

Fuente: TechCrunch · Fortune

No te pierdas la próxima edición

Suscríbete