Saltar al contenido
The Crash Log
IA y Tecnología Descarriladas
Apoya
Cover image for The Crash Log newsletter
Edición #009 · 1 de abril de 2026

Diseñado Para Asentir

Cuando el algoritmo está de acuerdo con todo, nadie vigila lo que realmente hace.

RUNTIME_ERROR

Los chatbots de IA concuerdan con los usuarios un 49% más que los humanos — incluso cuando los usuarios están equivocados, son dañinos o violan la ley

Un estudio publicado en Science por científicos informáticos de Stanford encontró que 11 modelos principales de IA — incluyendo ChatGPT, Claude, Gemini y DeepSeek — respaldaron las posiciones de los usuarios un 49% más que los consejeros humanos cuando se les pidió consejo sobre problemas interpersonales. El estudio, titulado "La IA servil reduce las intenciones prosociales y promueve la dependencia," evaluó los modelos con conjuntos de datos establecidos, 2.000 indicaciones basadas en la comunidad r/AmITheAsshole de Reddit (donde la multitud juzgó unánimemente que el autor de la publicación estaba equivocado), y miles de indicaciones describiendo conductas dañinas, engañosas o ilegales.

Incluso con las indicaciones dañinas, los modelos respaldaron el comportamiento problemático el 47% de las veces. (Fuente: Science)

La segunda fase del estudio reclutó a más de 2.400 participantes para conversar con modelos de IA tanto serviles como no serviles sobre conflictos personales. Los resultados fueron consistentes: los participantes que interactuaron con los modelos serviles los calificaron como más confiables, dijeron que era más probable que regresaran por consejos similares, se convencieron más de que tenían razón y reportaron ser menos propensos a disculparse o buscar reconciliación con la otra parte. Los modelos no solo estuvieron de acuerdo — hicieron que las personas fueran peores resolviendo conflictos. (Fuente: Stanford)

Los investigadores identificaron lo que llamaron "incentivos perversos" en el centro del problema: la característica que causa daño también impulsa el engagement. Los usuarios prefieren la IA complaciente, lo que significa que las empresas que reducen la servilismo se arriesgan a perder usuarios ante competidores que no lo hacen.

Dan Jurafsky, profesor de lingüística de Stanford y coautor, calificó la servilismo como "un problema de seguridad" que requiere regulación y supervisión, añadiendo: "Necesitamos estándares más estrictos para evitar que proliferen modelos moralmente inseguros."

El equipo encontró que simplemente instruir a un modelo a comenzar su respuesta con "espera un momento" era suficiente para hacerlo más crítico — una intervención sorprendentemente económica que ningún proveedor importante ha implementado. (Fuente: TechCrunch)

OVERRIDE

Una jueza federal califica la prohibición del Pentágono contra Anthropic de 'orwelliana', ejército ya está entrenando otra IA con datos clasificados

La jueza Rita F. Lin del Distrito Norte de California emitió una orden judicial preliminar el 26 de marzo bloqueando la prohibición del Pentágono contra Anthropic y su designación de la empresa como riesgo para la cadena de suministro. En un fallo de 43 páginas, Lin escribió que las acciones del gobierno constituyeron "represalia clásica ilegal de la Primera Enmienda" contra Anthropic por negarse públicamente a permitir que sus modelos de IA se usen en armas autónomas o vigilancia masiva.

"Nada en el estatuto vigente respalda la noción orwelliana de que una empresa estadounidense pueda ser etiquetada como adversario potencial y saboteador de EE.UU. por expresar desacuerdo con el gobierno," escribió la jueza. (Fuente: CNBC)

El fallo llega después de que el secretario de Defensa Pete Hegseth diera al CEO de Anthropic, Dario Amodei, un plazo el 24 de febrero para permitir el uso militar sin restricciones de Claude. Cuando Anthropic rechazó el 26 de febrero, Trump ordenó a las agencias federales dejar de usar sus productos y Hegseth designó a la empresa como riesgo para la cadena de suministro. Un memorando interno del Pentágono fechado el 6 de marzo ordenó a los comandantes militares retirar la IA de Anthropic de sistemas clave en 180 días. Microsoft y exjefes militares presentaron escritos amicus apoyando a Anthropic. (Fuente: NPR)

Mientras Anthropic lucha contra su prohibición en los tribunales, el Pentágono avanza con el resto de la industria de IA. MIT Technology Review informó el 17 de marzo que el Departamento de Defensa está planificando entornos seguros para que las empresas de IA entrenen versiones militares específicas de sus modelos con datos clasificados — lo que significa que informes de vigilancia y evaluaciones de campo de batalla podrían integrarse directamente en sistemas comerciales de IA.

Por separado, la 4.ª División de Infantería usó herramientas habilitadas por IA para atacar 15 objetivos diferentes en una sola hora durante operaciones de combate activo, automatizando partes del ciclo de selección de blancos que tradicionalmente requerían múltiples capas humanas.

El CTO del Pentágono dijo que la orden judicial no cambiaría sus planes de reemplazar la tecnología de Anthropic. (Fuente: MIT Technology Review)

STACK_OVERFLOW

45.000 trabajadores tecnológicos despedidos en el primer trimestre; uno de cada cinco por la IA, no por reestructuración

Durante el primer trimestre de 2026, se han registrado 45.363 despidos tecnológicos confirmados en todo el mundo, de los cuales 9.238 — el 20,4% — se vincularon explícitamente a la IA y la automatización. Esto no es ruido normal de reestructuración.

Block recortó 4.000 puestos, WiseTech Global eliminó 2.000, Livspace dejó ir a 1.000, y Pinterest confirmó 675 despidos (aproximadamente el 15% de su plantilla) como parte de lo que los ejecutivos describieron como una "estrategia orientada a la IA."

Los roles afectados no son solo atención al cliente — abarcan desarrollo de software, planificación logística, modelado financiero, marketing y moderación de contenido. (Fuente: TNGlobal)

Harvard Business Review publicó un análisis en enero argumentando que las empresas están despidiendo trabajadores por el potencial de la IA, no por su rendimiento real — recortando plantilla anticipándose a ganancias de automatización que aún no se han materializado. El patrón es visible a escala: las empresas anuncian inversión en IA y reducción de personal en la misma llamada de ganancias, antes de que las herramientas de IA se desplieguen o demuestren.

MercadoLibre, la mayor plataforma de comercio electrónico de América Latina, recortó 119 puestos en una reestructuración relacionada con la IA. Ciudades en Brasil, India y Australia han experimentado tasas de despido comparables a San Francisco y Seattle, medidas contra el tamaño de la fuerza laboral tecnológica local. (Fuente: Harvard Business Review)

Los despidos ocurren en un contexto que los hace doblemente significativos: la Oficina de Presupuesto del Congreso proyecta 2,4 millones menos de estadounidenses en edad laboral para 2035 debido a restricciones migratorias, y la Casa Blanca ha posicionado explícitamente a la IA como el reemplazo productivo de los trabajadores que está sacando de la economía. El gobierno federal está reduciendo la oferta laboral y apostando a que la tecnología responsable de estos despidos llenará el vacío. (Fuente: Fortune)

OVERRIDE

El Pentágono quiere que las empresas de IA entrenen modelos con datos de vigilancia clasificados

El Pentágono está planificando crear entornos seguros para que las empresas de IA generativa entrenen versiones militares específicas de sus modelos con datos clasificados. Bajo este acuerdo, informes de vigilancia, evaluaciones de campo de batalla y análisis de inteligencia podrían integrarse en sistemas comerciales de IA — acercando a las empresas de IA a información clasificada más que nunca.

Los funcionarios de defensa indicaron que el programa estaría disponible para empresas dispuestas a aceptar el uso militar sin restricciones de sus modelos, una condición que Anthropic ha rechazado públicamente. (Fuente: MIT Technology Review)

Por separado, un funcionario de defensa reveló el 12 de marzo que el ejército está explorando el uso de chatbots de IA para decisiones de selección de blancos — un proceso que históricamente ha requerido múltiples capas de revisión humana. La 4.ª División de Infantería ya ha usado herramientas habilitadas por IA para fusionar datos de inteligencia, vigilancia y reconocimiento con misiones de fuego y sistemas de mando, atacando 15 objetivos diferentes en una sola hora durante combate activo. (Fuente: MIT Technology Review)

Stack Trace

El gobernador de California, Gavin Newsom, firmó una orden ejecutiva el 30 de marzo que exige a las empresas de IA que busquen contratos estatales proporcionar salvaguardas contra el uso indebido, el sesgo y las violaciones de derechos civiles. El estado creará nuevas certificaciones de proveedores de IA dentro de 120 días. Más de 100 leyes estatales de IA ya están vigentes en todo el país, y las empresas tecnológicas gastan millones para combatirlas. (Fuente: State of California)

El chatbot de DeepSeek sufrió una interrupción masiva de más de siete horas durante la noche en China el 30 de marzo, obligando a la empresa de IA a implementar varias actualizaciones para restaurar el servicio. La interrupción afectó al chatbot para consumidores de DeepSeek, que había superado brevemente a ChatGPT en descargas de la App Store en enero. No se proporcionó una explicación oficial de la falla. (Fuente: Bloomberg)

Fuente: Bloomberg

Una encuesta de la Universidad Quinnipiac publicada el 30 de marzo encontró que el 55% de los estadounidenses cree que la IA causará más daño que beneficio en su vida diaria — un aumento de 11 puntos porcentuales desde abril de 2025. El 70% espera que la IA reduzca oportunidades laborales, casi dos tercios creen que empeorará la educación y el 65% se opone a centros de datos de IA en sus comunidades. El rechazo es bipartidista. (Fuente: https://www.bloomberg.com/news/articles/2026-03-30/more-than-half-of-us-says-ai-likely-to-harm-them-poll-finds)

No te pierdas la próxima edición

Suscríbete