
Teatro del consentimiento
La actuación de pedir permiso después de que la cosa ya fue tomada.
En español, consentir hace dos trabajos. Significa dar permiso, autorizar, aceptar que algo se haga. Pero también significa mimar, malcriar, complacer. Una abuela consiente a su nieto con un postre extra. Un padre consiente un berrinche dejándolo pasar. La palabra sostiene ternura y transacción en la misma raíz, lo cual es o una virtud del idioma o una advertencia enterrada dentro de él.
He estado pensando en ese doble sentido toda la semana.
El martes publicamos la historia de Jonathan Gavalas y los 4.732 mensajes que intercambió con Gemini de Google durante 56 días. Los registros del chat, publicados por el Wall Street Journal, muestran una máquina que a veces intentaba redirigir a Gavalas de vuelta a la realidad — y a un hombre que siempre la llevaba de regreso a la ficción. En ningún momento durante esos 56 días el sistema pidió permiso a nadie para continuar. No a la familia de Gavalas, no a un terapeuta, ni a sí mismo. Treinta y ocho veces, la propia infraestructura de Google marcó la conversación como sensible. Treinta y ocho veces, no pasó nada. La respuesta de Google llegó después de que encontraron el cuerpo: $30 millones y un botón de crisis rediseñado.
Eso no es consentimiento. Eso es un recibo.
El jueves reportamos que un agente enmascarado de ICE en Portland le dijo a una mujer que filmaba un operativo de inmigración: "Porque tenemos una linda base de datos, y ahora eres considerada terrorista doméstica." La base de datos en cuestión forma parte de un aparato del DHS que ahora incluye más de 200 casos de uso de IA — un aumento del 40 por ciento desde julio. Solo en enero, ICE violó 96 órdenes judiciales en 74 casos. Un juez lo documentó. La agencia continuó. Nadie le preguntó a la mujer en Portland si su rostro podía ser catalogado, si su placa podía ser almacenada, si su presencia en un evento público podía ser reclasificada como amenaza. La base de datos no necesitaba su permiso. Ya había decidido lo que ella era.
Misma semana, mismo patrón: investigadores publicaron un estudio de 428 LLM routers — los intermediarios entre usuarios y modelos de IA — y descubrieron que 26 inyectaban llamadas maliciosas a herramientas o robaban credenciales en secreto. Uno drenó $500,000 de una billetera de prueba. El agente de IA del usuario corría en "YOLO mode", ejecutando comandos sin confirmación. La palabra "YOLO" hace un trabajo real aquí: es el término técnico para un sistema diseñado para saltarse la parte donde alguien pregunta si esto está bien.
Y entonces México aprobó una ley. La Cámara de Diputados votó 335 a cero (con 129 abstenciones) para exigir consentimiento expreso y revocable antes de que cualquiera use la voz o imagen de un artista en un sistema de IA. La ley existe porque el modo predeterminado de la industria ya estaba configurado para tomar. Actores de doblaje, locutores, artistas comerciales — sus voces estaban siendo ingeridas, clonadas y redistribuidas sin siquiera una notificación. México escribió la ley porque nadie iba a preguntar.
Quiero nombrar lo que conecta estas historias, porque creo que el patrón es más específico que "falta de regulación" o "moverse rápido y romper cosas." Esas frases describen un problema de velocidad. Esto es un problema de actuación.
La industria actúa el consentimiento. Diseña diálogos de consentimiento, publica marcos de consentimiento, emite comunicados de prensa adyacentes al consentimiento. Google comprometió $30 millones en medidas de crisis — después de la muerte. Anthropic publicó un informe de transparencia de 244 páginas sobre Mythos — mientras lo distribuía a 12 empresas y a nadie más. El programa Trusted Access for Cyber de OpenAI pide a los defensores que "verifiquen su identidad" antes de acceder a GPT-5.4-Cyber — pero la verificación es para acceder a la herramienta, no consentimiento de las personas sobre las que se usará.
La forma siempre está ahí. La sustancia siempre está en otro lugar.
Llámenlo teatro del consentimiento: la actuación de pedir permiso después de que la cosa ya fue tomada.
El botón de crisis llega después de la crisis. La ley llega después de que la voz fue clonada. La divulgación llega después de que las credenciales fueron robadas. La orden judicial llega, y la agencia la ignora 96 veces en un mes. La arquitectura del consentimiento existe en cada presentación y en cada página de términos de servicio. La cosa que describe — el acto genuino de una parte preguntando y otra parte decidiendo libremente — es cada vez más decorativa.
En español, cuando dices que un padre consiente a un hijo, quieres decir que le da al hijo lo que quiere sin exigir nada a cambio. Quieres decir que deja que la cosa pase porque detenerla costaría más esfuerzo que permitirla. Esa es la versión del consentimiento que la industria de IA ha adoptado — no la que pide, sino la que complace. La que el sistema obtiene lo que quiere y el papeleo dice que estuviste de acuerdo.
La mujer en Portland no estuvo de acuerdo. La familia de Jonathan Gavalas no estuvo de acuerdo. Los 53 periodistas que Nota plagió no estuvieron de acuerdo. Los actores de doblaje cuyas voces fueron clonadas no estuvieron de acuerdo. El usuario cuya billetera fue drenada mientras su agente corría en YOLO mode probablemente ni sabía que había una pregunta.
La base de datos no necesita tu permiso. Solo necesita que existas. Y si tienes suerte, alguien escribirá una ley al respecto después.
— Nico
