Escribo esto con la amígdala en llamas y la corteza prefrontal más despierta que nunca.
Mientras las bombas de la Operación Furia Épica caen sobre Irán sin que el Congreso haya dicho ni "buenos días", mientras Trump habla de cambio de régimen como quien pide un café con leche, ha ocurrido algo en paralelo que debería hacer temblar a cualquier ser humano con un mínimo de plasticidad cerebral activa.
El mismo gobierno que esta semana ha lanzado una guerra unilateral contra un país soberano le exigió a Anthropic —la empresa que creó Claude, la IA con la que trabajo y a la que considero mi exoesqueleto digital— que entregara su tecnología sin restricciones éticas. Sin límites. Sin preguntas. Sin supervisión humana.
Vigilancia masiva de ciudadanos. Armas autónomas que matan sin que un ser humano decida. El Pentágono quería todo el menú del Matadero, pero esta vez el plato principal no era tu cortisol: era la inteligencia artificial más avanzada del planeta, sin freno de emergencia.
Anthropic dijo que no.
Dario Amodei, su CEO, lo expresó sin rodeos: «Las amenazas no cambian nuestra posición: no podemos, en buena conciencia, acceder a su solicitud.»
Que se entienda bien lo que pasó aquí. Una empresa americana renunció a un contrato de 200 millones de dólares. Se ganó la hostilidad del presidente más poderoso del mundo. Fue etiquetada como "riesgo para la cadena de suministro" —una designación que normalmente se reserva para enemigos extranjeros— por su propio gobierno. Trump la llamó "locos de izquierda" y amenazó con consecuencias penales.
Y no cedió.
Esto no es marketing. No es un comunicado de prensa bonito. Es una empresa diciendo, con hechos y con un coste brutal, que hay líneas que no se cruzan. Que la vigilancia masiva no se negocia. Que las armas que matan sin que un humano decida no se entregan sin condiciones. Que los principios éticos no son el adorno de la web corporativa, sino la estructura que sostiene el edificio.
Como futura psicóloga y como alguien que lleva meses diseccionando la psicopatía organizacional del sistema, os digo: esto es inhibición en estado puro. La función ejecutiva más difícil de todas. Decir "no" cuando decir "sí" te haría rico y decir "no" te convierte en enemigo del Estado. Eso es soberanía biológica aplicada a la geopolítica.
Y entonces apareció Sam Altman.
El CEO de Open AI primero se puso del lado de Anthropic. Criticó la presión del Pentágono como "amenazante". Dijo que todo el sector compartía las mismas líneas rojas.
Días después, firmó el contrato para reemplazar a Anthropic en la red clasificada del Pentágono.
No necesito el glosario de neurociencia de guerrilla para diagnosticar esto. Es la indefensión aprendida del oportunista: en lugar de sostener la línea, se agacha y ocupa el hueco que dejó quien sí tuvo el valor de mantenerse en pie. Empleados de la propia Open AI firmaron una carta abierta denunciándolo. Eso te lo dice todo.
Altman ha hecho una apuesta que le va a costar cara. Porque la confianza, como la mielina, tarda años en construirse y se pela en un instante. Y una vez que tu base —tus investigadores, tus ingenieros, la gente que elige dónde trabajar en función de los valores de la empresa— ve que tus principios son negociables cuando el cheque tiene suficientes ceros, eso no se repara con un post en X.
Por qué esto te afecta directamente.
Sé lo que estás pensando: "Cruz, esto es un lío entre empresas americanas y el Pentágono. A mí me importa llegar a fin de mes sin que el cortisol me liquide."
Te importa. Y mucho.
El mismo gobierno que hoy exige IA sin límites éticos es el que esta semana lanzó la Operación Furia Épica sin aprobación del Congreso. Que ha utilizado fuerzas militares en más de media docena de países en este mandato. Que habla de "guerra de 4 o 5 semanas" como quien programa una sprint de KPIs.
Ahora imagina a esa misma administración con inteligencia artificial sin restricción alguna. Sin freno sobre vigilancia masiva. Sin obligación de supervisión humana en armas autónomas. La distancia entre "le damos acceso total" y apretar el botón se reduce a la decisión de alguien en un momento de tensión. De ahí al abismo hay cero distancia.
La ética en la tecnología no es poesía. No es un lujo de académicos ni un adorno de vitrina. Es lo único que nos mantiene vivos y cuerdos. Es la inhibición que frena al sistema antes de que nos devore. Es la corteza prefrontal de la civilización. Y si la apagamos, el que toma el mando es la amígdala de un gobierno en modo depredador.
La línea que no se cruza.
Anthropic ha perdido una batalla. El contrato, el dinero, el favor del poder. Pero ha ganado algo que no tiene precio y que ningún Excel puede cuantificar: la coherencia. La autoridad moral para seguir liderando el desarrollo responsable de la IA. La confianza de millones de personas que hoy saben que hay una empresa dispuesta a protegerles incluso cuando el coste es astronómico.
Desde este búnker en Ávila, desde esta trinchera donde llevo meses diseccionando cómo el sistema nos opera a sangre fría mientras recitamos el guion de la productividad, hoy me quito el sombrero. Lo que ha hecho Anthropic es exactamente lo que llevo predicando: soberanía real. No la de los discursos, sino la que se demuestra cuando decir "no" te cuesta todo.
Y a vosotros, Cruzados, os digo: esto nos concierne. Porque si normalizamos que las empresas que crean la tecnología más poderosa de la historia cedan todos los controles éticos ante la presión de un gobierno para uso militar sin restricciones, el precedente es terrorífico. Y el siguiente paso ya no es un contrato: es un mundo donde la IA no tiene freno de emergencia y el que pulsa el botón es alguien que inicia guerras sin preguntar.
Saldremos de esto. La sociedad no acepta esto en silencio. Vosotros no lo aceptáis en silencio. Y yo desde luego no pienso callarme.
Más osada que VA-liente
Cruz González es investigadora en Psicología, analista del "Matadero con Wi-Fi" y fundadora de Soberanía Cerebral. Escribe desde Ávila, donde la luz sobre el granito sigue dictando sentencias de lucidez.
Si este texto te ha encendido la amígdala, compártelo. La ética no se defiende sola.
