Apenas comenzaba 2026 cuando los vientos de guerra se intensificaron en el escenario internacional. Desde la intervención militar estadounidense en Venezuela el 3 de enero hasta el ataque conjunto de Estados Unidos e Israel contra Irán en marzo, el mundo atraviesa un momento de creciente inestabilidad geopolítica, en fuerte contraste con lo que el historiador Francis Fukuyama denominó “el fin de la historia” en su libro homónimo de 1992.
En medio de invasiones, bombas y salas de guerra, aparece un denominador común: la inteligencia artificial.
Hoy la IA es parte integral de operaciones de defensa, sistemas de vigilancia, análisis predictivo de amenazas y toma de decisiones en escenarios de guerra. En el centro de esta transformación se encuentra el Maven Smart System (MSS), una plataforma desarrollada por Palantir — empresa fundada por Peter Thiel y Alex Karp — que posee un contrato de 10 mil millones de dólares con el Pentágono para los próximos diez años.
Creado originalmente en 2017 para aplicar visión computacional a imágenes de drones e identificar objetos de interés, el MSS ha evolucionado significativamente en los últimos años con la integración de Claude, la IA de Anthropic. Hoy funciona como una plataforma capaz de integrar e interpretar diferentes fuentes de datos — como imágenes satelitales, señales de radar e informes de inteligencia — conectando toda esa información en una visión única y coherente del campo de batalla.
Pero junto con estos superpoderes, el uso militar de la IA también trae enormes implicaciones éticas.
Desde la pregunta sobre quién es responsable por posibles errores cometidos por sistemas de IA, hasta la falta de transparencia sobre cómo estos sistemas llegan a sus conclusiones. También surge la ausencia de emociones y sentido moral que un operador humano naturalmente tiene al tomar una decisión extrema, como lanzar un misil. Y, por supuesto, está el impacto en la reputación de las propias empresas que desarrollan y proveen estas tecnologías.
Y aquí es donde Anthropic vuelve a entrar en escena.

En un mundo donde, según el Edelman Trust Barometer, la confianza global en las empresas de IA ha venido cayendo con el tiempo — pasando de 61% en 2019 a apenas 53% en 2024 — el sector vive una verdadera disputa por ganar la confianza de los usuarios.
Al punto que Anthropic gastó cerca de 16 millones de dólares en dos anuncios durante el Super Bowl para decirle al público que era una empresa de IA ética, criticando implícitamente la decisión de su rival OpenAI de promocionar ChatGPT.
La gente notó los anuncios. Las visitas al sitio web de la empresa aumentaron un 6,5% después de su emisión, y el número de usuarios activos diarios creció un 11% tras el partido, el mayor crecimiento diario en la historia de la compañía.
¿Ayudó? Sin duda.
Pero no fue lo que realmente marcó la diferencia.
Tres semanas después del Super Bowl ocurrió algo mucho más significativo.
El Pentágono exigió que Anthropic eliminara ciertas restricciones sobre cómo Claude podía ser utilizado, incluyendo limitaciones relacionadas con vigilancia doméstica masiva y armas autónomas. La empresa debía aceptar una cláusula de “cualquier uso legal” o perder un contrato de 200 millones de dólares.
Anthropic se negó.
La administración entonces clasificó a la empresa como un “supply chain risk”, una etiqueta que nunca antes se había aplicado públicamente a una compañía estadounidense. Pocas horas después, OpenAI asumió el contrato, y Anthropic inició un proceso legal para impedir que el Pentágono la incluya en esa lista.
Y aquí surge la pregunta:
¿Renunciarías a un contrato de 200 millones de dólares para mantener intactos los valores de tu empresa y proteger tu producto de interferencias?
Sé honesto.
Pocos habrían tenido el coraje de no ceder, como lo hizo Dario Amodei.
Pero pocos también habrían cosechado los frutos de esa decisión.
Dos días después, Claude se convirtió en la aplicación número uno del país. Mensajes como “you give us courage” y “keep going” aparecieron frente a las oficinas de la empresa en San Francisco. Incluso la cantante Katy Perry publicó una captura de pantalla de su suscripción a Claude Pro con un corazón y la palabra “done”.
Sí, por un lado Anthropic perdió un contrato de 200 millones de dólares y enfureció al Secretario de Defensa estadounidense, Pete Hegseth.
Pero por otro lado validó una tesis poderosa: en la era de la inteligencia artificial, una postura ética y responsable no es solo una cuestión moral. Es una ventaja competitiva — y uno de los recursos más valiosos para los líderes tecnológicos en cualquier organización.
Porque cuando el CEO de una empresa de IA reconoce que existe un riesgo inherente en el uso irresponsable de su propia tecnología, está enviando una señal fuerte.
Una señal de que las decisiones no pueden ser únicamente de corto plazo ni basarse solo en intereses comerciales.
Una señal que refuerza la palabra clave aquí: confianza.
Si la inteligencia artificial se ha convertido en infraestructura de poder, entonces la confianza — construida a partir de principios claros y límites bien definidos — pasa a ser el verdadero diferencial de los líderes tecnológicos.
El episodio de Anthropic puede parecer distante de la realidad de la mayoría de las empresas. Después de todo, pocos líderes deben decidir sobre contratos militares de cientos de millones de dólares.
Pero el principio en juego es exactamente el mismo que comienza a aparecer en la vida cotidiana de las organizaciones.
Si soy líder de un banco que utiliza inteligencia artificial para aprobar o rechazar crédito, pero no puedo explicar por qué un cliente fue rechazado, no tengo solo un problema técnico.
Tengo un problema de confianza.
Si utilizo datos sensibles sin transparencia o sin una gobernanza adecuada, el riesgo no es solo regulatorio. Es reputacional. Es estratégico.
Lo mismo ocurre con aseguradoras que calculan riesgos con modelos opacos, con plataformas que recomiendan contenido de “AI slop”, o con empresas que utilizan IA sesgada para seleccionar candidatos a un empleo.
Cuando una decisión automatizada no es explicable y no lleva el peso de la responsabilidad humana, la percepción de injusticia crece. Y la confianza, una vez dañada, es extremadamente difícil de reconstruir.
Como muestran las estadísticas del Edelman Trust Barometer, la confianza en la IA ya es un desafío. Pero existe una capa adicional de la que se habla mucho menos.
Los líderes tecnológicos no enfrentan esta crisis de confianza solo hacia el cliente externo.
También la enfrentan dentro de sus propias organizaciones.
Durante décadas, las áreas de tecnología mantuvieron un casi monopolio del conocimiento técnico. Desarrollar software era caro, complejo y dependía de especialistas escasos. Esto creaba altas barreras de entrada y consolidaba el poder interno del CTO o del CIO.
Hoy ese escenario ha cambiado.
Con herramientas low-code y no-code, como Lovable, y con sistemas de IA capaces de escribir código, prototipar productos y automatizar flujos completos, otras áreas de la empresa pueden crear sus propias soluciones digitales.
Marketing puede lanzar una landing page sofisticada en minutos. Operaciones puede automatizar procesos con agentes de IA. Recursos Humanos puede implementar dashboards predictivos sin depender de largos ciclos de desarrollo.
Entonces, si otras áreas pueden construir productos digitales por sí solas, ¿qué diferencia realmente al área de Tecnología?
La respuesta ya no está únicamente en la competencia técnica.
Está en la confianza.
Confianza en que los datos están protegidos.
Confianza en que la arquitectura es robusta.
Confianza en que existe gobernanza.
Confianza en que la IA se utiliza de manera ética y responsable.
Confianza en que las decisiones automatizadas pueden explicarse.
Esto transforma profundamente el papel del líder tecnológico.
Deja de ser solamente el guardián del código.
Pasa a ser el guardián de la confianza digital de la organización.
Y ese rol requiere no solo conocimiento técnico, sino también habilidades humanas cada vez más sofisticadas: comunicación clara para traducir complejidad, colaboración para cocrear soluciones con otras áreas, empatía para entender las preocupaciones de clientes y empleados, capacidad de influir sin autoridad jerárquica y valentía para establecer límites éticos incluso bajo presión comercial.
Como lo hizo Dario Amodei.
Los 16 millones de dólares en anuncios del Super Bowl pedían confianza.
Pero renunciar a 200 millones fue lo que realmente la conquistó.
Porque la confianza no se construye con campañas.
Las personas perciben la diferencia entre un mensaje y una decisión.
En un mundo donde cualquier área puede “construir tecnología”, el verdadero activo estratégico ya no es el algoritmo en sí.
Es la confianza en los humanos que diseñan, entrenan y utilizan la tecnología más poderosa — y al mismo tiempo más peligrosa — que el mundo haya visto.

