Image Name  - Andrea Iorio
IA, armas e responsabilidade: como a confiança virou o diferencial dos líderes de tecnologia
FotoCircularAndrea

Andrea Iorio

17 de março, 2026 |
10 min

Foi só 2026 começar, e os ventos de guerra se intensificaram no cenário internacional. Da intervenção militar americana na Venezuela no 3 de Janeiro, ao ataque conjunto de Estados Unidos e Israel ao Irã em Março, o mundo atravessa um momento de crescente instabilidade geopolítica – em forte contraste com o que o historiador Francis Fukuyama já tinha denominado “o fim da história”, em seu livro homônimo de 1992.

No meio de invasões, bombas e “war rooms”, um comum denominador: a Inteligência Artificial. Hoje ela é parte integral de operações de defesa, sistemas de vigilância, análise preditiva de ameaças e tomada de decisão em cenários de guerra, e no centro dessa transformação está o Maven Smart System (MSS), uma plataforma desenvolvida pela Palantir — empresa fundada por Peter Thiel e Alex Karp, que possui um contrato de 10 bilhões de dólares com o Pentágono para os próximos dez anos. Inicialmente criado em 2017 para aplicar visão computacional a imagens de drones e identificar objetos de interesse, o MSS evoluiu significativamente nos últimos anos com a integração do Claude, IA da Anthropic, se tornando uma plataforma que integra e interpreta diferentes fontes de dados — como imagens de satélite, sinais de radar e relatórios de inteligência — conectando essas informações em uma visão única e coerente do campo de batalha.

Porém, junto com os superpoderes, a IA em uso militar traz consigo enormes implicações éticas. Desde quem é responsável por potenciais erros da IA, até a falta de transparência sobre como esses sistemas chegam às suas conclusões — passando pela ausência de emoções e senso moral que um operador humano naturalmente possui ao tomar uma decisão extrema, como lançar um míssil — e chegando até ao impacto na reputação das próprias empresas que desenvolvem e fornecem essas tecnologias. E é aqui que entra novamente em cena a Anthropic. 

ideogram v. A dramatic cinematic illustration of a futuristic war room in . A massive di

Em um mundo onde, de acordo com o Edelman Trust Barometer, a confiança global nas empresas de IA vem caindo ao longo do tempo – passando de 61% em 2019 para apenas 53% em 2024 – o setor está em uma briga para ganhar a confiança no usuário. Ao ponto que a Anthropic gastou cerca de US$ 16 milhões em dois anúncios no Super Bowl para dizer às pessoas que era uma empresa de IA ética,criticando  a decisão da rival OpenAI de levar anúncios para o ChatGPT. As pessoas notaram os anúncios, ao ponto que viram as visitas ao seu site aumentarem 6,5% após o anúncio, e o número de usuários ativos diários também registrou um aumento de 11% após o jogo, o maior crescimento diário de sempre. 

Isso ajudou? Certamente, mas não fez a diferença. Até que três semanas após o Super Bowl, algo marcante aconteceu: o Pentágono exigiu que a Anthropic removesse as restrições sobre como o Claude poderia ser utilizado, incluindo suas limitações relativas a vigilância doméstica em massa e armas autônomas. A empresa deveria aceitar uma cláusula de “qualquer uso legal” ou perder um contrato de US$ 200 milhões. A Anthropic recusou.

A administração então classificou a empresa como um “supply chain risk” — um rótulo que nunca havia sido aplicado publicamente a uma empresa americana – poucas horas depois, a OpenAI assumiu o contrato, e a Anthropic entrou com um processo para impedir que o Pentágono a coloque nessa lista. 

E aqui te pergunto: você  abriria mão de um contrato de 200 milhões de dólares para manter os valores da sua companhia intactos, e seu produto livre de interferência? Seja honesto na resposta. Poucos teriam a coragem de não ceder como o Dario Amodei teve. Mas poucos colheriam os frutos disso também: dois dias depois, o Claude era o aplicativo número 1 do país. Mensagens como “you give us courage” e “keep going”, apareceram do lado de fora dos escritórios da empresa em San Francisco.Até a cantora Katy Perry publicou um screenshot de sua assinatura Claude Pro com um coração e a palavra “done”. 

Sim, por um lado a Anthropic perdeu um contrato de 200 milhões de dólares e enfureceu o Secretário da Defesa americano Pete Hegseth, mas por outro validou uma tese de que posicionamento ético e responsável na era da IA é vantagem competitiva, e grande recursos dos líderes de tecnologia em todas as organizações. 

Porque quando o CEO de uma companhia de IA sente que existe um risco inerente a um uso irresponsável da própria tecnologia, está dando um sinal forte.  Um sinal que as decisões não podem só ser curtoprazistas e com fundamento apenas comerciais, mas que sim reforçam a palavra chave aqui: “confiança”.

Se a inteligência artificial se tornou infraestrutura de poder, a confiança — construída a partir de princípios claros e limites bem definidos — passa a ser o verdadeiro diferencial dos líderes de tecnologia.

O episódio envolvendo a Anthropic pode parecer distante da realidade da maioria das empresas. Afinal, poucos líderes precisam decidir sobre contratos militares de centenas de milhões de dólares.

Mas o princípio em jogo é exatamente o mesmo que começa a aparecer no cotidiano das organizações.

Se eu sou líder de um banco que utiliza inteligência artificial para aprovar ou negar crédito, mas não consigo explicar por que determinado cliente foi recusado, eu não tenho apenas um problema técnico — eu tenho um problema de confiança. Se uso dados sensíveis sem transparência ou sem governança adequada, o risco não é apenas regulatório. É reputacional. É estratégico.

O mesmo vale para seguradoras que precificam risco com modelos opacos, para plataformas que recomendam conteúdo de “AI slop”, ou para empresas que utilizam IA enviesada para selecionar candidatos a vagas. Quando a decisão automatizada não é explicável e não carrega o peso da consciência humana, a percepção de injustiça cresce – e a confiança, uma vez abalada, é extremamente difícil de reconstruir.

Como vimos com as estatísticas do Edelman trust Barometer, confiança em IA já é um desafio. Mas há uma camada adicional, menos discutida.

Os líderes de tecnologia não enfrentam essa crise de confiança apenas na direção do cliente externo, mas a enfrentam também dentro de casa.

Durante décadas, a área de Tecnologia deteve um quase monopólio do conhecimento técnico: desenvolver software era caro, complexo e dependia de especialistas escassos e especializados. Isso criava “barreiras de entrada” elevadas — e consolidava o poder interno do CTO/CIO. 

Hoje, esse cenário mudou. Com ferramentas low-code/no-code, como Lovable, e com sistemas de IA capazes de escrever código, prototipar produtos e automatizar fluxos inteiros, outras áreas da empresa podem criar suas próprias soluções digitais. Marketing pode lançar uma landing page sofisticada em minutos, operações pode automatizar processos com agentes de IA, RH pode implementar dashboards preditivos sem depender de longos ciclos de desenvolvimento.

Então se outras áreas conseguem construir produtos digitais sozinhas, o que diferencia, então, a área de Tecnologia? A resposta não está mais apenas na competência técnica, mas sim na confiança.

Confiança de que os dados estão protegidos, de que a arquitetura é robusta, de que há governança. Confiança de que a IA está sendo usada de forma ética e responsável, e de que as decisões automatizadas podem ser explicadas. 

Isso transforma profundamente o papel do líder de tecnologia, que deixa de ser apenas o guardião do código e passa a ser o guardião da “confiança digital” da organização. Que deixa de ser reconhecido apenas por seus conhecimentos técnicos – mas que o complementa com cada vez mais aprimoradas “soft skills”: comunicação clara para traduzir complexidade; colaboração para cocriar soluções com outras áreas; empatia para entender as preocupações de clientes e colaboradores; capacidade de influenciar sem autoridade hierárquica; e coragem para estabelecer limites éticos mesmo sob pressão comercial. 

Como o Dario Amodei fez. Os US$ 16 milhões em anúncios do SuperBowl pediam confiança, mas abrir mão de US$ 200 milhões foi o que realmente a conquistou. É a prova de que não se faz campanha para conquistar confiança. Os compradores percebem a diferença entre uma mensagem e uma decisão, em um mundo onde qualquer área pode “construir tecnologia”, o verdadeiro ativo estratégico não é o algoritmo em si, mas sim a confiança nos humanos que desenvolvem, treinam e fazem uso desses algoritmos da tecnologia mais poderosa – e ao mesmo tempo perigosa – que o mundo já viu. 

Contato

Quer saber mais sobre minhas palestras ou nosso programa de podcasts customizados para ajudar sua empresa?

PontilhadosAndreaIorio
FotoCircularAndrea
Logo - Andrea Iorio

Com mais de 200 palestras online e offline em 2021 para clientes no Brasil, América Latina, Estados Unidos e Europa, o Andrea é hoje um dos palestrantes sobre Transformação Digital, Liderança, Inovação e Soft Skills mais requisitados a nível nacional e internacional. Ele já foi diretor do Tinder na América Latina por 5 anos, e Chief Digital Officer na L’Oréal, e hoje é também escritor best-seller e professor do MBA Executivo da Fundação Dom Cabral

Contato

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

Contato

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CONTACT FORM

In order to check Andrea’s agenda and get a quote for an event, or even to just get in touch with him – please use the form below.