A proliferação de tecnologia militar com inteligência artificial no Oriente Médio

 Os investimentos militares em tecnologia militar com inteligência artificial destacam a necessidade de maior regulamentação para manter a força do direito internacional humanitário e proteger civis, bem como a incapacidade das estruturas de governança existentes de gerenciar fornecedores comerciais.



A guerra entre Israel e Hamas, em maio de 2021, foi descrita pela imprensa israelense como "a primeira guerra de IA do mundo", integrando diversos novos sistemas de inteligência artificial (IA) em tecnologias militares, desde novos processos de identificação de alvos até armamentos aprimorados. Desde então, a integração da IA ​​em tecnologias militares progrediu rapidamente, com países de toda a região buscando incorporar a IA em sua arquitetura militar. Grande parte disso envolveu parcerias com entidades comerciais, desde startups israelenses até grandes corporações de tecnologia, incluindo Amazon, Google e Microsoft. Como essas entidades têm demonstrado uma tendência a contornar seus autoproclamados compromissos com os direitos humanos e obrigações de diligência devida, será necessária uma maior regulamentação para proteger vidas civis e infraestrutura durante conflitos armados.

Proliferação do uso militar de IA

Como o país com maior acesso a essa tecnologia, Israel está na vanguarda da implantação de tecnologias militares habilitadas por IA na região, muitas vezes com efeitos devastadores. Isso ocorreu em grande escala pela primeira vez na guerra de maio de 2021, mas o uso dessas tecnologias aumentou exponencialmente desde 7 de outubro de 2023. Nas primeiras semanas da guerra em Gaza, o Lavender, um sistema de apoio à decisão (SAD) baseado em IA, foi supostamente usado para gerar uma lista de 37.000 alvos individuais.



Israel investiu pesadamente na integração de IA em suas forças armadas, desde o estabelecimento de uma Administração de IA e Autonomia dentro da Diretoria de Pesquisa e Desenvolvimento de Defesa do Ministério da Defesa, até a capacitação da Unidade 8200 de inteligência de sinais de elite para desenvolver algumas das próprias ferramentas de IA das Forças de Defesa de Israel (IDF). Embora a IA tenha sido integrada a sistemas de armas para melhorar o rastreamento de alvos e as taxas de acerto, como no caso do sistema óptico SMASH da Smart Shooter, as inovações mais significativas de Israel estão no desenvolvimento de SADs baseados em IA. Exemplos de sistemas de segurança de IA de Israel incluem o Lavender, que classifica indivíduos para fins de direcionamento de acordo com a suspeita de afiliação a grupos armados; o The Gospel (Habsora), que gera listas de alvos; e o Where’s Daddy?, que rastreia a localização de indivíduos antes de possíveis ataques. Embora a integração da IA ​​em sistemas de segurança permita que os militares analisem dados mais rapidamente e acelerem os ciclos de tomada de decisão, ela aumenta o risco de erros devido à geração de alvos em taxas muito altas para uma verificação humana eficaz e devido a um alto risco de viés institucional em relação a avaliações geradas por IA em vez de avaliações geradas por humanos.

Os Estados Unidos também estão implantando essas tecnologias em toda a região. Notavelmente, o Departamento de Guerra dos EUA usou sistemas de segurança de IA para identificar alvos no Irã, Iraque, Síria e Iêmen. Mais recentemente, a Operação Epic Fury atingiu 1.000 alvos no Irã em 24 horas. Um fator crucial na escala e na rápida seleção de alvos foi o uso, pelas forças armadas dos EUA, do sistema Maven Smart da Palantir, que também integra a IA Claude da Anthropic, para analisar dados de vigilância, criar listas de alvos e permitir a priorização de alvos. Muitos dos alvos atingidos no Irã eram civis, incluindo uma escola, instalações de saúde e residenciais, o que ilustra os riscos da rápida geração de alvos. O Irã, por sua vez, teve como alvo data centers da AWS nos Emirados Árabes Unidos (EAU) e no Bahrein para "identificar o papel desses centros no apoio às atividades militares e de inteligência do inimigo", possivelmente uma referência à hospedagem da plataforma de inteligência artificial da Palantir, que integra a IA Claude da Anthropic, em servidores da AWS.



O software de reconhecimento facial é outro caso de uso importante. Israel, por exemplo, implementou programas de reconhecimento facial em massa tanto em Gaza quanto na Cisjordânia. Na Cisjordânia, as Forças de Defesa de Israel (IDF) usam uma família de sistemas que acessam um banco de dados chamado Wolf Pack, que armazena informações sobre palestinos. O Red Wolf, instalado em postos de controle, e o Blue Wolf, instalado nos smartphones dos soldados israelenses, inscrevem automaticamente dados biométricos palestinos no Wolf Pack, que cria perfis de inteligência dos palestinos e os compartilha com a agência de segurança interna de Israel, o Shin Bet. Esses programas de reconhecimento facial generalizados e involuntários violam as proteções do direito internacional dos direitos humanos (DIDH), incluindo o direito à privacidade.

Outros atores regionais estão tentando acompanhar. O ex-líder supremo do Irã, Sayyid Ali Khamenei, pediu ao país que "dominasse a IA", embora os detalhes do progresso do Irã não possam ser verificados de forma independente. Embora os Emirados Árabes Unidos ainda não possuam sistemas de IA substanciais, o conglomerado estatal de defesa EDGE está adquirindo uma participação de 30% na empresa israelense de detecção de drones por IA, Thirdeye Systems, e iniciando uma joint venture com a fabricante de armas americana Anduril para coproduzir drones com capacidades aprimoradas por IA. As fabricantes de armas turcas STM e Baykar Defense foram pioneiras no desenvolvimento de drones equipados com software de processamento de imagem por IA; o drone Kargu, da primeira, teria entrado em combate com as forças do General Khalifa Haftar na Líbia em 2020.

Facilitadores comerciais

Por trás dessas tecnologias, existe uma vasta e complexa rede de fornecedores comerciais. Alguns são empresas com um propósito explícito de segurança nacional, como a Palantir, dos Estados Unidos, e a Corsight AI, de Israel. Israel e a Palantir assinaram uma parceria estratégica em 2024 para "aproveitar a tecnologia avançada da Palantir em apoio a missões relacionadas à guerra".



Muitos outros fornecedores comerciais, no entanto, não treinaram sua funcionalidade de IA para uma função específica de segurança ou militar. Grandes empresas de tecnologia, como Amazon, Anthropic, Google, Microsoft e OpenAI, forneceram produtos de IA para diversos ministérios da defesa, incluindo os EUA e Israel. Um rascunho de contrato de 2024 entre o Google e o Ministério da Defesa israelense destacou a "zona de aterrissagem" exclusiva preexistente deste último para acessar a infraestrutura em nuvem e novos planos para criar zonas de aterrissagem específicas para unidades militares.

Nos termos do Projeto Nimbus, as empresas estatais israelenses Israel Aerospace Industries e Rafael Defence Industries são obrigadas a usar os serviços de nuvem fornecidos pela Amazon e pelo Google para suas necessidades de computação em nuvem. Como Israel é acusado de crimes de guerra, crimes contra a humanidade e genocídio tanto no Tribunal Penal Internacional quanto na Corte Internacional de Justiça, sua crescente cooperação com provedores comerciais pode potencialmente expô-lo à responsabilidade sob as estruturas de direito nacional e internacional.

Uma colcha de retalhos regulatória deficiente

O direito internacional regula os usos permitidos e proibidos da força – incluindo aqueles que envolvem o uso de tecnologia militar habilitada por IA – por meio do direito internacional humanitário (DIH) e proteções correlatas do direito internacional dos direitos humanos (DIDH). Os princípios fundamentais incluem a distinção civil-militar, que distingue entre civis e combatentes e proíbe o ataque direto a civis e bens civis (Artigos 48 e 52, AP1; direito internacional consuetudinário, conforme afirmado no parecer consultivo sobre armas nucleares); a proporcionalidade, que proíbe causar danos excessivos a civis; a necessidade, que restringe a força militar; e o direito à privacidade.



Embora as estruturas de governança do Direito Internacional Humanitário (DIH) sejam direcionadas e vinculem atores em nível estatal, os Estados podem criar e impor obrigações a entidades comerciais implementando e integrando essas disposições em seus marcos legais internos e confiando no princípio da jurisdição universal para crimes internacionais. A Suécia é uma jurisdição que permite a responsabilização penal corporativa dessa forma, com um julgamento em andamento de dois ex-executivos do setor de energia por supostamente auxiliarem e instigarem crimes de guerra no Sudão.

Não existe, no entanto, nenhuma regulamentação internacional vinculativa que cubra os riscos e usos específicos das tecnologias militares habilitadas por IA. Em vez disso, um conjunto fragmentado de declarações e resoluções aborda alguns aspectos do nexo IA-militar. A resolução 79/239 da Assembleia Geral das Nações Unidas sobre tecnologia militar de IA afirmou que os sistemas militares habilitados por IA são regidos pelo DIH e pelos Direitos Humanos Internacionais. A Declaração de Bletchley, assinada por 28 Estados em novembro de 2023, pediu inovação responsável baseada na colaboração internacional. A Declaração Política liderada pelos EUA sobre o Uso Militar Responsável da Inteligência Artificial e da Autonomia, endossada por 58 estados, pediu que os usos militares da IA ​​estejam em conformidade com o direito internacional, que humanos supervisionem os usos da IA ​​e que os estados tomem medidas para minimizar vieses não intencionais. A natureza não vinculativa desses instrumentos, no entanto, limita sua eficácia em impor restrições legais e éticas ao uso de tecnologias militares habilitadas por IA. Muitos fornecedores comerciais de IA se referem explicitamente aos Princípios Orientadores da ONU sobre Empresas e Direitos Humanos em suas políticas de direitos humanos. Esses princípios afirmam que as empresas devem "tratar o risco de causar ou contribuir para graves violações dos direitos humanos como uma questão de conformidade legal" (Princípio 23(c)), citando a potencial responsabilidade civil e criminal por não fazê-lo. Embora esses princípios não sejam juridicamente vinculativos, sua incorporação às políticas de direitos humanos das empresas cria obrigações internas que se espera que os fornecedores comerciais cumpram. As obrigações de due diligence da cadeia de suprimentos em jurisdições nacionais representam uma via pela qual as entidades comerciais podem estar sujeitas a litígios. O Conselho Irlandês para as Liberdades Civis, uma organização não governamental de direitos humanos, solicitou que a Comissão de Proteção de Dados da Irlanda investigue sua denúncia sobre o processamento, pela Microsoft, de dados de vigilância em massa de palestinos em nome de Israel. A ação judicial poderá, possivelmente, se estender a fornecedores comerciais de inteligência artificial no futuro. Nesse sentido, um grupo de organizações de defesa jurídica notificou recentemente a Microsoft de que há "base crível" para concluir que a empresa – por meio da prestação de serviços a Israel – "desempenhou um papel direto na prática de crimes graves por Israel contra a população palestina de Gaza", sujeitando a Microsoft à responsabilidade civil e criminal tanto em tribunais internacionais quanto nacionais. Após reportagens investigativas sobre o uso, por Israel, de servidores Microsoft Azure para hospedar dados de vigilância em massa sobre palestinos, uma investigação externa constatou que a Unit 8200 violou os termos de serviço da Microsoft ao armazenar dados de vigilância em massa, contrariando a IHRL, incluindo chamadas interceptadas. Embora a Microsoft tenha encerrado o acesso da Unit 8200, muitas outras entidades israelenses mantêm o acesso aos serviços da Microsoft. Um grupo de acionistas da Microsoft também apresentou uma proposta para investigar a eficácia dos procedimentos de diligência devida em direitos humanos da Microsoft em relação ao uso de tecnologias da Microsoft por Israel, embora a proposta não tenha sido aprovada. Empresas de tecnologia empregam vários métodos para contornar os mecanismos de governança corporativa. A OpenAI e o Google, por exemplo, alteraram discretamente seus termos de uso para inserir isenções de "segurança nacional" e removeram compromissos que proibiam seus clientes de usar IA para fins de armas e vigilância. Entretanto, jornalistas investigativos que analisaram os termos do contrato de US$ 1,2 bilhão do Projeto Nimbus entre Google e Amazon com Israel revelaram que o contrato inclui cláusulas que limitam a capacidade do Google e da Amazon de restringir o uso de suas tecnologias pelas autoridades governamentais israelenses. O acordo supostamente inclui uma cláusula que proíbe a Amazon e o Google de suspenderem o acesso de Israel caso o país viole os termos de serviço. O Projeto Nimbus também prevê a criação de um "mecanismo de sinalização" secreto, no qual a Amazon e o Google se comprometem a sinalizar secretamente a Israel que um terceiro país ordenou que uma das duas empresas entregasse dados israelenses. Tanto a Amazon quanto o Google negaram essas alegações.

Perspectivas

É de se esperar que as tecnologias militares baseadas em IA continuem a proliferar nos campos de batalha do Oriente Médio, aumentando os danos causados ​​a civis e bens civis e exacerbando as crises humanitárias. Muitas dessas tecnologias também estão sendo aplicadas fora das zonas de conflito para fins de policiamento preditivo e vigilância pública em massa, globalizando potenciais violações dos direitos humanos. Na ausência de responsabilização adequada, o Oriente Médio tornou-se um campo de testes para tecnologia militar baseada em IA, que é então comercializada internacionalmente como comprovada em combate.

Nenhum comentário:

Postar um comentário