Sistemas como o Sea Mob ainda não estão lá, mas estão preparando as bases para que as máquinas tomem decisões de vida ou morte. vale a LEITURA #CYBERWAR

EM BREVE NO CAMPO DE BATALHA: ROBÔS QUE PODEM MATAR (AUTONOMAMENTE)



As guerras de amanhã serão mais rápidas, mais tecnológicas e menos humanas do que nunca. Bem-vindo a uma nova era de guerra guiada por máquinas.




 A Ilha Wallops é uma área remota e pantanosa, localizada próxima à costa leste da Virgínia, perto de um famoso abrigo nacional de cavalos, e é conhecida principalmente como local de lançamento de foguetes governamentais e privados. É também um lugar calmo e perfeito para experimentar uma nova e revolucionária tecnologia de armas.

Se um barco de pesca tivesse passado pela área em outubro passado, a tripulação poderia ter visto meia dúzia de barcos infláveis ​​com cerca de 4 metros de comprimento lançados em águas rasas que mal chamavam sua atenção. Mas se os membros da tripulação olhassem com mais atenção, teriam visto que não havia ninguém a bordo: as alavancas do acelerador do motor subiam e desciam, sob controle de fantasmas. Os barcos estavam usando equipamentos de alta tecnologia para detectar o meio ambiente, se comunicar e se posicionar automaticamente, de modo que, em teoria, metralhadoras de calibre 50 fixadas na ponte pudessem disparar um fluxo constante de balas para proteger as tropas que desembarcavam na praia .

O esforço secreto, parte de um programa do Corpo de Fuzileiros Navais chamado Sea Mob, tinha como objetivo demonstrar que embarcações equipadas com tecnologia de ponta poderiam em breve realizar ataques letais sem uma mão humana direta no leme. Ele conseguiu: fontes familiarizadas com o teste o descreveram como um marco importante no desenvolvimento de uma nova onda de sistemas de armas de inteligência artificial que em breve chegará ao campo de batalha.

O armamento letal, em grande parte autônomo, não é algo completamente novo: vários desses sistemas foram implantados por décadas, embora apenas em casos específicos e em algumas situações limitadas e defensivas, como o lançamento de mísseis lançados em navios. Mas com o desenvolvimento de sistemas gerenciados pela IA, o exército está agora superando a fronteira na qual as máquinas de campo poderão lançar o ataque, selecionar alvos e tomar medidas letais sem intervenção humana direta.

Até agora, as autoridades militares dos EUA não deram total controle e autonomia às máquinas e dizem que não há planos firmes para fazê-lo. Muitos oficiais, instruídos por anos sobre a importância de ter controle sobre o campo de batalha, permanecem profundamente céticos quanto à entrega de tal autoridade a um robô. Os críticos, dentro e fora das forças armadas, preocupam-se em não conseguir prever ou entender as decisões tomadas pelas máquinas com inteligência artificial e que, de alguma forma, eles podem sair dos parâmetros impostos por seus inventores, ou erros e falhas no processo. programação, ou que pode ser hackeada e sequestrada pelo inimigo.

Mas se as desvantagens do uso de máquinas de guerra artificialmente inteligentes são óbvias, o mesmo ocorre com as vantagens. Os seres humanos geralmente levam cerca de um quarto de segundo para reagir a algo que vemos: pense em um batedor quando ele decide se mudar para um campo de beisebol. Mas agora as máquinas que criamos nos ultrapassaram, pelo menos na velocidade de processamento. No início deste ano, por exemplo, pesquisadores da Universidade Tecnológica Nanyang, em Cingapura, concentraram uma rede de computadores em um conjunto de dados de 1,2 milhão de imagens; O computador pode identificar todos os objetos representados em apenas 90 segundos ou 0,000075 segundos por imagem.

O resultado não foi perfeito, nem chegou a um ponto: a essa velocidade incrível, o sistema identificou corretamente os objetos apenas 58% das vezes, uma taxa que seria catastrófica no campo de batalha. No entanto, o fato de as máquinas poderem agir e reagir muito mais rapidamente do que nós é cada vez mais relevante à medida que o ritmo da guerra acelera.

Na próxima década, os mísseis voarão perto da Terra a uma milha por segundo, rápido demais para que os humanos tomem decisões defensivas cruciais por conta própria. Os drones atacam em enxames autodirecionados, e computadores especializados se atacam na velocidade da luz. Os humanos podem criar armas e dar-lhes instruções iniciais, mas depois disso, muitos oficiais militares prevêem que isso será apenas o começo. 

"O problema é que, quando você está lidando com [a guerra] em velocidade de máquina, em que ponto o humano é um impedimento?", Disse Robert Work, que atuou como oficial número 2 do Pentágono nas administrações de Obama e Trump uma entrevista. "Não há como um humano acompanhar,

Atualmente, cada ramo do exército dos EUA. UU. Ele está procurando maneiras de fazer exatamente isso: tire proveito dos enormes avanços no reconhecimento de imagens e no processamento de dados para criar uma guerra mais rápida, precisa e menos humana. 

A Marinha está experimentando um navio de 135 toneladas chamado Sea Hunter que pode patrulhar os oceanos não tripulados, procurando submarinos que possam um dia atacar diretamente. Em um teste, o navio já navegou as 2500 milhas do Havaí para a Califórnia por conta própria, embora sem armas.

Enquanto isso, o Exército está desenvolvendo um novo sistema para seus tanques que pode escolher alvos de forma inteligente e alvejá-los com suas armas. Também está desenvolvendo um sistema de mísseis, chamado Míssil Conjunto Ar-Terra (JAGM), que tem a capacidade de selecionar veículos para atacar sem controle humano; Em março, o Pentágono pediu ao Congresso dinheiro para comprar 1.051 JAGM, a um custo de US $ 367,3 milhões. 

E a Força Aérea está trabalhando em uma versão sem piloto de seu famoso avião de caça F-16 como parte de seu programa provocativo chamado "SkyBorg", que poderia um dia trazer armamentos substanciais para uma batalha gerenciada por computador.

Até hoje, quando os militares tentavam atacar um local distante, eles tinham que decidir quando e onde realizar o ataque e pressionar o botão "fogo"; seja usando aviões, mísseis, navios ou tanques para lançar e direcionar a bomba em direção ao alvo. No entanto, drones e sistemas como o Sea Mob estão eliminando o ser humano ao dirigir, e algoritmos de computador estão aprendendo a mirar no alvo. A principal questão pendente é se os comandantes militares permitirão que os robôs decidam autonomamente quando e como matar, principalmente nos momentos em que os links de comunicação foram interrompidos, o que provavelmente ocorrerá em tempos de guerra.

Até agora, novos sistemas de armas foram projetados para que os humanos ainda aprovassem o desencadeamento de sua violência letal, mas apenas pequenas modificações seriam necessárias para permitir que agissem sem a intervenção humana. As regras do Pentágono, estabelecidas durante o governo Obama, não proíbem conceder aos computadores a autoridade para tomar decisões letais; eles exigem apenas uma revisão mais cuidadosa dos projetos por altos funcionários. E assim, oficiais do serviço militar começaram o trabalho espinhoso e existencial de discutir como, quando e sob que circunstâncias eles deixarão as máquinas decidirem matar.

Os Estados Unidos não são o único país que está indo nessa direção. Já na década de 1990, Israel construiu um drone controlado por IA chamado HARPY, que paira sobre uma área e ataca independentemente os sistemas de radar; desde então, eles o venderam para a China e outros. No início dos anos 2000, a Grã-Bretanha desenvolveu o míssil Brimstone, que pode encontrar veículos no campo de batalha e coordenar-se com outros mísseis para decidir como, quando e onde atacar alvos dentro de uma área definida, embora quase não seja permitido o exercício de todos. essa autoridade

E o presidente russo, Vladimir Putin, se gabou em 2018 sobre o desdobramento de um submarino drone que, segundo ele, estava equipado com "munição nuclear", o que sugere algum grau de controle robótico da arma mais mortal da humanidade, embora não seja Ele disse quanta autonomia o drone teria. No ano anterior, Putin disse que confiar na inteligência artificial "oferece oportunidades colossais, mas também ameaças difíceis de prever". No entanto, ele acrescentou que a nação que lidera o desenvolvimento da IA ​​"se tornará o governante do mundo".

A China não fez tais alegações grandiloquentes, no entanto, o presidente Xi Jinping deixou as autoridades americanas nervosas ao afirmar em 2017 que seu país será líder mundial em inteligência artificial até 2030. O país parece estar melhorando principalmente sua vigilância doméstica com reconhecimento facial e outros sistemas de identificação por computador; Especialistas americanos dizem que essa tecnologia pode ser rapidamente usada militarmente.

O medo de que os EUA ser ultrapassado por um oponente, China ou Rússia, já desencadeou uma "Guerra Fria tecnológica", como o general aposentado do exército David Petraeus descreveu quando perguntado em uma entrevista à CNBC sobre os desafios que o Secretário agora enfrenta de Defesa Mark Esper. Até este ano, o Pentágono nunca pagou seus gastos com inteligência artificial, embora o Serviço de Pesquisa do Congresso calcule que o Departamento de Defesa gastou mais de US $ 600 milhões em trabalho não classificado de inteligência artificial no ano fiscal de 2016 e mais de 800 US $ milhões no ano fiscal de 2017.

Em março, o Pentágono disse que quer que o Congresso reserve mais (US $ 927 milhões) para o próximo ano para avançar em seus programas de inteligência artificial. Desse montante, US $ 209 milhões serão destinados ao novo escritório de IA do Pentágono, o Joint Artificial Intelligence Center (JAIC), criado em junho de 2018 para supervisionar todo o trabalho de IA que custa mais de US $ 15 milhões. A maior parte do trabalho do JAIC é classificada, e as autoridades falaram abertamente sobre os projetos de IA do Departamento de Defesa que se concentram no alívio de desastres.

Mas a empresa de consultoria Govini estimou em seu Federal Score Card de 2019 que aproximadamente um quarto dos gastos com inteligência artificial do Pentágono nos últimos cinco anos foram dedicados à pesquisa básica, e o restante está dividido entre o desenvolvimento de software que pode classifique os dados que o Pentágono já possui e crie melhores sensores para alimentar dados com algoritmos de computador, marcos importantes no caminho para o combate controlado por máquinas. 

O Pentágono falou pouco sobre esses esforços, mas documentos públicos e entrevistas com altos funcionários e fontes confidenciais deixam claro que os militares estão preparando as bases para a IA assumir cada vez mais operações militares, mesmo que a tecnologia Ainda não está pronto para assumir o controle completo.

O trabalho do navio autônomo da Marinha foi parcialmente inspirado por um desafio em Marte.

Os cientistas da NASA que ajudaram a enviar os veículos espíritos e Opportunity para Marte em 2003 sabiam que depois que o navio aterrissava no final de sua jornada de 286 milhões de milhas, seria impossível a comunicação urgente em alta velocidade: uma instrução simples enviada da Terra para impedir que um deles caísse em uma rocha, chegaria 10 minutos após a queda. Portanto, os cientistas tiveram que desenvolver sensores e computadores que permitissem aos rovers navegar em seus próprios elementos perigosos no solo de Marte. O esforço foi um grande sucesso: originalmente projetado para durar apenas 90 dias e percorrer 800 metros cada, os veículos acabaram cruzando quilômetros da superfície do planeta,

A conquista chamou a atenção de cientistas dos escritórios do Naval Surface War Center, em Bethesda, Maryland, que pediram a uma equipe que ajudasse a projetar os sensores dos rovers para ajudar a Marinha a criar melhores navios autônomos. Mas enquanto os rovers de Marte atravessavam um terreno rochoso, montanhoso e imóvel, os navios autônomos da Marinha operavam em águas em movimento, onde teriam que sobreviver às ondas, outros navios, vida marinha e condições climáticas muito variáveis. Isso exigia o domínio e o aprimoramento das habilidades de identificação do sensor.

Muito do trabalho foi realizado por Michael Wolf, que ingressou no JPL (Laboratório de Propulsão a Jato) da NASA imediatamente após obter seu doutorado no Instituto de Tecnologia da Califórnia. A Marinha, quando procurava trabalho em uma entrevista, recusou-se a contratar ele ou os outros trabalhadores da JPL. Mas ele e seus colegas publicaram os primeiros trabalhos de pesquisa nos quais chamaram sua solução de Savant: análise visual autônoma de superfície e rastreamento.

Quando a Marinha o testou pela primeira vez, em 2009, de acordo com um dos documentos e fotos oficiais, Savant parecia o topo de um farol ao redor do mastro do navio, tinha seis câmeras posicionadas em círculo dentro de uma caixa resistente a intemperismo Suas imagens foram introduzidas em um sistema de computador que permitia a comparação com uma biblioteca de dados de cenas marinhas, incluindo um número crescente de navios.

O sistema JPL foi projetado para aprender e ser mais inteligente enquanto funciona, usando a auto-aprendizagem contínua, que é o coração de todos os principais desenvolvimentos de IA nos últimos cinco anos. O primeiro teste do sistema naval utilizou apenas um único navio. No entanto, em 2014, Wolf não apenas integrou um melhor reconhecimento de imagem, mas também ajudou a escrever algoritmos que permitiam que vários navios trabalhassem cooperativamente contra inimigos em potencial, de acordo com a Marinha.

Fundamentalmente, todos os navios compartilham os dados coletados por seus sensores, criando uma visão comum, permitindo que cada um deles decida o que fazer. Juntos, eles funcionam como um grupo de batalha inteligente, ou um esquadrão da marinha. Cada navio faz o que acha melhor para si, mas também faz parte de um balé orquestrado destinado a enxamear e derrotar vários alvos em potencial.

Daí o nome da Marinha para o programa: Embarcações. Inicialmente, a ambição era exclusivamente defensiva: encontrar uma maneira de evitar um ataque como o do USS Cole em 2000, no qual dois homens-bomba atacaram um pequeno barco cheio de explosivos ao lado do navio militar durante o reabastecimento. O porto iemenita de Aden. Dezessete marinheiros foram mortos, outros 39 ficaram feridos e o destróier ficou fora de serviço por mais de um ano de reparos.

Em um teste de 2014 no rio James, perto de Newport News, Virgínia, a eficácia do programa foi demonstrada em uma situação em que cinco navios navegavam em coordenação com outros que consideravam hostis. Esse teste foi realizado exatamente quando um grupo de entusiastas da IA ​​no Pentágono iniciou uma grande pressão pela adoção generalizada dessa tecnologia. O sistema JPL chamou a atenção de um pequeno escritório secreto da agência: o Office of Strategic Capabilities (SCO). Cumprindo seu mandato de acelerar a adoção militar de tecnologias avançadas, a SCO acelerou o trabalho e o direcionou para possíveis aplicações ofensivas. Em parte como resultado, o sistema JPL de controle autônomo não foi aplicado apenas ao programa Sea Mob do Marine Corps, Agora está sendo desenvolvido a partir de drones pelo Escritório de Pesquisa Naval e pelo Centro de Pesquisa, Desenvolvimento e Engenharia de Tanques Autônomos para uso em veículos terrestres pelo Exército dos EUA. UU., Segundo duas fontes bem informadas.

A SCO foi executada por meia década após sua criação em 2012 por Will Roper, um matemático e físico que anteriormente era o arquiteto-chefe de uma dúzia de sistemas de armas na Agência de Defesa contra Mísseis. Quando falei com ele em 2017 sobre esse trabalho, seu rosto jovem se iluminou e suas palavras ganharam força. "Ele fará coisas incríveis", disse ele. "Para mim, o aprendizado de máquina, que é uma variante da IA, será o que produzirá o maior impacto e o mais importante em segurança nacional na próxima década."

Roper, que agora chefia o departamento para a compra de todas as armas da Força Aérea, disse a repórteres este ano que, embora a Força Aérea tenha tentado proteger seus pilotos para que não sejam obsoletos por aviões inteligentes não tripulados ", Eu recebo os jovens pilotos que entram na Força Aérea empolgados com essa idéia, que não a veem como concorrente do piloto humano ". 

Até agora, disse Roper a repórteres, ele não tem os programas de inteligência artificial que deseja colocar "nas mãos do guerreiro". Mas isso mudará em breve, e a tecnologia "se moverá tão rápido que nossas políticas terão dificuldades em acompanhar tudo isso".

Ele disse: a IA é "a tecnologia que me deu mais esperança e medo nos últimos cinco anos neste trabalho". O medo que temos, como Roper explicou, é que outros países encontrem maneiras de tirar proveito da IA ​​antes de nós. Roper disse que o país que é o primeiro a integrar inteligência artificial em seu arsenal poderia adquirir "uma vantagem definitiva".

Fei-Fei Li ensinou ciência da computação na Universidade de Illinois em Urbana-Champaign, há mais de uma década, quando começou a refletir sobre como melhorar os algoritmos de reconhecimento de imagem. O desafio foi surpreendentemente direto: os computadores precisavam ser mais inteligentes e, para isso, precisavam praticar. Mas eles não poderiam praticar bem se não tivessem acesso a um grande número de imagens com as quais aprender.

Então, em 2007, Li começou a trabalhar no que se tornaria o ImageNet, uma biblioteca de 3,2 milhões de imagens marcadas por humanos para treinar algoritmos de IA. O ImageNet serviu como um tipo de pedra de Rosetta para pesquisas que agora são canalizadas para o desenvolvimento de armas futuristas. Em 2009, Li e sua equipe de quatro outros pesquisadores em Princeton tornaram público o conjunto de dados e, no ano seguinte, equipes de todo o mundo começaram a competir para criar o melhor algoritmo que pudesse dar sentido a todas essas imagens.

A cada ano, os algoritmos melhoram um pouco. Logo, algumas equipes começaram a integrar redes neurais, um modelo de computador projetado para imitar a estrutura do cérebro humano com camadas de grupos de processamento de dados que imitam neurônios. Em 2015, dois deles, uma equipe da Microsoft e uma do Google, relataram resultados surpreendentes: eles criaram algoritmos que, segundo eles, poderiam funcionar melhor que os humanos. Enquanto os seres humanos rotularam incorretamente as imagens em 5,1% das vezes, os algoritmos do Google e da Microsoft atingiram taxas de erro abaixo de 5%.

Li, que já se mudara para a Universidade de Stanford, achava que essa conquista era um ponto de referência interessante, mas desconfiava das manchetes que declaravam a supremacia dos computadores. O projeto ImageNet mostrou que "para essa tarefa específica, com esse conjunto de dados específico, algoritmos muito poderosos com aprendizado profundo funcionaram muito bem", Li me disse em uma entrevista. "Mas como pesquisador que estuda isso há 20 anos, não foi um momento de" Oh meu Deus, máquinas atingem seres humanos ".

A visão humana é extremamente complexa, explicou, e inclui habilidades como ler movimentos faciais e outras dicas sutis. O concurso ImageNet não criou algoritmos de computador que veriam o mundo com todas as suas gradações. Mas ajudou a promover o aprendizado de máquina. "É muito parecido com dizer que ele usa uma placa de Petri para estudar a penicilina até que ela finalmente se torne um antibiótico de uso geral para humanos", disse ele. “ImageNet era aquela placa de Petri de bactérias. Felizmente, o trabalho levou a um grande progresso nos algoritmos de aprendizado profundo. "

Um estudante de doutorado em IA chamado Matt Zeiler, por exemplo, alcançou a melhor taxa de marcação ImageNet de 2013 e, em seguida, usou o sistema de IA que ele havia desenvolvido para lançar uma empresa chamada Clarafai. Atualmente, Clarafai é uma das empresas de tecnologia que trabalha com o Pentágono no Projeto Maven, que usa inteligência artificial para encontrar imagens de satélite e drones e identificar e rastrear objetos que podem ser atacados.

Os pesquisadores de reconhecimento de imagem não resolveram todos os problemas. Um grupo de nove cientistas de quatro universidades dos EUA. UU. Eles trabalharam juntos em um teste de 2018 para ver se colar pequenos adesivos em preto e branco nos sinais de parada poderia enganar os sistemas avançados de reconhecimento de imagem. 85% das vezes, os algoritmos determinaram que os sinais de parada levemente alterados não eram sinais de parada. Os pesquisadores chamam esse tipo de incapacidade de se adaptar às condições de "fragilidade" na IA, e é um dos principais problemas enfrentados nesse campo. Considere, por exemplo, o que significa a incapacidade de reconhecer sinais de PARAGEM para carros sem motorista.

Mas as notícias das incríveis conquistas do Google e da Microsoft com o ImageNet em 2015 ajudaram a convencer as autoridades do Pentágono de que "as máquinas poderiam ser melhores na detecção de objetos" do que os humanos, lembrou Robert Work, vice-secretário de defesa, uma habilidade crucial que pode definir o que é morto automaticamente e o que é salvo automaticamente. 

"Em relação ao Departamento de Defesa, esse foi um dia importante", afirmou.

O Phalanx é uma arma naval de seis canhões que dispara 75 balas por segundo a partir do convés de navios médios e grandes da Marinha e fica nervoso antes de disparar. Ele faz inúmeras pequenas correções quando começa a rastrear ameaças de entrada a três quilômetros de distância, incluindo mísseis e aviões. Ele também rastreia suas próprias balas, para verificar se elas estão se concentrando no objetivo. Faz tudo isso sem intervenção humana.

Um de seus radares, contido em uma grande cúpula que faz o sistema em geral parecer um silo de grãos com uma arma saliente, busca constantemente novos alvos; Quando o movimento de um alvo corresponde a um padrão contido em uma biblioteca de ameaças em potencial, a arma abre fogo. O segundo radar, localizado mais abaixo da cúpula Phalanx, rastreia onde todas as balas vão para que o sistema possa fazer ajustes enquanto disparam.

O falange não é uma novidade. Está em navios da Marinha há aproximadamente 30 anos e foi vendido a duas dúzias de aliados dos EUA. UU. Essa longa história é uma das razões pelas quais oficiais da Marinha, como o contra-almirante David Hahn, se sentem à vontade para permitir que as máquinas tomem decisões letais em um conflito. Hahn tem uma longa história com inteligência artificial: depois de se formar na Academia Naval, Hahn foi designado para o USS Casimir Pulaski, um navio de 425 pés que dependia de computadores para ajudar a controlar seu reator nuclear. "Qual é o seu papel, como humano, é supervisionar esses [sistemas] e então, quando você tiver que agir, intervir", disse-me Hahn. Mas "muitas vezes você não é rápido o suficiente,

Hahn agora dirige o Escritório de Pesquisa Naval (ONR), que tem um orçamento de US $ 1,7 bilhão e supervisiona os esforços da Marinha para introduzir inteligência artificial em mais de seus sistemas. "Hoje temos todas essas conversas sobre como isso é novo ou diferente", disse Hahn. “Não, é apenas uma maneira diferente. Pode ser mais rápido, pode ser um conjunto mais completo de dados, pode ser maior, mas os fundamentos são os mesmos ".

Seu escritório era um dos patrocinadores originais do programa Sea Mob, mas nem ele nem o Corpo de Fuzileiros queriam falar sobre isso ou discutir o teste de outubro de 2018. Uma fonte familiarizada com o programa disse que está progredindo da identificação do navio para a capacidade de tomar decisões sobre se são amigáveis ​​ou ameaçadoras, dependendo de seu comportamento na água. Isso requer rastrear seus movimentos e compará-los com dados de ameaças novos e mais complexos, que ainda são coletados. O software para rastrear os movimentos de um navio que se aproxima e compará-los com possíveis ameaças já está em operação.

Outros programas de autonomia naval estão sendo construídos para navios muito maiores, como o Sea Hunter, de 132 pés, lançado pela primeira vez em 2016. Como a Marinha poderia armar o Sea Hunter ainda não está claro, mas a guerra antissubmarina do A superfície do oceano geralmente requer que soem torpedos, montados no navio ou arrastados abaixo da superfície. 

Uma razão pela qual a autonomia é tão importante é que os comandantes estão preocupados com o fato de o bloqueio por rádio e os ataques cibernéticos poderem fazer com que os navios percam o contato no futuro. Se isso acontecer, os sistemas de armas de um navio robótico precisarão agir por conta própria ou serão inúteis.

Robert Brizzolara, que administra o programa Sea Hunter, diz que grande parte do trabalho para preparar o sistema para uso no campo de batalha está concluído e será entregue ao Comando de Sistemas Marítimos Naval no próximo ano para os engenheiros descobrirem. Como o navio poderia funcionar Esteja armado e usado em combate. No entanto, os testes continuarão, em um esforço para convencer os comandantes de que eles podem ser um parceiro confiável no conflito. 

"Os marinheiros e seus comandantes terão que confiar que os sistemas autônomos farão a coisa certa na hora certa", disse Brizzolara. Para criar essa confiança, Brizzolara planeja recorrer aos comandantes com "um conjunto de evidências que possamos apresentar para convencê-los" ou guiar novas evidências.

A Marinha não está apenas olhando para sistemas independentes que podem operar sobre o mar; Também está experimentando pequenos submarinos não tripulados autônomos que podem procurar minas marinhas não explodidas e implantar bombas destinadas a detoná-las, economizando navios maiores e mais caros que transportam seres humanos para outras tarefas. É uma arena fértil para autonomia, porque as chances de vítimas acidentais sob a água são reduzidas.

Hahn descreveu essas contra-naves, sendo o MK18 a versão mais usada, como uma porta de entrada para o uso naval mais amplo de sistemas subaquáticos não tripulados. “Isso leva você a guerra anti-submarina? Não, mas leva você nesse domínio ao longo do caminho de várias maneiras ”, disse ele. "E então você pode entender como são os desafios se tentar aplicar isso [a um navio autônomo] em vez de a um objeto que se move pela água e tem humanos para guiá-lo".

Em fevereiro, a Boeing recebeu um contrato de US $ 43 milhões para construir quatro submarinos autônomos até 2022. Cada um terá 51 pés de comprimento e poderá viajar 11.500 milhas debaixo d'água. Uma vez construída, a Marinha planeja experimentar como os navios podem ser usados ​​para atacar submarinos e navios de superfície, de acordo com documentos da Marinha. Quando perguntada sobre o programa, a Boeing endereçou todas as perguntas ao Comando de Sistemas Marítimos Naval, e um porta-voz do comando se recusou a fornecer detalhes, e disse apenas que os navios "passariam por um rigoroso plano de integração e teste". .

O crescente interesse do Pentágono em armamento autônomo se deve em parte aos saltos em ciência da computação e engenharia, mas também é em grande parte o trabalho de Robert Work, que passou 27 anos na Marinha antes de se tornar vice-secretário de Defesa. O trabalho passou grande parte de seu tempo, tanto de uniforme quanto no exterior, estudando história e estratégia militar. Mesmo agora, tendo servido duas vezes em obras civis no Pentágono, ele ainda tem o ar de um oficial, com óculos de aviador com lentes transparentes e entusiasmo para discutir batalhas históricas que demonstram tecnologias ou táticas importantes.

Enquanto o Trabalho estava no Center for New American Security, um grupo de especialistas em Washington, em 2013, ele e seus colegas ficaram surpresos com o resultado de algumas simulações classificadas do Pentágono de conflitos teóricos com a China ou a Rússia. Após a Guerra Fria, esses tipos de exercícios geralmente terminavam com os Estados Unidos reivindicando uma vitória decisiva ou um Armagedon nuclear. Mas as novas simulações deixaram claro que a vantagem tecnológica dos Estados Unidos estava começando a evaporar, dizem ele e outros. Novas tecnologias disruptivas haviam nivelado o campo de jogo, causando "o azul [a ser posto ... ... sua bunda foi entregue" às ​​vezes, no vernáculo colorido de março de um analista da RAND Corporation em Washington.

O trabalho concluiu que EE. UU. Ele precisava intensificar seu jogo, como fez por mais dois momentos no último meio século, quando seu domínio no campo de batalha foi questionado. Uma delas foi no início da Guerra Fria, quando o Pentágono percebeu que não era capaz de defender adequadamente a Europa de uma invasão terrestre soviética e respondeu com pequenas armas nucleares destinadas a conter o avanço das forças soviéticas. A segunda foi na década de 1970, quando ficou claro que bombas e mísseis guiados eram necessários para dar aos comandantes militares opções abaixo para bombardear áreas inteiras no campo de batalha.

No início de 2014, a Work começou a publicar relatórios descrevendo a necessidade de armas de ponta, flexíveis, rápidas e econômicas que poderiam tornar as forças americanas mais ágeis e menos dependentes de porta-aviões e outros equipamentos vulneráveis. Então, em fevereiro daquele ano, o presidente Barack Obama o nomeou o próximo subsecretário de defesa. Vários meses depois, a Work lançou formalmente sua iniciativa tecnológica.

"Em laboratórios e fábricas ao redor do mundo ... muito tempo, dinheiro e mão de obra são gastos para desenvolver a próxima onda de tecnologias militares disruptivas", disse Work em 5 de agosto de 2014, falando na Universidade Defesa Nacional. "Para manter nossa superioridade tecnológica durante a transição de um regime de guerra para outro, precisamos começar a nos preparar agora."

O trabalho não mencionou expressamente a inteligência artificial e, em sua descrição inicial, ao falar sobre "tecnologias", era muito amplo, concentrando-se principalmente na idéia de agilidade e flexibilidade, e não em algum tipo específico de arma militar. Porém, uma vez que Work e outros identificaram os tipos de tecnologias que eles acreditavam que poderiam influenciar o equilíbrio de poder em favor dos Estados Unidos, a saber: guerra cibernética, inteligência artificial e armas hipersônicas, começando a contribuir com dinheiro e trabalho para preparar essas tecnologias para o combate.

Outros países, quando viram os Estados Unidos apostando em novas tecnologias, decidiram que deveriam criar suas próprias opções militares inovadoras. Em 2016, a China apresentou a Junweikejiwei, sua nova agência de pesquisa e desenvolvimento militar inspirada na Agência de Projetos de Pesquisa Avançada de Defesa dos Estados Unidos (DARPA). Da mesma forma, a Rússia tem o Instituto Skolkovo de Ciência e Tecnologia fora de Moscou, que fontes de inteligência de defesa descrevem como outro clone da DARPA. Skolkovo foi originalmente fundado em parceria com o Instituto de Tecnologia de Massachusetts, mas a universidade se retirou do acordo no início de 2019, depois que o bilionário russo Viktor Vekselberg, que financiou o projeto, foi sancionado pelos EUA. UU.

O trabalho sempre tentou calibrar as expectativas nos resultados de seu esforço tecnológico, deixando claro que as máquinas poderiam devolver sua vantagem militar aos Estados Unidos, mas elas não farão com que as guerras se desenvolvam precisamente de acordo com os melhores planos estabelecidos no país. humano 

"Haverá momentos em que as máquinas cometerão erros", disse Work em uma entrevista recente. “Não estamos procurando a máquina onisciente que nunca está errada. O que procuramos são máquinas que foram testadas a ponto de termos a confiança de que a IA fará o que é esperado e esperamos explicar por que ela tomou a decisão ".

Ainda assim, Work argumenta que a IA tem a oportunidade de salvar vidas devido à precisão da qual os computadores podem tirar proveito. "A IA tornará as armas mais discriminatórias e melhores, menos propensas a violar as leis da guerra, menos propensas a matar civis, menos propensas a causar danos colaterais", afirmou ele.

O trabalho, como todos os atuais e ex-oficiais que discutiram o futuro da IA ​​em armas comigo, disse que não conhece ninguém no exército que agora está tentando eliminar completamente os seres humanos da tomada de decisões letais. Nenhum sistema ofensivo desse tipo foi submetido ao processo de revisão especializado criado por uma diretiva do Pentágono da era Obama, embora os procedimentos tenham recebido muita atenção interna, de acordo com autoridades atuais e ex-funcionários do Departamento de Defesa.

O trabalho também fala sobre a condição improvável de que as máquinas sejam totalmente autônomas, que escolham seus próprios objetivos completamente, ou aquelas que acabam em uma terrível situação de revolta como nos filmes Terminator, dizendo que é improvável que isso ocorrem porque as tecnologias ofensivas desenvolvidas têm aplicações limitadas. "Eles só podem atacar as coisas que autorizamos", disse Work.

As idéias de trabalho obtiveram uma audiência abrangente do general da Força Aérea Paul Selva, que se aposentou como vice-presidente do Estado-Maior Conjunto em julho e foi um dos principais patrocinadores de inovações relacionadas à IA. Jungle falou sem rodeios sobre o "enigma do Terminator", a questão de como lidar com a chegada de máquinas capazes de decidir matar por conta própria.

Falando com um grupo de especialistas em Washington em 2016, ele deixou claro que o problema não era hipotético: “No mundo da autonomia, vendo o que nossos concorrentes poderiam fazer no mesmo campo, a noção de um sistema completamente autônomo que Posso tomar uma decisão sobre infligir ou não danos a um adversário ", disse ele." Não é altamente eficiente, não é bom o suficiente, mas está aqui ".

Ele também explicou em junho na Brookings Institution que as máquinas podem ser instruídas a detectar a presença de alvos seguindo as instruções específicas de um programador. Nesse caso, disse Selva, as máquinas reconhecem as características únicas de identificação de um ou mais objetivos, seu "padrão", e podem ser instruídas a agir quando identificam claramente um alvo. "É o código que escrevemos ... Os padrões são conhecidos, portanto, as consequências são conhecidas."

Com a inteligência artificial, disse Selva em Brookings, as máquinas podem receber instruções menos diretas para "aprender o padrão". Depois, eles podem ser informados: "Depois de aprender o padrão, identifique o objetivo". Nesses casos, as máquinas não apenas executam instruções escritas por outras pessoas, mas também agem na programação que elas mesmas criaram, depois de aprender com a experiência, própria ou de outra pessoa. 

Selva disse que, até agora, o exército evitou tomar decisões para matar diretamente máquinas inteligentes. Mas ele recomendou um amplo "debate nacional", no qual as implicações de deixar as máquinas escolherem quem e quando matar podem ser medidas.

Sistemas como o Sea Mob ainda não estão lá, mas estão preparando as bases para que as máquinas tomem decisões de vida ou morte. Na obscura representação dos filmes Terminator, um sistema militar de inteligência artificial chamado SkyNet decide aniquilar a humanidade. Um dos contratados que trabalha na Sea Mob concluiu suas apresentações no programa com uma referência aos filmes: "Estamos construindo o SkyNet", diz o último slide da apresentação em PowerPoint, meio brincando. Mas "nosso trabalho é garantir que os robôs não nos matem". 

Este artigo é uma colaboração entre o The Atlantic e o Center for Public Integrity, uma redação de pesquisa não lucrativa e apartidária em Washington,

https://oniria706.blogspot.com/2019/09/proximamente-en-el-campo-de-batalla.html