Spot, o cachorro robô | Foto: Boston Dynamics
Spot, o cachorro robô | Foto: Boston Dynamics

Robôs armados: o sonho e o pesadelo

Que eles se tornassem armas, era uma questão inevitável. Tão inevitável quanto provocar uma reação de medo

Imagine só: um robô é testado num campo de provas. Recebe uma arma, atira em alvos que nunca erra, mesmo quando é espancado e derrubado a chutes. Não atinge humanos, nem mesmo quando ameaçado por uma metralhadora. Sabe distinguir entre homens e bonecos. Acerta o alvo mesmo quando perturbado por uma nuvem de abelhas. Leva uma surra, mas nunca dispara em quem o agride. Porque foi programado assim.

Não precisa imaginar.

Se você pensou em adquirir um robô desses, sinto muito. O vídeo acima é uma encenação produzida por um estúdio de efeitos especiais. Mas o conceito, mesmo que fictício, fica valendo: um “policial” ou “segurança” que obedecem a todas as nossas ordens, é infalível, indestrutível, capaz de acertar no alvo correto com um único tiro, sem que nenhuma bala se perca. E incapaz de agir por impulso, nervosismo ou falha.

É bom ir se acostumando com a ideia. O processo ainda está no início, mas é irreversível. A combinação de robôs e armas já é uma realidade. Veja o exemplo do “cão robô armado” apresentado recentemente numa feira de artigos militares e de segurança realizada em Washington.

Cachorro robô armado Vision 60 | Foto: Divulgação Ghost Robotics/Sword International

Este é um modelo ainda sem nome do “robô quadrúpede” Vision 60, construído pela Ghost Robotics e equipado com uma arma da Sword International. A arma possui zoom 30X, câmera termal e alcance de 1.200 metros. Eles já estão sendo testados pelos militares americanos. Segundo o site The Verge, esse cachorrão mecânico mal-encarado está patrulhando o perímetro da base Tyndall, da Força Aérea. A ideia inicial dos militares foi usar o robô para vigiar locais que não são “desejáveis para seres humanos nem veículos” — como o pântano da Flórida, onde está localizada a base.

Enxames de drones

O futuro desses robôs militares inclui funcionar como torres móveis de sinal de celulares, desarmar bombas e detectar armas CBRN (químicas, biológicas, radiológicas e nucleares). Ou simplesmente dar tiros. A empresa Boston Dynamics se nega a desenvolver robôs letais. Outras, como a Ghost/Sword, não enxergam problema nisso e projetam seus Laws — sigla em inglês que significa Sistema de Armas Autônomas Letais, ou simplesmente “robôs matadores”.

Robôs já estão fazendo entregas, fritando batatas em lanchonetes, escrevendo peças de teatro e artigos para a imprensa, realizando shows de humor stand up ou simplesmente passeando nas ruas, causando espanto nos cães de carne e osso.

Que os robôs se tornassem armas, era uma questão natural e inevitável. Tão natural e inevitável quanto provocar uma reação de medo. E se os robôs armados fugirem ao controle, como na série de filmes O Exterminador do Futuro?

O lendário secretário de Estado americano Henry Kissinger lançou recentemente um livro se opondo à crescente entrega dos mais poderosos arsenais a sistemas de inteligência artificial. É uma perspectiva de tirar o sono. O pesadelo pode tomar a forma do país A atacando o país B com uma nuvem de drones armados conectados com aviões e navios também funcionando por inteligência artificial. Tudo isso combinado com um ataque de hackers aos sistemas de defesa do inimigo. Essa possibilidade militar é tão arrasadora que pode levar o país B a usar seu próprio sistema automático de defesa para um contra-ataque preventivo e… estabelece-se o caos.

O homem que salvou o mundo

O que nos faz lembrar de Stanislav Petrov. Você provavelmente nunca ouviu falar de Stanislav Yevgrafovich Petrov. Mas estamos vivos em parte por causa dele.

Petrov era um operador de radar das Forças Armadas da União Soviética. Em 26 de setembro de 1983, ele observou no radar que aparentemente um míssil americano havia sido disparado em direção à Rússia, seguido por cinco outros foguetes.

Stanislav Petrov, o “homem que salvou o mundo” | Foto: Reprodução

Sua obrigação como militar era avisar imediatamente o fato a seus superiores. O protocolo era claro: em caso de ataque nuclear, a URSS deveria responder com um ataque maciço de seus próprios mísseis em direção aos EUA e seus aliados. Que responderiam da mesma forma e, assim, a civilização estaria extinta, assim como a vida no planeta Terra.

Mas Stanislav Petrov sentiu que havia algo errado. Se os americanos estivessem atacando mesmo a União Soviética, por que usariam apenas seis mísseis? Ele decidiu esperar por mais alguns angustiantes minutos antes de dar o alerta ao Kremlin. E então os supostos “mísseis americanos” sumiram de seu radar. Era apenas um falso alarme, provocado por um fenômeno meteorológico. Os minutos de hesitação de Petrov se tornaram o exemplo mais clássico da diferença que faz o fator humano numa situação tensa e letal ao extremo. Um sistema de inteligência artificial talvez não esperasse esses preciosos minutos antes de responder ao falso ataque.

Drones autônomos foram usados pela primeira vez por uma milícia na Líbia, no ano passado, para caçar e matar automaticamente soldados leais a um chefão local. Outro uso prático aconteceu também em 2020, quando uma arma de altíssima precisão foi montada por agentes israelenses numa estrada do Irã. Quando reconheceu seu alvo — Mohsen Fakhrizadeh, chefe do programa nuclear iraniano —, a arma disparou automaticamente. O tiro foi tão certeiro que a mulher do cientista, que viajava a seu lado, não sofreu nenhum arranhão.

O Robocop de Huntington Park

A possibilidade de usar killer robots tem seus defensores. O general britânico Sir Richard Barrons resume a lógica dessa posição: “Posso construir uma máquina que vá até um lugar perigoso e mate o inimigo. Ou posso mandar seu filho — porque essa é a alternativa. Como você se sente agora?”. Segundo o general Barrons, “robôs são baratos, descartáveis, não precisam de férias, pagamento nem treinamento”. E não cometem falhas.

Tudo é uma questão de perspectiva. Robôs atacando populações civis são um pesadelo. Mas que tal robôs matando com precisão os terroristas do Isis, aqueles mesmos que decepavam cabeças de civis e escravizavam mulheres? Ou usar robôs para penetrar em locais controlados por bandos de traficantes e marginais perigosos?

A China está criando ‘enxames’ de pequenos drones, enquanto a Rússia construiu um tanque robô

Robôs podem ser usados em trabalhos policiais até mesmo sem estar armados. A cidade de Huntington Park, na Califórnia, está testando o HP Robocop, um modelo K5 produzido pela Knightscope, ao preço médio de US$ 65 mil por ano, o equivalente a R$ 369 mil. O “guarda” em formato oval passa 24 horas por dia, sete dias por semana registrando o que acontece ao redor dele usando quatro câmeras permanentemente conectadas à central de polícia. Um botão em seu corpo pode ser usado pelos cidadãos para chamar os policiais humanos em emergências. E o robô ainda dá lições de civilidade, repetindo mensagens como “Mantenha o parque limpo”. O número de crimes já caiu na zona patrulhada pelo HP Robocop.

No fim de novembro, o governo da Nova Zelândia aderiu a um plano para banir os chamados sistemas autônomos de armamento, os killer robots. Já fazem parte desse movimento outros 30 países, incluindo o Brasil.

O terror vindo do alto

Segundo a organização Anistia Internacional, “países como EUA, China, Israel, Coreia do Sul, Rússia, Austrália, Índia, Turquia e Reino Unido estão investindo pesadamente no desenvolvimento de sistemas autônomos. O Reino Unido, por exemplo, está desenvolvendo um drone automático que pode voar em modo autônomo e identificar um alvo dentro de uma área determinada. A China está criando ‘enxames’ de pequenos drones que podem ser programados para atacar tudo o que emita a temperatura corporal, enquanto a Rússia construiu um tanque robô que pode ser equipado com uma metralhadora ou um lançador de granadas”. A Anistia Internacional age numa “coalisão de 180 ONGs internacionais, regionais e nacionais com parceiros acadêmicos trabalhando em 66 países para assegurar o controle humano sobre o uso da força através do desenvolvimento de uma nova lei internacional”.

Você pode desconfiar de ONGs e do atual papa Francisco I (que também condena os killer robots). Eles podem estar seguindo o mesmo impulso do “corporativismo humano”, que tenta lutar contra metrôs sem condutores ou carros sem motoristas. Mas não adianta fugir da realidade. Não existe uma conclusão simples para essa questão. Vivemos uma situação nova, que exige um novo modo de pensar.

A revista Newsweek recentemente dedicou uma capa à possibilidade (real) do uso de drones por grupos terroristas. Não é uma perspectiva futura. Tropas americanas no Iraque e na Síria já foram atacadas por drones explosivos usados pelos terroristas do Estado Islâmico. Israel já enfrenta drones lançados por grupos extremistas a serviço do Irã.

Parece ser apenas uma questão de tempo até que algum grupo de alucinados use drones para tentar derrubar aviões ou explodir, por exemplo, um estádio esportivo lotado. É uma perspectiva horrível. Mas que exige uma resposta à altura. Não nos defenderemos dessa ameaça potencial com manifestos assinados por ONGs pacifistas.

Leia também “O dono do mundo”

-Publicidade-
* O espaço para comentários é destinado ao debate saudável de ideias. Não serão aceitas postagens com expressões inapropriadas ou agressões pessoais.

1 comentário Ver comentários

Envie um comentário

Conteúdo exclusivo para assinantes.

Seja nosso assinante!
Tenha acesso ilimitado a todo conteúdo por apenas R$ 19,90 mensais.

Revista OESTE, a primeira plataforma de conteúdo cem por cento
comprometida com a defesa do capitalismo e do livre mercado.

Meios de pagamento
Site seguro
Seja nosso assinante!

Reportagens e artigos exclusivos produzidos pela melhor equipe de jornalistas do Brasil.