A Olimpíada de Paris chama a atenção pelos esportes, mas mais ainda pelo que ocorre fora das quadras. Uma abertura com ofensas religiosas, um apagão no dia seguinte e uma ameaça terrorista no dia anterior, que deixou boa parte da cidade sem trens. Mas a atuação de governos e empresas privadas para lidar com os perigos pode ter consequências igualmente assustadoras.
O governo francês implementou o uso avançado de ferramentas de vigilância e coleta de dados da população. Em destaque está o uso controverso de vigilância experimental de vídeo por inteligência artificial (IA). O governo fez uso tão extenso que o país teve que mudar suas leis para tornar a vigilância planejada legal.
O gabinete do primeiro-ministro aumentou em 20% o uso de vigilância secreta para os Jogos, o que inclui escuta telefônica, coleta de geolocalização, comunicações e dados de computador. E captura de maiores quantidades de dados visuais e de áudio.
+ Leia mais notícias de Mundo em Oeste
O primeiro teste da tecnologia de vigilância por vídeo baseada em IA foi em show do Depeche Mode, em março. A polícia chamou a operação de “um sucesso”.
Olimpíada e a lei que entra fácil não sai fácil
No entanto, especialistas em privacidade e segurança digital vêm alertando desde então que medidas preventivas precisam ser proporcionais aos riscos. Os críticos afirmam que o governo francês está se valendo da Olimpíada como uma forma tomada de poder de vigilância e controle da população civil pela tecnologia, e que o governo usará essa justificativa de vigilância “excepcional” para normalizar a vigilância estatal em toda a sociedade.
Não é um temor injustificado. Medidas de segurança inicialmente projetadas para serem temporárias — por exemplo, sob o estado de emergência que se seguiu aos ataques de 2015 — acabaram se tornando permanentes.
Também se lembra de que a IBM ajudou o Rio de Janeiro a instalar uma “sala de controle” em vista dos Jogos Olímpicos de 2016. A tecnologia ainda está operacional até hoje
As preocupações com segurança e privacidade na Olimpíada de Inverno de 2022 em Pequim foram tão altas que o FBI pediu a “todos os atletas” que deixassem seus celulares pessoais em casa e usassem apenas um telefone descartável enquanto estivessem na China devido ao nível extremo de vigilância governamental.
Já os australianos podem enfrentar um enigma semelhante sobre a extensão e a intrusividade das medidas de segurança quando Brisbane sediar a Olimpíada de Verão em 2032. Embora as leis sejam introduzidas com certa facilidade, elas são muito mais difíceis de reverter.
As autoridades francesas disseram que esses experimentos de vigilância de IA foram bem e que as “luzes estão verdes” para usos futuros.
Mesmo entre ignorando a questão moral e legal do modelo de vigilância, ainda resta a dúvida sobre sua eficácia. A vigilância de segurança do Serviço Secreto norte-americano foi incapaz de impedir uma tentativa de assassinato contra Donald Trump, em 13 de julho. Entre os fracassos recentes também são lembradas a final da Liga dos Campeões no último verão e o trauma dos ataques terroristas de Paris em 2015, com o Estado Islâmico ameaçando a França mesmo antes de uma situação como o apoio europeu a Israel, em tensão crescente contra o grupo terrorista Hamas.
Quem reconhece os reconhecedores faciais?
No centro da celeuma está a utilização de reconhecimento facial em câmeras de segurança por IA. A França promulgou em 2023 a Lei nº 2023/380, um pacote de leis para fornecer uma estrutura legal para a Olimpíada de 2024.
Ela inclui o controverso Artigo 7, uma disposição que permite que as autoridades policiais francesas e seus contratados de tecnologia experimentem vigilância por vídeo inteligente antes, durante e depois da Olimpíada de 2024, além do Artigo 10, que permite especificamente o uso de software de IA para revisar feeds de vídeo e câmera. Essas leis tornam a França o primeiro país da União Europeia a legalizar um sistema de vigilância de IA de amplo alcance.
As autoridades francesas têm trabalhado com as empresas de IA Videtics, Orange Business, ChapsVision e Wintics para implantar vigilância de vídeo de inteligência artificial abrangente.
Essas empresas de monitoramento por IA atuam durante grandes shows, eventos esportivos e em estações de metrô e trem durante períodos de uso intenso. Isso incluiu um show de Taylor Swift e o Festival de Cinema de Cannes.
O software de IA em uso é geralmente projetado para sinalizar certos eventos, como mudanças no tamanho e movimento da multidão, objetos abandonados, presença ou uso de armas, um corpo no chão, fumaça ou chamas e certas violações de trânsito. O objetivo é que os sistemas de vigilância detectem imediatamente, em tempo real, eventos como uma multidão avançando em direção a um portão ou uma pessoa deixando uma mochila em uma esquina movimentada, podendo então alertar a polícia e os bombeiros. Tal tipo de sinalização pela tecnologia parece sensata pelas autoridades.
Mas as dúvidas que se seguem podem ser bastante incômodas para uma população buscando segurança. Quantos e quais tipos de dados precisam ser coletados e analisados para sinalizar esses eventos? Quais são os dados de treinamento dos sistemas, taxas de erro e evidências de viés ou imprecisão? O que é feito com os dados depois que eles são coletados e quem tem acesso a eles?
Não há clareza nenhuma para se obter tais respostas. O modelo não possui nenhuma transparência. A França está legalmente permitindo e apoiando essas empresas para testar e treinar software de IA em seus cidadãos e visitantes.
Medidas criticadas
De acordo com o governo francês, o sistema não “deve utilizar” reconhecimento facial. Mas se o propósito e a função dos algoritmos e câmeras controladas por IA são detectar eventos suspeitos específicos em espaços públicos, tais sistemas necessariamente “capturarão e analisarão características fisiológicas e comportamentos” das pessoas nesses espaços. Isso inclui posições corporais, marcha, movimentos, gestos e aparência. E o que será feito com esses dados? Quem possui acesso?
Karolina Iwańska, consultora de espaço cívico digital no Centro Europeu de Direito Sem Fins Lucrativos (ECNL), criticou as medidas. “Uma vez que uma medida de vigilância ‘excepcional’ é permitida, é muito fácil normalizá-la e torná-la permanente.”
“Além disso, vemos uma tendência perigosa de usar as desculpas da segurança nacional para vigiar protestos ou tratar manifestantes como extremistas, caso em que a vigilância se torna ainda mais secreta, opaca e fora do escrutínio público”, disse Iwańska. “Também cria o risco de discriminação se classificar situações como mendicância ou assembleias estacionárias como ‘atípicas’ ou ‘arriscadas’.”
A Anistia Internacional chegou a criar a campanha “Ban The Scan” para criticar as novas diretrizes governamentais. Tais medidas podem depois ser utilizadas por governos para “monitorar” protestos, identificar pessoas nas ruas e cercear a oposição política.
Os críticos das medidas alegam, inclusive, que se uma mala pode ser considerada uma atividade “pouco usual”, o que impediria o governo de tratar como “terroristas” manifestantes?
A vigilância biométrica pode mesmo acabar com a vontade e a capacidade das pessoas de exercer liberdades cívicas, por medo de serem identificadas, perfiladas ou até mesmo processadas injustamente.
Mher Hakobyan, consultor de advocacia da Anistia Internacional sobre regulamentação de IA, declarou que a decisão “corre o risco de transformar permanentemente a França em um estado de vigilância distópico e permitir violações em larga escala dos direitos humanos em outras partes do bloco”.
“Sua decisão de legalizar a vigilância em massa alimentada por IA durante as Olimpíadas levará a um ataque total aos direitos à privacidade, protesto e liberdade de reunião e expressão”, acrescentou Hakobyan.
Os olhos do mundo estão na Olimpíada de Paris. E o dos algoritmos também.