As sete companhias líderes em inteligência artificial nos Estados Unidos (EUA) concordaram voluntariamente em adotar salvaguardas para o desenvolvimento da nova tecnologia. O acordo com as big techs foi anunciado n sexta-feira 21 pelo governo norte-americano, que coordenou as negociações para formalizar o compromisso das empresas em adotar novos padrões de segurança, proteção e confiança para as suas ferramentas.
+ Leia as últimas notícias de Tecnologia no site da Revista Oeste
São signatárias do acordo a Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e a OpenAI. De acordo com a Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os seus produtos sejam seguros antes de lançá-los ao público. “Se gerenciada adequadamente, a inteligência artificial pode contribuir enormemente para a prosperidade, igualdade e segurança de todos”, afirmou o governo dos EUA em comunicado.
Leia mais:
Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores “autoconscientes” evoluem. Por isso, as salvaguardas voluntárias são vistas apenas como um primeiro passo, enquanto a Casa Branca e outros governos ao redor do mundo correm para estabelecer marcos regulatórios e legais para o desenvolvimento da tecnologia.
Por isso, o pacto com as big techs reflete a urgência da administração Joe Biden e dos legisladores norte-americanos em responder à rápida evolução da tecnologia, enquanto os órgãos reguladores ainda se debatem sobre formas de maior controle das redes sociais.
EUA e big techs falam em segurança
Pelo acordo, as sete empresas se comprometem a permitir que especialistas em segurança independentes testem seus sistemas antes de serem lançados, além de criar ferramentas para identificar os conteúdos que produzem por meio da inteligência artificial, como marcas d’água, a fim de reduzir a desinformação.
“Esses testes protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos”, afirmou a Casa Branca.
Pelo acordo com o governo dos EUA, as empresas também se comprometem a:
- desenvolver e investir em segurança cibernética para proteger os dados dos usuários;
- compartilhar dados sobre a segurança de seus sistemas com o governo norte-americano e acadêmicos; e
- facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.
Além disso, as big techs terão de relatar publicamente eventuais falhas e riscos em suas tecnologias, apontando riscos de segurança e sociais — como justiça e preconceito.
Leia também: “Inteligência artificial: como será o Brasil no ano 3000”
Várias das signatárias já haviam concordado publicamente com algumas ações semelhantes às do compromisso da Casa Branca. Antes de a OpenAI lançar amplamente seu sistema GPT-4, ela trouxe uma equipe de profissionais externos para exercícios, um processo conhecido como redteaming. Da mesma forma, o Google já informou que está desenvolvendo uma marca d’água, que empresas e formuladores de políticas afirmam ser uma forma de abordar as preocupações de que a inteligência artificial poderia sobrecarregar a disseminação de desinformação.
Riscos da inteligência artificial
Os compromissos voluntários são uma maneira imediata de lidar com os riscos, antes de um esforço de longo prazo para fazer com que o Congresso norte-americano aprove leis que regulem a tecnologia. Alguns defensores da regulamentação da inteligência artificial disseram que a ação de Biden é um começo, mas é preciso fazer mais para responsabilizar as empresas e seus produtos.
“A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas”, disse um comunicado de James Steyer, fundador e CEO da organização sem fins lucrativos Common Sense Media. O líder da maioria no Senado, Chuck Schumer (Democrata), já avisou que apresentará uma legislação para regular a inteligência artificial.
“Este é um primeiro passo para garantir que limites sejam estabelecidos para a inteligência artificial e que também cria um modelo para outros governos seguirem”, disse o presidente para assuntos globais da Meta, Nick Glegg.
Revista Oeste, com informações da Agência Estado, do jornal O Estado de S. Paulo e de agências internacionais
Leia também: “Você votaria num robô para presidente?”, reportagem de Dagomir Marquezi publicada na Edição 174 da Revista Oeste