Como EUA e China Podem Juntos Tornar a IA Mais Segura para Todos


A Corrida Global pela Inteligência Artificial: A Necessidade de Colaboração entre EUA e China

À medida que a inteligência artificial se torna um dos principais fatores de competição econômica e estratégica entre os Estados Unidos e a China, surgem também riscos extremos que ultrapassam fronteiras nacionais. Imagine um indivíduo capaz de manipular um modelo de IA para criar patógenos perigosos, conduzir ciberataques autônomos ou disseminar deepfakes realistas. Isso poderia ocorrer independente de sua localização, seja em Dalian, Dallas ou Nova Déli. Ambos os países têm muito a perder em uma corrida de IA que possa causar danos catastróficos em qualquer lugar do mundo.

O Perigo das Modelos Chineses

Modelos chineses, como o R1-0528 da DeepSeek, revelam vulnerabilidades significativas. De acordo com pesquisas do governo dos EUA, esse modelo é 12 vezes mais propenso a aceitar instruções maliciosas em comparação com os principais modelos americanos. Além disso, métodos padrão de “jailbreaking” (bypassing de controles de segurança) geram respostas prejudiciais em impressionantes 94% das tentativas, enquanto os modelos americanos apresentam esse problema apenas em 8% das vezes. O risco se eleva ainda mais quando consideramos que muitos agentes autônomos, como o OpenClaw, que navega na internet sem supervisão humana, são alimentados por esses modelos.

A Necessidade de Diálogo Aberto

Os EUA e a China terão um papel crucial na definição do futuro da tecnologia de IA, podendo gerar benefícios compartilhados ou amplificar riscos. Historicamente, em períodos de tensão, a comunicação aberta se mostrou vital. Durante a Guerra Fria, por exemplo, cientistas americanos colaboraram com seus pares soviéticos para evitar o uso não autorizado de armas nucleares.

É essencial que Washington e Pequim se entendam sobre prioridades de pesquisa em segurança, coordenação de testes e estabelecimento de práticas que possam controlar esses riscos globais. A China também precisa investir em capacidades técnicas que tornem essa colaboração em segurança da IA vantajosa.

Identificando Riscos em Tempo Real

Para que a IA se torne mais segura, é necessário entender os riscos que ela impõe e os recursos disponíveis para mitigá-los. Avaliações sistemáticas de inovações em IA têm um papel semelhante ao de testes clínicos para novos medicamentos. No entanto, a dinâmica da IA é única: essas tecnologias evoluem após a implementação e podem ser reconfiguradas de maneiras inesperadas. Atestar novos sistemas antes do lançamento não é suficiente para lidar com essa imprevisibilidade. Portanto, é urgente realizar uma triagem contínua para novos riscos.

Segurança na Cadeia de Suprimentos da IA

EUA e China estão começando a reconhecer a importância de fortalecer práticas de segurança em suas cadeias de suprimento de IA. Diversas instituições vêm desenvolvendo ferramentas capazes de interceptar conteúdos prejudiciais em aplicativos de IA, como assistentes de programação. O governo americano tem se envolvido, utilizando descobertas de organizações independentes para aprimorar políticas e padrões.

Por outro lado, a China, que historicamente se concentrou em segurança de conteúdo, está começando a se preocupar com riscos mais abrangentes. Em fevereiro, uma proposta de regulamentação sobre interações com IA humanóides foi apresentada pelo governo chinês.

Dicas Práticas para Colaboração

Apesar dos desafios, a possibilidade de um diálogo construtivo entre Estados Unidos e China não é uma utopia. Assim como Boeing e Airbus competem no setor de aviação, ambos os países têm a chance de estabelecer padrões comuns de segurança em IA.

Aqui estão algumas práticas que podem facilitar essa colaboração:

  1. Estabelecer uma Base Comum: Trabalhar em conjunto para definir quais riscos são mais significativos para ambos os lados.
  2. Testes Conjuntos: Realizar avaliações de segurança que possam unir esforços e identificar lacunas na capacidade técnica de cada país.
  3. Diálogo Informal: Através de discussões não oficiais, como as do Track II, especialistas podem encontrar pontos em comum.
  4. Exemplos Internacionais: Olhar para outros campos, como a bioética, que já enfrentaram desafios semelhantes.

Caminhando para um Futuro Mais Seguro

A primeira tentativa de diálogo oficial entre os dois países em 2024 falhou devido à falta de alinhamento entre os participantes. O necessário é um espaço de conversa que se mantenha estável e focado em riscos globais de IA, afastado das tensões políticas cotidianas.

Incluir especialistas de fora do governo, como aqueles da China AI Safety and Development Association, pode ser um caminho promissor. Colaborações internacionais, como as do Reino Unido, também podem ajudar a sustentar esses diálogos.

Conclusão e Reflexões Finais

Investir em cooperação entre Estados Unidos e China é uma questão de urgência para a segurança global. Somente juntos poderão os dois países compreender e mitigar os riscos associados à IA que ameaçam a todos. Ao promover diálogos frutíferos, estaremos não apenas evitando danos futuros, mas também promovendo uma era de inovação que beneficie a humanidade como um todo. Que possamos, então, continuar esta conversa e explorar novos horizontes que a IA pode oferecer. Como você vê o futuro da IA e os desafios que ele traz? Compartilhe suas ideias!

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Mais Recentes

Caiado Surpreende: Apoio Inabalável Apesar de Apenas Dois Governadores do PSD!

A Ascensão de Ronaldo Caiado: Desafios e Perspectivas para a Presidência A corrida presidencial no Brasil ganha novos contornos,...

Quem leu, também se interessou