Gary Marcus, um renomado especialista em inteligência artificial, trouxe à tona discussões pertinentes em seu recente livro sobre os significativos desafios e perigos que a IA nos apresenta. Ele destaca que, a longo prazo, ainda não temos uma maneira garantida de criar sistemas de IA que sejam absolutamente seguros e confiáveis. “Isso é preocupante”, afirma. Além disso, antecipa que, em um futuro não muito distante, a inteligência artificial poderá ocupar a maior parte dos postos de trabalho, levando a uma concentração de riqueza nas mãos de um pequeno grupo privilegiado. Para lidar com essa possível situação, Marcus sugere a adoção de uma renda básica universal como uma solução viável.
Além de suas preocupações, Marcus defende a necessidade urgente da criação de uma agência reguladora para supervisionar a IA. “Independentemente da nossa opinião sobre o assunto, a IA está mudando o mundo. Precisamos de uma entidade que atue de forma proativa, identificando oportunidades e minimizando riscos associados a essas novas tecnologias. Uma de suas funções poderia ser a pré-avaliação das inovações no setor”, destaca.
Perspectivas do Futuro
Marcus também ressalta a importância de se opor ativamente à entrega do controle da inteligência artificial a grandes corporações de tecnologia. “É crucial que façamos ouvir nossa voz e que tomemos ações para mudar essa narrativa. O momento para boicotar a IA generativa pode estar mais próximo do que pensamos”, afirma. Ele acredita que, em um cenário onde a IA se torna cada vez mais predominante, é preciso ter cuidados redobrados com as suas implicações éticas e sociais.
Os 12 Perigos Imediatos da IA
-
Desinformação Política em Larga Escala
Marcus compara os sistemas de IA generativa a “metralhadoras de desinformação”, pois tornam a criação de conteúdo falso mais rápida e eficiente. Um exemplo notório foi a interferência russa nas eleições de 2016, onde cerca de US$ 1,25 milhão foram gastos mensalmente em operações que espalhavam desinformação nos Estados Unidos.
-
Manipulação de Mercados
Além de no âmbito político, a IA também pode ser empregada para manipulações financeiras. “Alertei o Congresso sobre essa possibilidade em 18 de maio de 2023. Quatro dias depois, uma imagem falsa do Pentágono pegou a internet de surpresa, causando uma queda temporária nas ações”, diz.
-
Desinformação Acidental
As IA podem, inadvertidamente, criar e disseminar informações erradas. Um estudo realizado na Universidade de Stanford revelou que as respostas de modelos de linguagem para questões médicas são frequentemente inconsistentes e incorretas.
-
Difamação
Casos de desinformação que prejudicam a reputação de indivíduos são alarmantes. Um acontecimento sério envolveu o ChatGPT citando falsamente um professor de direito em vínculos a um caso de assédio sexual com base em um artigo que nunca existiu.
-
Deepfakes Não Consensuais
A tecnologia de deepfake avança rapidamente. Exemplo recente: estudantes começaram a usar IA para criar imagens sexualmente explícitas e não autorizadas de colegas, transformando essa prática em uma séria questão ética.
-
Facilitação de Crimes
Criminosos já estão utilizando IA para realizar fraudes, como clonagem de voz para extorquir dinheiro. Um caso específico envolveu a simulação da voz de uma criança que ligou para os pais, simulando um sequestro e exigindo um resgate em bitcoins.
-
Cibersegurança
Embora possa contribuir para a descoberta de falhas em sistemas, a IA também apresenta riscos. Ela pode escanear rapidamente milhões de linhas de código e identificar vulnerabilidades, uma tarefa que antes demandava especialistas.
-
Discriminação e Preconceito
Os vieses em sistemas de IA são problemas persistentes. Um estudo de 2013 mostrou que pesquisas com nomes afro-americanos nos anúncios do Google geravam resultados discriminatórios.
-
Privacidade e Vazamento de Dados
Marcus menciona o livro *A Era do Capitalismo da Vigilância*, onde se discute o esculacho da experiência humana por empresas em troca de dados comportamentais que são vendidos a quem pagar mais.
-
Uso Não Autorizado de Propriedade Intelectual
A utilização de conteúdos protegidos por direitos autorais sem consentimento é uma preocupação real. Marcus se refere a isso como o “Grande Roubo de Dados”, que transfere recursos de muitos para algumas grandes empresas.
-
Dependência Excessiva de Sistemas Não Confiáveis
Confiar cegamente na IA em situações críticas é arriscado. Imagina um carro autônomo que depende de uma IA para determinar a localização de outro veículo — ou pior, uma arma automatizada que poderia criar inimigos fictícios e causar um desastre.
-
Impactos Ambientais
O treinamento de modelos de IA consome uma quantidade enorme de energia. A criação de uma única imagem pode demandar o mesmo que carregar um celular. Com a crescente utilização dessas tecnologias, o impacto ambiental poderá ser devastador.
Convido você, leitor, a refletir sobre essas questões. Compartilhe sua opinião sobre a IA e os desafios que ela nos apresenta. Como você vê o papel da sociedade nesse processo? É essencial que todos tenhamos voz e participemos ativamente dessas discussões!