Google altera políticas de IA e permite uso em armamentos e vigilância

Google altera políticas de IA: abandona promessas de não usar a tecnologia em armas e vigilância. Saiba mais sobre essa mudança significativa e suas implicações.
Atualizado há 4 horas
Google altera políticas de IA

Outros destaques

IA generativa de vídeos
Lucros Alphabet Q4 2024
Microsoft Build 2025
Resultados financeiros Alphabet 2024
Google usará IA em armas

O Google altera políticas de IA, removendo promessas anteriores sobre o não desenvolvimento de ferramentas de IA para uso em armas ou vigilância. A mudança, notada pelo Washington Post, afeta os princípios de IA da empresa, publicados em 2018.

CONTINUA DEPOIS DA PUBLICIDADE

Google altera políticas de IA: Mudanças nas diretrizes

A empresa retirou seções que declaravam explicitamente não desenvolver IA para “armas ou outras tecnologias cujo principal objetivo ou implementação seja causar ou facilitar diretamente ferimentos a pessoas”, e ferramentas de vigilância que violassem “normas internacionalmente aceitas”.

Em vez disso, o documento agora contém uma seção sobre “desenvolvimento e implantação responsáveis”. A nova versão afirma que a empresa implementará “supervisão humana apropriada, diligência e mecanismos de feedback para se alinhar aos objetivos do usuário, à responsabilidade social e aos princípios amplamente aceitos do direito internacional e dos direitos humanos”.

Essa mudança representa um compromisso bem mais amplo do que as declarações específicas feitas até o fim do mês anterior, quando a versão anterior dos princípios de IA ainda estava disponível online.

Um porta-voz do Google direcionou a imprensa a um post no blog da empresa, publicado em quinta-feira. Nele, o CEO do DeepMind, Demis Hassabis, e James Manyika, vice-presidente sênior de pesquisa, laboratórios, tecnologia e sociedade do Google, justificaram a alteração política.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

Contexto da mudança nas políticas

Segundo Hassabis e Manyika, o surgimento da IA como uma “tecnologia de uso geral” exigiu a mudança de política. Eles declararam que as empresas, governos e organizações que compartilham valores como liberdade, igualdade e respeito aos direitos humanos devem trabalhar juntas para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.

Os princípios de IA do Google foram publicados em 2018, após a polêmica em torno do Project Maven, um contrato governamental que gerou protestos de funcionários do Google. Dezenas de empregados deixaram a empresa e milhares assinaram uma petição contra o contrato, que envolvia o fornecimento de software de IA ao Departamento de Defesa para análise de imagens de drones. O CEO Sundar Pichai esperava que as diretrizes de 2018 resistissem ao teste do tempo.

Apesar das políticas iniciais, em 2021, o Google voltou a buscar contratos militares, incluindo uma proposta para o contrato Joint Warfighting Cloud Capability do Pentágono. No início deste ano, o Washington Post informou que funcionários do Google trabalharam repetidamente com o Ministério da Defesa de Israel para expandir o uso de ferramentas de IA pelo governo.

CONTINUA DEPOIS DA PUBLICIDADE

A abordagem atual do Google em relação à IA militar e de vigilância reflete uma adaptação às complexidades e desafios presentes neste setor em constante evolução. A nova ênfase em oversight humano e alinhamento com princípios internacionais busca equilibrar inovação com responsabilidade ética.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via Engadget

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.