Google altera políticas de IA e permite uso em armamentos e vigilância

Google altera políticas de IA: abandona promessas de não usar a tecnologia em armas e vigilância. Saiba mais sobre essa mudança significativa e suas implicações.
Atualizado há 1 mês
Google altera políticas de IA

Outros destaques

Rewriting de software com IA
GeForce RTX 5090
iOS 19 e visionOS 3
Manufatura de robôs com blockchain
Manufatura de robôs com blockchain

O Google altera políticas de IA, removendo promessas anteriores sobre o não desenvolvimento de ferramentas de IA para uso em armas ou vigilância. A mudança, notada pelo Washington Post, afeta os princípios de IA da empresa, publicados em 2018.

CONTINUA DEPOIS DA PUBLICIDADE

Google altera políticas de IA: Mudanças nas diretrizes

A empresa retirou seções que declaravam explicitamente não desenvolver IA para “armas ou outras tecnologias cujo principal objetivo ou implementação seja causar ou facilitar diretamente ferimentos a pessoas”, e ferramentas de vigilância que violassem “normas internacionalmente aceitas”.

Em vez disso, o documento agora contém uma seção sobre “desenvolvimento e implantação responsáveis”. A nova versão afirma que a empresa implementará “supervisão humana apropriada, diligência e mecanismos de feedback para se alinhar aos objetivos do usuário, à responsabilidade social e aos princípios amplamente aceitos do direito internacional e dos direitos humanos”.

Essa mudança representa um compromisso bem mais amplo do que as declarações específicas feitas até o fim do mês anterior, quando a versão anterior dos princípios de IA ainda estava disponível online.

Um porta-voz do Google direcionou a imprensa a um post no blog da empresa, publicado em quinta-feira. Nele, o CEO do DeepMind, Demis Hassabis, e James Manyika, vice-presidente sênior de pesquisa, laboratórios, tecnologia e sociedade do Google, justificaram a alteração política.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Contexto da mudança nas políticas

Segundo Hassabis e Manyika, o surgimento da IA como uma “tecnologia de uso geral” exigiu a mudança de política. Eles declararam que as empresas, governos e organizações que compartilham valores como liberdade, igualdade e respeito aos direitos humanos devem trabalhar juntas para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.

Os princípios de IA do Google foram publicados em 2018, após a polêmica em torno do Project Maven, um contrato governamental que gerou protestos de funcionários do Google. Dezenas de empregados deixaram a empresa e milhares assinaram uma petição contra o contrato, que envolvia o fornecimento de software de IA ao Departamento de Defesa para análise de imagens de drones. O CEO Sundar Pichai esperava que as diretrizes de 2018 resistissem ao teste do tempo.

Apesar das políticas iniciais, em 2021, o Google voltou a buscar contratos militares, incluindo uma proposta para o contrato Joint Warfighting Cloud Capability do Pentágono. No início deste ano, o Washington Post informou que funcionários do Google trabalharam repetidamente com o Ministério da Defesa de Israel para expandir o uso de ferramentas de IA pelo governo.

A abordagem atual do Google em relação à IA militar e de vigilância reflete uma adaptação às complexidades e desafios presentes neste setor em constante evolução. A nova ênfase em oversight humano e alinhamento com princípios internacionais busca equilibrar inovação com responsabilidade ética.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

CONTINUA DEPOIS DA PUBLICIDADE

Via Engadget

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.