O Google altera políticas de IA, removendo promessas anteriores sobre o não desenvolvimento de ferramentas de IA para uso em armas ou vigilância. A mudança, notada pelo Washington Post, afeta os princípios de IA da empresa, publicados em 2018.
Google altera políticas de IA: Mudanças nas diretrizes
A empresa retirou seções que declaravam explicitamente não desenvolver IA para “armas ou outras tecnologias cujo principal objetivo ou implementação seja causar ou facilitar diretamente ferimentos a pessoas”, e ferramentas de vigilância que violassem “normas internacionalmente aceitas”.
Em vez disso, o documento agora contém uma seção sobre “desenvolvimento e implantação responsáveis”. A nova versão afirma que a empresa implementará “supervisão humana apropriada, diligência e mecanismos de feedback para se alinhar aos objetivos do usuário, à responsabilidade social e aos princípios amplamente aceitos do direito internacional e dos direitos humanos”.
Essa mudança representa um compromisso bem mais amplo do que as declarações específicas feitas até o fim do mês anterior, quando a versão anterior dos princípios de IA ainda estava disponível online.
Um porta-voz do Google direcionou a imprensa a um post no blog da empresa, publicado em quinta-feira. Nele, o CEO do DeepMind, Demis Hassabis, e James Manyika, vice-presidente sênior de pesquisa, laboratórios, tecnologia e sociedade do Google, justificaram a alteração política.
Leia também:
Contexto da mudança nas políticas
Segundo Hassabis e Manyika, o surgimento da IA como uma “tecnologia de uso geral” exigiu a mudança de política. Eles declararam que as empresas, governos e organizações que compartilham valores como liberdade, igualdade e respeito aos direitos humanos devem trabalhar juntas para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.
Os princípios de IA do Google foram publicados em 2018, após a polêmica em torno do Project Maven, um contrato governamental que gerou protestos de funcionários do Google. Dezenas de empregados deixaram a empresa e milhares assinaram uma petição contra o contrato, que envolvia o fornecimento de software de IA ao Departamento de Defesa para análise de imagens de drones. O CEO Sundar Pichai esperava que as diretrizes de 2018 resistissem ao teste do tempo.
Apesar das políticas iniciais, em 2021, o Google voltou a buscar contratos militares, incluindo uma proposta para o contrato Joint Warfighting Cloud Capability do Pentágono. No início deste ano, o Washington Post informou que funcionários do Google trabalharam repetidamente com o Ministério da Defesa de Israel para expandir o uso de ferramentas de IA pelo governo.
A abordagem atual do Google em relação à IA militar e de vigilância reflete uma adaptação às complexidades e desafios presentes neste setor em constante evolução. A nova ênfase em oversight humano e alinhamento com princípios internacionais busca equilibrar inovação com responsabilidade ética.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Engadget