Meta decide limitar lançamento de sistemas de IA considerados arriscados

Limitar lançamento de sistemas de IA: Meta anuncia nova política de gerenciamento de riscos para IA, focando segurança e transparência. Saiba mais!
Atualizado há 31 segundos
Limitar lançamento de sistemas de IA

Outros destaques

HyperOS 2 Global
Copyright de IA
Google I/O 2025
Google I/O 2025
IAs generativas no trabalho

Meta anuncia política para Limitar lançamento de sistemas de IA de alto risco

CONTINUA DEPOIS DA PUBLICIDADE

A Meta divulgou uma nova política de gerenciamento de riscos para sistemas de Inteligência Artificial (IA). O Frontier AI Framework descreve como a empresa pretende classificar e mitigar os riscos potenciais de seus modelos de IA mais avançados. A iniciativa busca aumentar a segurança e transparência no desenvolvimento dessas tecnologias.

Meta e a Estratégia para Limitar Lançamento de Sistemas de IA

A Meta apresentou o Frontier AI Framework, uma estrutura para avaliar e mitigar os riscos apresentados por novos modelos de IA. A empresa planeja classificar esses modelos em grupos de alto e crítico risco, tomando medidas para reduzir os perigos a “níveis toleráveis”.

Categorias de Risco e Mitigação

A classificação de risco considera cenários de ameaça, como a proliferação de armas biológicas ou danos econômicos generalizados por meio de fraudes. Modelos de “risco crítico”, capazes de causar danos significativos, terão seu desenvolvimento interrompido. O acesso será restrito a especialistas e medidas de segurança serão implementadas para evitar invasões. Já os de “alto risco” terão acesso limitado e passarão por mitigações para reduzir os perigos. A Microsoft alerta sobre o impacto das IAs generativas na inteligência humana, levantando questões importantes sobre o desenvolvimento responsável da tecnologia.

Processo de Avaliação e Transparência

O processo de avaliação de riscos da Meta envolve equipes multidisciplinares, incluindo especialistas internos e externos, quando necessário. A empresa afirma que a transparência é fundamental e espera que a divulgação de sua abordagem incentive discussões sobre como aprimorar a avaliação de IA. Vale lembrar que a Meta não é a única empresa preocupada com o uso responsável da IA. A DeepSeek, por exemplo, também tem se destacado no cenário de IA com foco em talento e inovação.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Foco na Robustez e Confiabilidade

A Meta reconhece que a avaliação de IA ainda está em desenvolvimento. A empresa pretende aprimorar a robustez e confiabilidade das avaliações, garantindo que os testes reflitam o desempenho real dos modelos. A companhia reforça seu compromisso com a governança de IA e os rigorosos processos de avaliação e mitigação. A OpenAI também está investindo em hardware para IA, demonstrando a crescente importância desse campo.

A Meta está empenhada em aprimorar seus processos de avaliação e mitigação de riscos à medida que a IA evolui. A empresa busca garantir que seus sistemas de IA sejam desenvolvidos e utilizados de forma responsável, considerando os potenciais impactos na sociedade. Enquanto a Meta se concentra em limitar o lançamento de sistemas de IA de alto risco, outras empresas, como a Verizon, planejam investir em conectividade e computação para IA generativa, destacando as diferentes abordagens no setor. A inteligência artificial tem se mostrado uma tendência crescente em 2025, com diversas aplicações e desafios.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via AI Business

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.