Meta estabelece limites para lançamento de IA poderosa diante dos riscos envolvidos

Riscos de IA da Meta: novo framework de segurança da empresa aborda os perigos de modelos avançados de IA. Saiba mais sobre as medidas de segurança e os desafios futuros.
Atualizado há 3 dias
Riscos de IA da Meta

Outros destaques

Robôs domésticos Apple
AI em The Simpsons
Tecnologias emergentes no Super Bowl
Robô de mesa da Apple
OpenAI DeepSeek Challenger Model

Em um novo documento de políticas intitulado “Frontier AI Framework”, a Meta afirma que não lançará modelos de IA com alto nível de capacidade se eles apresentarem muitos Riscos de IA da Meta. A empresa reconhece os riscos potenciais do desenvolvimento de Inteligência Artificial Geral (AGI), sistemas de IA capazes de executar tarefas humanas.

CONTINUA DEPOIS DA PUBLICIDADE

Meta e os Riscos de IA da Meta: Um Novo Framework de Segurança

A corrida pelo desenvolvimento de modelos avançados de IA, comumente chamados de AGI, traz preocupações sobre os riscos associados a sistemas capazes de realizar qualquer tarefa humana. A Meta, ciente dessa ameaça, elaborou o “Frontier AI Framework”, um documento que detalha seus esforços para criar sistemas de IA eficazes e, ao mesmo tempo, monitorar seus possíveis efeitos negativos.

O documento destaca os benefícios desses sistemas avançados, mas também alerta para a possibilidade de “resultados catastróficos”. A Meta define dois tipos de sistemas de IA considerados arriscados: “alto risco” e “risco crítico”, exemplificados por modelos que auxiliam em cibersegurança e ataques químicos e biológicos. Situações que envolvam esses sistemas podem levar a consequências catastróficas.

A Meta afirma que interromperá imediatamente o desenvolvimento e o lançamento de qualquer sistema identificado como de “risco crítico”. Entretanto, a empresa admite a possibilidade, ainda que remota, de um sistema de IA ser lançado mesmo com riscos. Nesse caso, medidas serão tomadas para evitar cenários catastróficos, embora a Meta reconheça que essas medidas podem ser insuficientes.

A Meta realiza testes internos e com especialistas externos para modelar ameaças e entender como modelos de IA podem ser usados para causar danos. Esses testes simulam cenários de ameaça para identificar se o modelo de IA em questão facilitaria a concretização desses cenários e quais capacidades o modelo precisaria ter para isso. Caso essas capacidades estejam presentes e o modelo seja eficiente o suficiente, avaliações adicionais serão conduzidas. A segurança em redes 5G, por exemplo, enfrenta desafios emergentes com o avanço da inteligência artificial, e a Meta busca se antecipar a esses desafios.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Mesmo com as medidas internas da Meta para controlar o lançamento de modelos de IA potencialmente perigosos, é provável que haja intervenção legal. A questão agora é até onde esse desenvolvimento pode chegar. A OpenAI Deep Research, por exemplo, apresenta uma IA avançada para enfrentar tarefas complexas de forma autônoma, levantando ainda mais questões sobre o futuro da IA.

Além dos Riscos: O Futuro da IA segundo Mark Zuckerberg

Em meio a discussões sobre os Riscos de IA da Meta, Mark Zuckerberg prevê que a IA poderá substituir engenheiros de nível médio em 2025 e remodelar completamente a codificação. Essa previsão levanta questões sobre o futuro do mercado de trabalho em tecnologia. Além disso, Zuckerberg alertou para um ano desafiador, com planos de cortar 5% da força de trabalho da Meta para lidar com o baixo desempenho.

A Meta também lançou um novo recurso no Instagram que permite aos usuários redefinir o conteúdo recomendado no Explore, Reels e Feed. Esta mudança busca dar mais controle aos usuários sobre o conteúdo que visualizam na plataforma. Enquanto isso, a empresa trabalha no desenvolvimento dos óculos Orion, visando torná-los os “AirPods da realidade aumentada”, menos intrusivos e mantendo os usuários conectados à realidade. Com o avanço da tecnologia de IA, a Apple Vision Pro completa um ano e questiona o que vem a seguir para o dispositivo, abrindo espaço para novas possibilidades.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via Wccftech

CONTINUA DEPOIS DA PUBLICIDADE
André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.