Regulatory Compliance: O que você não sabia sobre a supervisão de IA

Regulatory Compliance é essencial na supervisão de IA, especialmente com seguradoras adotando ferramentas de inteligência artificial. Entenda os desafios e implicações.
Atualizado há 15 horas
Regulatory Compliance

Outros destaques

requalificação profissional
requalificação profissional
ar-condicionado Digital Inverter Ultra AI
vendas de smartphones
ChatGPT Plus

O uso de inteligência artificial (IA) no setor de seguros está em ascensão, com mais de 70% das seguradoras planejando implementar ferramentas de IA generativa nos próximos dois anos. No entanto, essa jornada deve ser feita com cautela, especialmente em relação à Regulatory Compliance, conforme destaca Erez Barak, CTO da Earnix. O aumento da supervisão regulatória global reflete a necessidade de um equilíbrio entre inovação e conformidade.

CONTINUA DEPOIS DA PUBLICIDADE

Uma pesquisa recente da Earnix revelou que 51% das empresas enfrentaram multas ou reembolsos devido a erros no uso de IA no último ano. Para evitar problemas semelhantes em 2025, muitas seguradoras estão se comprometendo a dedicar mais tempo e recursos à conformidade regulatória. Isso é especialmente relevante para as seguradoras na Europa e na Austrália, onde 68% delas afirmaram estar investindo mais em conformidade em comparação com 62% na América do Norte.

Desafios da Conformidade Regulamentar em IA

A crescente complexidade do ambiente regulatório na União Europeia, como o Solvency II, impõe requisitos rigorosos de capital e gestão de riscos. Isso pode dar uma vantagem inicial às seguradoras europeias na adoção de novas tecnologias para garantir a conformidade. Contudo, a rápida evolução da IA torna difícil para os reguladores estabelecerem regras claras, levando muitos a adotarem uma abordagem baseada em princípios.

Um exemplo disso é o Modelo de Boletim da Associação Nacional de Comissários de Seguros (NAIC), que foi adotado em 4 de dezembro de 2023. Este modelo não cria novas leis, mas incentiva testes para resultados imparciais, servindo como uma diretriz para o setor.

Além disso, a ética na aplicação da IA é um tema central nas discussões atuais. A Comissão Europeia delineou sete requisitos para o uso responsável da IA, que incluem a supervisão humana, segurança técnica, privacidade e governança de dados, transparência, diversidade e não discriminação, bem como responsabilidade. Esses princípios são fundamentais para as empresas que buscam implementar IA de forma ética e responsável.

CONTINUA DEPOIS DA PUBLICIDADE

O Papel da IA na Indústria de Seguros

A IA não deve substituir os funcionários, mas sim complementar suas habilidades. O conceito de “IA centrada no humano” enfatiza a importância da intervenção humana no design e operação da tecnologia. Isso garante que a IA melhore as capacidades dos colaboradores, em vez de substituí-los.

Um aspecto crucial da IA centrada no humano é a “explicabilidade”. Isso permite que as seguradoras se comuniquem de forma mais clara com os reguladores e clientes sobre os resultados gerados por suas ferramentas de IA. Essa transparência é vital para construir confiança e garantir a conformidade regulatória.

À medida que a IA se torna mais prevalente, o risco de uso indevido também aumenta. Casos de ataques cibernéticos sofisticados e fraudes alimentadas por IA estão se tornando comuns. Portanto, é essencial que as empresas sigam diretrizes claras e desenvolvam suas próprias políticas internas que reflitam as regulamentações existentes.

Regulamentações Globais e Multas por Uso Indevido de IA

Em resposta ao crescimento da IA, a Comissão Europeia introduziu o AI Act, que estabelece um quadro legal para o uso da IA, visando mitigar riscos e proteger direitos fundamentais. Este ato classifica os sistemas de IA com base em níveis de risco, aplicando regulamentações rigorosas a tecnologias de alto risco, como as utilizadas em saúde e segurança pública.

Nos Estados Unidos, iniciativas como o AI Bill of Rights buscam proteger os cidadãos contra discriminação algorítmica, enquanto a Comissão Federal de Comércio (FTC) se concentra em práticas enganosas relacionadas à IA. Na China, diretrizes éticas foram implementadas para promover um desenvolvimento responsável da IA.

CONTINUA DEPOIS DA PUBLICIDADE

As multas por uso indevido de IA estão aumentando. Na União Europeia, empresas como o Google enfrentaram penalidades significativas por não informar adequadamente os usuários sobre o uso de dados. Nos EUA, a FTC tomou medidas contra empresas que usaram reconhecimento facial sem consentimento adequado, destacando a crescente vigilância sobre a conformidade regulatória.

Com a evolução contínua da IA, as seguradoras devem estar atentas às regulamentações e garantir que suas práticas estejam alinhadas com as diretrizes estabelecidas. A conformidade regulatória não é apenas uma obrigação, mas uma oportunidade para construir confiança e garantir o sucesso a longo prazo no setor.

Via Insurance Journal

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.