Equilibrando inovação e conformidade ao implementar IA
Fonte: Risk Management Magazine - RIMS
Por: Jon Knisley | 30 de abril de 2025
Em 2024, o uso de IA empresarial disparou 595% , remodelando setores e gerando debates regulatórios globais. De acordo com a Organização para a Cooperação e Desenvolvimento Econômico (OCDE), existem atualmente mais de 1.000 regulamentações e iniciativas de IA em análise em 69 países. A rápida taxa de adoção da IA desafia legisladores, conselhos administrativos e gestores de risco a equilibrar políticas que apoiem o desenvolvimento da IA, garantindo, ao mesmo tempo, que os sistemas sejam confiáveis, justos, transparentes e seguros.
Segurança e privacidade de dados estão na raiz de muitos benefícios e preocupações potenciais em torno da IA . De acordo com uma visão geral de tendências de segurança da Lakera, enquanto 93% dos profissionais de segurança dizem que a IA pode garantir a segurança cibernética, 77% das organizações se encontram despreparadas para se defender contra ameaças de IA. Para agravar o desafio, estão os diferentes graus de confiança dos tomadores de decisão corporativos em relação às tecnologias de IA. No recente Relatório State of Intelligent Automation – AI Trust Barometer da ABBYY , 50% daqueles que não confiam na IA citam preocupações sobre segurança cibernética e violações de dados. Além disso, 47% e 38% se preocupam com a precisão da interpretação e análise de seus modelos de IA.
Ao implementar a IA, confiança e confiabilidade são primordiais para empresas, governos e instituições em todo o mundo. Para os líderes empresariais, o desafio está em navegar pelo potencial transformador da IA, gerenciando seus riscos inerentes.
As quatro considerações a seguir podem ajudar as empresas a garantir políticas e práticas de IA honestas, confiáveis e credíveis que possam atender aos padrões regulatórios e gerenciar riscos empresariais.
1. Comece com dados de boa qualidade
Como diz o ditado, lixo entra, lixo sai. A IA depende de dados de treinamento, muitos deles intocados por humanos. Embora esse seja um dos principais motivos pelos quais muitas empresas a adotam, esses dados também representam uma potencial falha de segurança. Informações ou dados pessoais desatualizados e não estruturados são frequentemente inseridos inadvertidamente em grandes modelos de linguagem (LLMs), levando a vieses, imprecisões e oportunidades para roubo e discriminação de dados.
Os LLMs funcionam melhor quando os dados com os quais aprendem são ricos e bem organizados. Para a maioria das organizações hoje em dia, isso significa que os LLMs devem ter um conhecimento mínimo das necessidades e operações específicas que devem suportar. A geração aumentada de recuperação (RAG), uma técnica para aumentar a precisão e a confiabilidade dos LLMs, está ressurgindo para preencher essa lacuna. A RAG está rapidamente ganhando força como um método econômico e seguro para enriquecer LLMs com dados organizacionais, aumentando significativamente sua utilidade e confiabilidade.
Para enfrentar o desafio da falta de dados de treinamento, as organizações devem começar auditando seus repositórios de dados para identificar lacunas, imprecisões e informações potencialmente sensíveis. Em seguida, é fundamental estabelecer protocolos claros de limpeza e estruturação de dados para garantir entradas de maior qualidade. Dados relevantes e bem organizados abrem caminho para aproveitar ao máximo uma solução RAG e fornecem aos LLMs maior compreensão contextual e maior alinhamento com os negócios. Por fim, equipes multifuncionais podem colaborar para implementar os processos RAG com segurança, garantindo práticas robustas de governança de dados que protegem contra violações.
2. Garantir IA explicável e IA transparente
Decisões baseadas em IA podem apresentar vieses nos dados, o que pode potencialmente perpetuar a discriminação e a desigualdade. Para lidar com isso, é importante ter equipes diversificadas, com uma ampla gama de perspectivas, moldando suas capacidades de desenvolvimento e implantação de sistemas de IA para garantir uma IA explicável e transparente. As empresas devem implementar equipes multifuncionais dedicadas à ética da IA, incluindo comitês de gestão de riscos algorítmicos e governança de dados.
É preciso dar ênfase a ferramentas que permitam transparência, redução de vieses e trilhas de auditoria em IA, permitindo que as empresas confiem em suas soluções de IA e verifiquem a conformidade sob demanda. Ferramentas de segurança com tecnologia de IA se beneficiam da transparência, permitindo que analistas entendam decisões e aprimorem métodos de detecção de violações.
Os desenvolvedores devem ser capazes de fornecer interfaces que permitam às partes interessadas compreender, interpretar e questionar as decisões da IA, especialmente em setores críticos como seguros, saúde e finanças. As organizações devem ter clareza sobre a operação da IA, especialmente quando se trata de dados pessoais. Quando os usuários entendem como a IA lida com os dados, podem tomar decisões informadas sobre o compartilhamento de informações, reduzindo o risco de exposição de detalhes pessoais desnecessários.
As empresas podem priorizar a responsabilização criando estruturas para identificar e mitigar vieses, auditando regularmente seus sistemas e sendo receptivas a feedback. Auditorias externas estão se tornando uma forma popular de fornecer uma perspectiva imparcial. Por exemplo, a ForHumanity é uma organização sem fins lucrativos que pode auditar sistemas de IA de forma independente para analisar riscos. Recentemente, eles lançaram um Acelerador de Políticas de IA que incentiva as empresas de IA a submeter seus produtos à auditoria de acordo com rigorosos padrões de gestão de riscos, proporcionando um meio para testar proativamente as ferramentas de IA quanto à conformidade regulatória e à responsabilidade.
Outro caminho para uma IA confiável é a introdução de IA especializada ou desenvolvida especificamente para esse fim, como modelos de linguagem simplificada (SLMs). As empresas começaram a adotar IA desenvolvida especificamente para tarefas e objetivos específicos. Essa abordagem reduz a generalidade desnecessária para gerar resultados mais eficientes e precisos, ao mesmo tempo em que reduz os riscos de imprecisão ou excesso de pesquisa. Ao compactar o próprio modelo, a precisão de seus cálculos é menor, aumentando a velocidade e a exatidão.
3. Incorporar supervisão humana
A IA deve aprimorar as habilidades humanas, não substituí-las, especialmente na gestão de segurança, onde as decisões da IA podem ter consequências significativas. A supervisão humana ajuda a manter os sistemas de IA alinhados aos padrões éticos e aos valores sociais. Sem intervenção humana, os sistemas de IA podem cometer erros, demonstrar preconceito e ser mal utilizados, levando a sérios problemas de segurança e privacidade.
Frequentemente chamada de "human-in-the-loop" (HITL), essa abordagem colaborativa combina a contribuição humana com o aprendizado de máquina para melhorar a precisão e a credibilidade dos sistemas de IA. As organizações podem incorporar o HITL em diferentes processos, incluindo: treinamento, onde humanos rotulam os dados de treinamento para ajustar algoritmos; testes, onde humanos fornecem feedback sobre o desempenho do modelo; ou tomada de decisão, onde humanos revisam e confirmam o conteúdo sinalizado pela IA.
Para implementar abordagens HITL de forma eficaz em sistemas de IA, as organizações devem integrar a supervisão humana nas fases de treinamento, teste, implantação e manutenção. As equipes precisam rotular os dados de treinamento, fornecer feedback contínuo e validar os resultados gerados pela IA para aumentar a precisão e a credibilidade do sistema.
Também é crucial educar os funcionários sobre ética, requisitos regulatórios e melhores práticas em IA. Os líderes empresariais devem oferecer treinamentos contínuos para informar os funcionários sobre mudanças nas regulamentações e estratégias de conformidade em IA. O uso de humanos para supervisionar as práticas éticas priorizará a privacidade desde o início, garantindo que a coleta, o processamento e o armazenamento de dados sigam práticas seguras e transparentes.
4. Realizar avaliação contínua
Ameaças emergentes e cenários regulatórios em constante mudança representam um desafio crítico para as empresas, mas a IA pode ajudar a aliviar esse fardo automatizando o monitoramento regulatório. Ferramentas de IA, como inteligência de processos (PI), podem analisar fluxos de trabalho e grandes conjuntos de dados para sinalizar potenciais problemas de conformidade, garantindo a adesão às regulamentações e reduzindo esforços e custos manuais.
Utilizando métricas de confiança predefinidas, o software pode ajudar a detectar e lidar com riscos precocemente e prevenir ameaças cibernéticas antes que elas levem a violações de dados. Ele emite alertas quando regras são quebradas ou processos são desviados, permitindo que as empresas abordem discrepâncias proativamente e garantam a conformidade. Exemplos disso são auditorias contínuas de fluxos de trabalho financeiros em relação às regras do GDPR ou o aprimoramento de modelos de detecção de fraudes para reduzir falsos positivos e detectar novos padrões de fraude. As organizações também podem usá-lo para garantir que apenas funcionários autorizados tenham acesso a dados confidenciais, rastreando o login.
Uma governança eficaz de IA e as melhores práticas não apenas mitigam os riscos corporativos, mas também geram benefícios comerciais tangíveis, como maior fidelidade à marca e maior retenção de clientes. Ao implementar estruturas de IA confiáveis, as organizações podem fomentar a confiança entre as partes interessadas, garantindo um crescimento sustentável e, ao mesmo tempo, protegendo sua reputação em um mundo cada vez mais impulsionado pela IA.
Jon Knisley é especialista em processos de IA na ABBYY.
--------------------------------------------------------------------------------------------------
XVI Seminário de Gestão de Riscos e Seguros – EXPO ABGR 2025- Inscrições Abertas!
https://eventos.congresse.me/xvisgrs_expoabgr2025
Participe do evento com as maiores referências do mercado, explorando tendências e soluções.
✅ Painéis com especialistas
✅ Networking com grandes companhias
✅ Conteúdos alinhados ao cenário atual
O XVI Seminário de Gestão de Riscos e Seguros – EXPO ABGR 2025 abordará "O Gerenciamento de Riscos nas Organizações e o Marco Legal do Mercado de Seguros", trazendo insights valiosos para o mercado, dentre outros temas.
A ABGR apoia a EXPO Incêndio- De 27 a 29 de agosto de 2025. Participe!
Os associados ABGR têm 20% de desconto em todos os cursos da Conhecer Seguros.
São diversos treinamentos sobre Seguros, Gestão e Finanças, com professores especialistas. Acesse o site e aproveite mais esse benefício: https://conhecerseguros.com.br/.../SiteCurso/CarregaCursos
Parceria ABGR e ENS - Escola de Negócios e Seguros - Desconto aos Associados!
Mais informações em: www.abgr.com.br- comunicados
Curso Preparatório e Certificação Profissional Internacional em Gestão de Riscos
Associados ABGR têm desconto para inscrições antecipadas. Solicite mais informações através do e-mail: abgr@abgr.com.br
Acesse as edições mais recentes das publicações do Mercado de Seguros:
Revista Apólice: https://revistaapolice.com.br/2025/04/apolice-307-as-experiencias-internacionais-que-podem-servir-de-exemplo-para-o-brasil/
Revista Cobertura: https://www.revistacobertura.com.br/revistas/revista-cobertura-edicao-274/#1
Revista Insurance Corp: https://insurancecorp.com.br/pt/content/pdf/ic_ed58_2025.pdf
Revista Seguro Total: https://revistasegurototal.com.br/2025/02/17/revista-seguro-total-edicao-248-especial-24o-trofeu-gaivota-de-ouro/
Revista Segurador Brasil: https://revistaseguradorbrasil.com.br/edicao-191/
Revista de Seguros: https://issuu.com/confederacaocnseg/docs/revista_de_seguros_n_932
Conjuntura CNseg: https://cnseg.org.br/publicacoes/conjuntura-c-nseg-n-117
Revista Insurtalks: https://www.insurtalks.com.br/revista/revista-insurtalks-13
Revista Brasil Energia: https://brasilenergia.com.br/flip/1082
Risco Seguro Brasil: https://riscosegurobrasil.beehiiv.com/
Portal CQCS: https://cqcs.com.br/