Créditos: Imprensa SINSSP

A complexidade sobre o uso da inteligência artificial na administração pública federal fez com que o SINSSP-BR analisasse criticamente a possível introdução da IA no INSS, considerando a garantia legal da exclusividade das atribuições finalísticas da Carreira do Seguro Social.

As publicações serão divididas em três partes para facilitar a leitura do tema, buscando a seguinte compreensão: a implementação da inteligência artificial no INSS deve ocorrer com prudência, ética e segurança, respeitando a legislação vigente, especialmente o Artigo 5º-B da Lei 10.855/04, visando sempre a proteção das funções essenciais da Carreira do Seguro Social que é indispensável para assegurar os direitos previdenciários dos cidadãos e prevenir fraudes que ameaçam o patrimônio público.

A parte 01 desse material trouxe a essência das atribuições do Seguro Social no INSS e a magnitude de sua Gestão (clique aqui para ler). A parte 02 vai abordar sobre os riscos do uso de IA trazer ameaças à integridade, aos direitos dos segurados e ao orçamento público.

Apesar do potencial da IA para otimizar processos, sua implementação no INSS, se não for cuidadosamente planejada, limitada e auditada, pode gerar riscos significativos, especialmente em relação ao Artigo 5º-B, à proteção dos direitos dos segurados e à integridade do vultoso orçamento público.

O principal risco é a descaracterização do caráter exclusivo das atribuições dos servidores. Se a IA for utilizada para proferir decisões finais ou para realizar alterações cadastrais que impactem direitos sem a supervisão e validação humana qualificada, haverá um conflito direto com o Artigo 5º-B, que estabelece o caráter exclusivo das atribuições finalísticas, impõe um limite claro à automação completa dos processos decisórios no INSS.

A IA, por mais avançada que seja, não possui a capacidade de julgamento humano, a sensibilidade para casos complexos e a responsabilidade legal que um servidor público investido na função detém.

A substituição integral do julgamento humano por algoritmos em decisões críticas, especialmente aquelas que envolvem a concessão de benefícios previdenciários ou assistenciais, que envolvem análises complexas e multifacetadas que exigem sensibilidade às particularidades de cada caso, seria uma violação direta da lei e dos princípios que regem a administração pública.

Riscos de fraudes no uso da Inteligência Artificial

Uma possível introdução da IA, embora promissora para a eficiência, também abre novas e sofisticadas portas para a fraude, com potencial de impacto financeiro devastador em um orçamento de mais de R$ 1 trilhão. As vulnerabilidades especificas na gestão de benefícios consistem:

  • Volume e Complexidade de Dados: O INSS lida com um volume massivo de dados de segurados e regras complexas de elegibilidade. A IA, ao processar esses dados em larga escala, pode ser alvo de manipulação para identificar e explorar lacunas ou inconsistências.
  • Automação de Processos: A automação de etapas como análise preliminar de elegibilidade ou processamento documental, se não for robustamente auditada, pode ser explorada por fraudadores que aprendam os padrões do algoritmo.
  • Dependência de Documentos Digitais: A crescente digitalização de documentos e processos torna o sistema vulnerável à inserção de informações falsas ou documentos sintéticos gerados por IA.
  • Falta de Transparência Algorítmica: Se a lógica de decisão da IA for opaca (caixa-preta), torna-se difícil detectar se um benefício foi concedido ou negado devido a um erro legítimo, um viés algorítmico ou uma manipulação fraudulenta.

A seguir alguns exemplos de fraudes potenciais facilitadas por IA:

  • Geração Automatizada de Pedidos Fraudulentos: Um fraudador poderia usar IA para gerar automaticamente milhares de pedidos de benefícios com dados falsos ou manipulados, sobrecarregando o sistema e aumentando a chance de que alguns passem despercebidos.
  • Data Poisoning (Envenenamento de Dados): Fraudadores poderiam injetar dados maliciosos nos conjuntos de treinamento da IA fazendo com que o algoritmo aprenda padrões incorretos ou vieses que favoreçam a aprovação de benefícios fraudulentos no futuro.
  • Exploração de Padrões Algorítmicos: Se a IA for usada para identificar padrões de fraude, os próprios fraudadores podem usar IA para analisar esses padrões e criar novas estratégias para contornar as detecções, em uma “corrida armamentista” tecnológica.

Confira a seguir os mecanismos de detecção e prevenção:

  • Supervisão Humana Robusta e Contínua: A presença do servidor da Carreira do Seguro Social é a principal barreira contra fraudes sofisticadas. A decisão final e a responsabilidade devem sempre recair sobre o agente público.
  • IA Explicável (XAI) e Auditável: Implementar sistemas de IA cujas decisões possam ser compreendidas, auditadas e justificadas. Isso permite que os servidores identifiquem a lógica por trás de uma decisão e detectem anomalias.
  • Treinamento Adversarial de IA: Desenvolver e treinar modelos de IA para detectar não apenas fraudes conhecidas, mas também novas formas de fraude geradas por outras IAs, antecipando-se às táticas dos fraudadores.
  • Blockchain e Tecnologias de Imutabilidade: Utilizar tecnologias que garantam a integridade e a imutabilidade dos registros de dados e transações, dificultando a manipulação.
  • Validação Cruzada de Dados: Integrar e cruzar dados com outras bases governamentais e privadas para verificar a autenticidade das informações fornecidas.
  • Auditorias Periódicas e Aleatórias: Realizar auditorias regulares nos processos automatizados e nas decisões assistidas por IA, com foco na detecção de padrões incomuns ou suspeitos.

Qual a relevância e o impacto econômico que as fraudes viabilizam:

  • Perdas Financeiras Diretas: Em um orçamento que ultrapassa R$ 1 trilhão, mesmo uma pequena porcentagem de fraude representa bilhões de reais desviados, que deveriam ser destinados a quem realmente precisa.
  • Desvio de Recursos: Cada real pago indevidamente é um real que deixa de ser investido em melhorias para o sistema, em atendimento ou em benefícios legítimos.
  • Erosão da Confiança Pública: Fraudes em larga escala minam a confiança da população no INSS e na capacidade do Estado de gerir os recursos públicos de forma íntegra e justa.

Além dos riscos de fraude, a utilização desmedida da IA pode comprometer a integridade do sistema previdenciário e os direitos dos segurados de diversas formas:

  • Vieses Algorítmicos e Discriminação: Sistemas de IA são treinados com dados históricos que podem, inadvertidamente, conter e replicar vieses e preconceitos sociais. No contexto do INSS, isso pode resultar em decisões discriminatórias contra populações vulneráveis, como populações rurais, pessoas com menor grau de instrução, idosos com dificuldade de acesso tecnológico ou outros grupos vulneráveis. A Lei Geral de Proteção de Dados Pessoais (LGPD) e a Constituição Federal vedam a discriminação, e a IA deve respeitar esses princípios, o que é um desafio em um país com tamanha diversidade cultural e regional.
  • Falta de Transparência (Caixa-Preta): Muitos algoritmos de IA, especialmente os mais complexos, operam como “caixas-pretas”, tornando difícil ou impossível explicar como uma determinada decisão foi tomada. Isso compromete o direito do cidadão à informação e à publicidade dos atos administrativos, conforme Art. 5º, XXXIII, e Art. 37 da Constituição Federal. A impossibilidade de explicar a lógica decisória de um algoritmo pode minar a legitimidade do processo administrativo e dificultar a contestação de decisões por parte dos segurados.
  • Perda da Dimensão Humana do Serviço Público: O serviço público não se resume à aplicação mecânica de regras. Ele envolve empatia, compreensão contextual e sensibilidade às situações individuais. A automação excessiva pode desumanizar o atendimento, especialmente para cidadãos em condição de vulnerabilidade, que muitas vezes precisam de um acolhimento e uma análise que transcende a mera aplicação de critérios objetivos. O princípio da eficiência administrativa não se limita à celeridade processual, abrangendo também a qualidade do serviço prestado.
  • Questões de Responsabilização: A responsabilidade por erros ou danos causados por decisões baseadas em IA é uma questão complexa e ainda com lacunas normativas. Embora o Art. 37, §6º da Constituição Federal estabeleça a responsabilidade objetiva do Estado, a identificação do responsável (servidor, desenvolvedor, gestor) em caso de falha algorítmica é um desafio. Essa incerteza pode comprometer a segurança jurídica e a capacidade de reparação de danos aos segurados.
  • Segurança e Proteção de Dados: O INSS lida com um volume imenso de dados sensíveis dos cidadãos. A implementação de sistemas de IA exige níveis robustos de segurança da informação para proteger esses dados contra acessos não autorizados e usos indevidos, conforme a LGPD. Qualquer falha nesse aspecto pode ter consequências graves para a privacidade e os direitos dos segurados.

Gostou da segunda parte sobre a Inteligência Artificial no setor público? Não perca a parte 3 que sairá nesta quarta-feira (18/06)

Filie-se ao SINSSP-BR, clique aqui. Sem o seu apoio, amanhã talvez não estejamos mais aqui para lutar por esta demanda e tantas outras demandas importantes para a carreira. Com a sua participação a força do sindicato cresce e os avanços vêm com mais rapidez.