Ir para o conteúdo
Artigo · Revista Trivento

IA generativa no setor público

Autor:rafael alfaia Revisor:Revisor
Publicado em23/12/2025
Leitura

Introdução

A inteligência artificial generativa passou, em pouco tempo, de uma curiosidade tecnológica para uma ferramenta presente no dia a dia de organizações no mundo inteiro. No setor público, esse movimento chama atenção porque ocorre justamente onde há grande volume de demandas, processos repetitivos e necessidade constante de comunicação clara com a população. Em muitos órgãos, equipes lidam com filas de atendimento, produção de relatórios, análise de documentos, respostas padronizadas, elaboração de ofícios e atualização de sistemas, frequentemente com recursos limitados e prazos apertados. Nesse cenário, a IA generativa surge como uma possibilidade concreta de apoio ao trabalho, com potencial para aumentar a produtividade e melhorar a qualidade dos serviços prestados.

Ao mesmo tempo, aplicar essa tecnologia em políticas e serviços públicos exige cuidados adicionais. Diferentemente do uso em ambientes privados, decisões e informações produzidas no Estado impactam direitos, benefícios e a confiança do cidadão nas instituições. Uma resposta incorreta, uma orientação mal formulada ou o uso inadequado de dados pessoais pode gerar prejuízos reais, além de comprometer a credibilidade do órgão. Por isso, discutir IA generativa no setor público significa ir além do entusiasmo com automação: envolve governança, transparência, segurança, conformidade com a LGPD, avaliação de riscos e definição clara de responsabilidades.

Esta pesquisa introduz o tema a partir de uma perspectiva prática e responsável. Em vez de tratar a IA generativa como substituta do servidor, o foco está em entender como ela pode funcionar como ferramenta de apoio, em quais atividades tende a gerar mais valor, quais limites precisam ser respeitados e quais critérios ajudam a garantir uma adoção segura e orientada ao interesse público. A proposta é contribuir para um debate que equilibre inovação com proteção ao cidadão, priorizando resultados e confiabilidade na entrega dos serviços.

Métodos

Métodos

Este trabalho adota uma abordagem qualitativa e exploratória, com o objetivo de compreender como a IA generativa vem sendo aplicada no setor público, quais benefícios são mais recorrentes e quais riscos e salvaguardas aparecem com maior frequência nas experiências relatadas.

A pesquisa foi conduzida em três frentes complementares:

1. Revisão de literatura
Foi realizada uma revisão narrativa de publicações acadêmicas, relatórios técnicos e materiais institucionais sobre IA generativa, transformação digital no governo, governança de dados, segurança da informação e LGPD. A seleção priorizou textos que descrevem usos concretos (atendimento ao cidadão, produção de documentos, apoio à gestão) e discussões sobre riscos (viés, alucinação, privacidade, transparência).

2. Análise documental
Foram analisados documentos públicos e normativos relacionados ao uso de tecnologias digitais no serviço público, com foco em diretrizes de proteção de dados, boas práticas de segurança, padrões de atendimento e políticas de governança. Essa etapa buscou identificar requisitos mínimos para adoção responsável, como bases legais para tratamento de dados, registro de decisões, auditoria e participação de equipes técnicas e jurídicas.

3. Sistematização de casos e critérios de avaliação
A partir do material coletado, foram organizados exemplos de uso em categorias (comunicação e atendimento, gestão interna, apoio técnico, produção de conhecimento) e definidos critérios para avaliar adequação e risco, incluindo: sensibilidade dos dados envolvidos, impacto potencial sobre direitos, necessidade de explicabilidade, nível de automação permitido, presença de validação humana e mecanismos de rastreabilidade. Em seguida, foi feita uma análise temática, agrupando evidências em eixos como ganhos operacionais, qualidade do serviço, riscos críticos e medidas de mitigação.

Como cuidado ético, o método pressupõe que, em aplicações com dados pessoais, a avaliação considere minimização de dados, controle de acesso, registro de logs e conformidade com a LGPD. Por se tratar de estudo exploratório, as conclusões são apresentadas como tendências e recomendações, evitando generalizações absolutas e destacando limites de contexto entre diferentes órgãos e realidades locais.

Resultados

Resultados

A análise dos materiais revisados e dos documentos institucionais indica que a IA generativa vem sendo incorporada no setor público principalmente como ferramenta de apoio, com maior presença em atividades de texto, organização de informação e atendimento inicial. Em geral, os resultados apontam ganhos consistentes quando a tecnologia é aplicada em tarefas padronizáveis e de baixo risco decisório, e perdas ou incidentes quando é usada sem validação humana, sem controle de dados e sem regras claras de responsabilização.

1. Principais usos identificados
Os casos e descrições analisados se concentram em quatro grupos de aplicação:
a) Comunicação e atendimento ao cidadão: rascunho de respostas, chatbots de triagem, organização de FAQs e simplificação de linguagem.
b) Produção administrativa: minutas de ofícios e relatórios, padronização de comunicações internas, apoio na elaboração de termos e documentos.
c) Apoio à gestão e ao conhecimento: resumo de documentos longos, extração de pontos-chave, criação de checklists e roteiros de processos.
d) Suporte técnico: auxílio na documentação de sistemas, explicação de regras de negócio, organização de demandas e testes de conteúdo.

2. Benefícios recorrentes
Os benefícios mais frequentes aparecem em três dimensões:
a) Redução de tempo em tarefas repetitivas: há indícios de ganho em velocidade para rascunhar textos, consolidar informações e preparar versões iniciais de documentos, o que tende a liberar tempo das equipes para atividades de maior valor público.
b) Padronização e clareza: quando há modelos e orientações internas, a IA ajuda a manter consistência no tom, nos formatos e na linguagem, reduzindo variações que confundem o cidadão.
c) Melhoria no fluxo de atendimento: em usos de triagem, a tecnologia pode organizar demandas, sugerir encaminhamentos e reduzir o tempo de resposta, desde que não substitua decisões sensíveis.

3. Limitações e problemas observados
A literatura e os relatos institucionais convergem em três limitações críticas:
a) Respostas incorretas e excesso de confiança: a IA pode produzir informações plausíveis, mas erradas, especialmente quando a base normativa muda com frequência ou quando a pergunta exige interpretação específica do órgão.
b) Risco de viés e injustiça: há preocupação consistente com respostas diferentes para perfis semelhantes, reforço de estereótipos e priorizações inadequadas, sobretudo em áreas que impactam direitos e benefícios.
c) Privacidade e segurança: o risco aumenta quando o uso envolve dados pessoais, documentos sensíveis ou integração direta com sistemas internos sem camadas de controle, registro e autorização.

4. Fatores associados a bons resultados
Os materiais analisados apontam que os melhores resultados aparecem quando existem condições mínimas de implementação:
a) Validação humana obrigatória em conteúdos que orientam o cidadão ou afetam decisões.
b) Governança com regras de uso, trilhas de auditoria e definição de responsabilidade por revisão e publicação.
c) Minimização de dados e controle de acesso, com atenção a bases legais e princípios da LGPD.
d) Contexto institucional bem definido, com bases internas de conhecimento e padrões de linguagem para reduzir improviso.
e) Monitoramento contínuo, com registro de falhas, métricas de qualidade e canal de correção rápida.

5. Síntese interpretativa
De forma geral, os resultados sugerem que a adoção de IA generativa no setor público tende a ser mais segura e efetiva quando o foco está em apoiar o trabalho humano e melhorar processos de comunicação e organização, e não em automatizar decisões. A tecnologia aparece como mais promissora em tarefas de rascunho, consolidação e triagem, enquanto aplicações em áreas de alto impacto exigem níveis elevados de controle, transparência e revisão, sob risco de comprometer direitos e confiança institucional.

Se você quiser, eu adapto os resultados para o seu formato de artigo (ABNT ou modelo de revista) e também posso incluir uma seção curta de discussão conectando diretamente estes achados com a introdução e o resumo.

Discussão

A discussão dos resultados reforça que a IA generativa tem mais valor no setor público quando é tratada como infraestrutura de apoio ao trabalho, e não como um “decisor automático”. Os ganhos observados em produtividade e padronização são consistentes, mas dependem diretamente do recorte de uso: quanto mais a aplicação se aproxima de orientar o cidadão, interpretar normas ou afetar direitos, maior a exigência de controles, revisão e transparência. Isso ajuda a explicar por que iniciativas bem-sucedidas tendem a começar por tarefas internas, como rascunhos, resumos e organização de informação, e só depois avançam para atendimentos mais sensíveis.

Um ponto central é a confiança. No serviço público, confiança não é um detalhe reputacional, é parte do próprio funcionamento institucional. Quando uma resposta gerada por IA parece segura, mas está errada, o dano se multiplica: a pessoa pode perder prazos, seguir orientações inadequadas, desistir de um serviço ou ser encaminhada de forma equivocada. Por isso, a validação humana não aparece como “burocracia extra”, e sim como mecanismo de proteção ao cidadão e ao órgão. A IA pode acelerar o primeiro rascunho, mas a responsabilidade final precisa permanecer claramente atribuída a servidores e gestores, com critérios de revisão proporcionais ao risco.

Os resultados também indicam que governança e LGPD não podem entrar apenas no final do projeto. A tentação de “testar rápido” é compreensível, mas, no setor público, o custo de testar sem regras pode ser alto. O uso de dados pessoais, a integração com sistemas internos e o armazenamento de históricos de atendimento exigem minimização, controle de acesso e rastreabilidade. Na prática, isso significa definir o que pode ser enviado ao modelo, o que deve ser anonimizado, quando é proibido usar dados sensíveis e como registrar logs para auditoria. Sem esse desenho, a IA vira um vetor de risco, não uma solução.

Outra questão relevante é a desigualdade no acesso. Mesmo que a IA melhore o atendimento digital, parte significativa da população pode ter conectividade limitada, baixa familiaridade com tecnologia ou necessidades de acessibilidade. Se a inovação não vier acompanhada de linguagem simples, alternativas presenciais ou híbridas, e atenção a acessibilidade, o efeito pode ser o oposto do desejado: moderniza para alguns e dificulta para outros. Nesse sentido, a discussão sobre IA no setor público deve incluir, desde o início, critérios de inclusão e qualidade do serviço, não apenas eficiência operacional.

Por fim, os achados sugerem que a implementação responsável passa por um caminho incremental. Projetos pequenos, bem delimitados, com métricas claras e ciclos de melhoria tendem a reduzir riscos e aumentar aprendizado institucional. O foco inicial pode estar em atividades de baixo impacto decisório, com expansão gradual para cenários mais complexos à medida que a organização amadurece em governança, segurança e gestão de mudanças. Assim, a IA generativa pode contribuir para um setor público mais ágil e responsivo, desde que opere dentro de limites bem definidos, com supervisão humana e compromisso explícito com direitos, transparência e interesse público.

Conclusões

A adoção de IA generativa no setor público se apresenta como uma oportunidade concreta para melhorar a eficiência administrativa e qualificar a comunicação com o cidadão, especialmente em tarefas repetitivas e de alto volume, como produção de minutas, organização de informações e triagem inicial de demandas. Os resultados indicam que, quando aplicada com objetivos claros e processos bem definidos, a tecnologia tende a reduzir retrabalho, acelerar fluxos internos e contribuir para maior padronização e clareza no atendimento.

Entretanto, a pesquisa também evidencia que os principais riscos não são periféricos: respostas incorretas, vieses e exposição de dados podem afetar diretamente direitos e comprometer a confiança institucional. Por isso, o uso de IA generativa no setor público precisa ser orientado por governança, conformidade com a LGPD, rastreabilidade, segurança da informação e validação humana proporcional ao risco da atividade. Em especial, aplicações que orientam decisões, interpretam normas ou interferem em benefícios e serviços essenciais exigem controles mais rigorosos e limites explícitos.

Conclui-se, portanto, que a questão não é simplesmente adotar ou rejeitar a IA generativa, mas definir como utilizá-la com responsabilidade e foco no interesse público. Um caminho incremental, começando por usos de baixo impacto e ampliando conforme a maturidade institucional, tende a gerar melhores resultados. Com regras claras, supervisão humana e compromisso com inclusão e transparência, a IA generativa pode se tornar uma aliada na modernização do Estado, ampliando a capacidade de resposta sem abrir mão da proteção ao cidadão.

Agradecimentos

Agradecimentos

Agradeço, em primeiro lugar, a Deus, pela força, sabedoria e direção ao longo de todo o percurso deste trabalho. Agradeço também à minha família, pelo apoio constante, pela paciência e por acreditarem em mim, mesmo nos momentos mais difíceis.

Registro minha gratidão aos professores e orientadores que contribuíram com acompanhamento, sugestões e incentivo, ajudando a transformar ideias em um estudo mais consistente. Agradeço aos colegas e amigos que colaboraram com debates, leituras, revisões e palavras de motivação, tornando o processo menos solitário e mais significativo.

Por fim, agradeço a todas as pessoas e profissionais do setor público que, direta ou indiretamente, inspiram esta pesquisa ao enfrentarem diariamente desafios reais para melhorar o atendimento à população. Este trabalho é, também, um reconhecimento do valor do serviço público comprometido com o interesse coletivo.

Referências

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF, 2018. ([Planalto][1])

BRASIL. Decreto nº 12.198, de 24 de setembro de 2024. Institui a Estratégia Federal de Governo Digital para o período de 2024 a 2027. Brasília, DF, 2024. ([Planalto][2])

BRASIL. Ministério da Ciência, Tecnologia e Inovações (MCTI). Estratégia Brasileira de Inteligência Artificial (EBIA). Brasília, DF, 2021. ([Serviços e Informações do Brasil][3])

AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Guia orientativo para a definição dos agentes de tratamento e do encarregado. Brasília, DF, 2021. ([Serviços e Informações do Brasil][4])

NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). Artificial Intelligence Risk Management Framework (AI RMF 1.0). Gaithersburg, MD, 2023. ([NIST Publicações Técnicas][5])

NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). NIST Privacy Framework: A Tool for Improving Privacy through Enterprise Risk Management, Version 1.0. Gaithersburg, MD, 2020. ([NIST Publicações Técnicas][6])

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). Paris, 2019. ([Instrumentos Legais da OCDE][7])

UNITED NATIONS EDUCATIONAL, SCIENTIFIC AND CULTURAL ORGANIZATION (UNESCO). Recommendation on the Ethics of Artificial Intelligence. Paris, 2021. ([en.unesco.org][8])

UNITED KINGDOM. Cabinet Office. Generative AI Framework for HM Government. London, 2024. ([Gov.uk][9])

UNITED KINGDOM. AI Playbook for the UK Government. London, 2025. ([Gov.uk][10])

UNIÃO EUROPEIA. Regulamento (UE) 2024/1689, de 13 de junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial (Artificial Intelligence Act). Jornal Oficial da União Europeia, 2024. ([Eur-Lex][11])

BRASIL. Estratégia Federal de Governo Digital 2024 a 2027. Brasília, DF, 2024. ([Serviços e Informações do Brasil][12])

[1]: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm?utm_source=chatgpt.com "L13709 - Planalto"

[2]: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2024/decreto/d12198.htm?utm_source=chatgpt.com "D12198 - Planalto"

[3]: https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/estrategia-brasileira-de-inteligencia-artificial?utm_source=chatgpt.com "Estratégia Brasileira de Inteligência Artificial - Portal Gov.br"

[4]: https://www.gov.br/anpd/pt-br/centrais-de-conteudo/materiais-educativos-e-publicacoes/2021.05.27GuiaAgentesdeTratamento_Final.pdf?utm_source=chatgpt.com "Guia Orientativo para Definições dos Agentes de Tratamento ..."

[5]: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf?utm_source=chatgpt.com "Artificial Intelligence Risk Management Framework (AI RMF 1.0)"

[6]: https://nvlpubs.nist.gov/nistpubs/CSWP/NIST.CSWP.01162020.pdf?utm_source=chatgpt.com "NIST Privacy Framework"

[7]: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449?utm_source=chatgpt.com "Recommendation of the Council on Artificial Intelligence"

[8]: https://en.unesco.org/artificial-intelligence/ethics?utm_source=chatgpt.com "Recommendation on the ethics of artificial intelligence"

[9]: https://www.gov.uk/government/publications/generative-ai-framework-for-hmg?utm_source=chatgpt.com "[Withdrawn] Generative AI Framework for HMG"

[10]: https://www.gov.uk/government/publications/ai-playbook-for-the-uk-government?utm_source=chatgpt.com "AI Playbook for the UK Government"

[11]: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A32024R1689&utm_source=chatgpt.com "Regulamento - UE - 2024/1689 - EN - EUR-Lex"

[12]: https://www.gov.br/governodigital/pt-br/estrategias-e-governanca-digital/EFGD?utm_source=chatgpt.com "Estratégia Federal de Governo Digital 2024-2027 - Portal Gov.br"