O uso da inteligência artificial generativa no serviço público brasileiro já é uma realidade. Em 2025, diversas instituições — como o CNJ, o TCU, a CGU e o TCE de São Paulo — publicaram normas orientadoras para garantir o uso ético e responsável dessa tecnologia. O próprio Governo Federal também aderiu ao movimento, lançando uma cartilha com o mesmo objetivo.
Esses documentos têm dois propósitos centrais: ampliar a produtividade com o uso da IA generativa e prevenir os riscos significativos que acompanham essa tecnologia tão potente.
De fato, a IA generativa é uma aliada poderosa. Com poucos comandos, é possível resumir textos, revisar minutas, propor versões mais claras de pareceres e gerar entregas com uma agilidade inédita. No entanto, esse avanço exige atenção redobrada. A IA generativa não é neutra, nem ética por natureza — e seu uso, sem as devidas cautelas, expõe instituições a riscos importantes.
Apesar de carregar “inteligência” no nome, a IA não possui senso crítico, tampouco compromisso com o interesse público. Ela opera com base em padrões estatísticos e correlações — ou seja, sem discernimento moral, legal ou institucional.
Trata-se, portanto, de uma tecnologia transformadora e extremamente útil, mas que exige critérios rigorosos de uso, especialmente diante de riscos igualmente grandiosos. Vazamentos de dados, exposição de informações sensíveis e decisões forjadas por IA são riscos concretos que tomaram a realidade e estão sendo amplamente noticiados na imprensa nacional e internacional.
O caso Mata v. Avianca, Inc., nos Estados Unidos — em que advogados foram punidos por apresentarem precedentes jurídicos falsos gerados por IA — é emblemático. A multa aplicada foi pequena diante dos danos à reputação dos profissionais penalizados.
No Brasil, temos o exemplo de um juiz federal investigado pelo CNJ por utilizar decisões fictícias atribuídas ao STJ. Já a Amazon enfrentou críticas — e reconheceu o erro — ao constatar que seu sistema automatizado de recrutamento reproduzia vieses de gênero.
Esses casos evidenciam as chamadas alucinações da IA e seus vieses, que colocam em risco a legalidade, a equidade e a integridade institucional.
Não por acaso, corporações como a Samsung optaram por proibir o uso de IA aberta por seus funcionários no sistema corporativo, após incidentes envolvendo o vazamento de dados sigilosos.
No setor público, a preocupação é ainda mais crítica. Servidores acessam diariamente ferramentas de IA aberta enquanto lidam com dados sensíveis de milhões de brasileiros — e tomam decisões que impactam diretamente a vida da população. O uso inadequado dessas ferramentas pode expor informações sigilosas, violar o ordenamento jurídico e gerar danos irreparáveis às pessoas, aos cofres públicos e à sociedade.
O uso da IA generativa deve respeitar os princípios constitucionais da moralidade, equidade, legalidade e segurança jurídica. A Lei Geral de Proteção de Dados (LGPD) impõe obrigações rigorosas quanto ao tratamento de dados pessoais — exigências que se tornam ainda mais relevantes no contexto do uso da IA no serviço público.
Por isso, adotar medidas de compliance, governança e treinamento contínuo de equipes é uma necessidade urgente. Trata-se de proteger processos, recursos públicos, direitos dos cidadãos e a reputação da Administração Pública.
A construção de uma cultura de uso consciente e seguro da tecnologia é essencial para que a IA venha a somar — e não comprometer — a gestão pública.
É imprescindível estabelecer regras claras, assegurar supervisão humana qualificada, definir protocolos éticos robustos e promover uma cultura organizacional que valorize a responsabilidade digital.
Se utilizada com responsabilidade, a IA generativa pode ser uma aliada excepcional da boa governança. Caso contrário, pode gerar prejuízos graves, perda de eficiência, violação de direitos e erosão da confiança social nas instituições.
Assim como fizeram o CNJ, o TCU, a CGU, o TCE-SP e o Governo Federal, os demais órgãos públicos também precisam agir. O momento exige liderança, visão institucional e compromisso com a integridade.
Mais do que um desafio técnico, trata-se de um compromisso público inadiável: regulamentar para proteger — ou se omitir e responder pelas consequências potencialmente desastrosas.
O desafio está posto: as instituições públicas precisam construir uma cultura de uso consciente, ético e seguro da inteligência artificial — reforçando a confiança da sociedade nas instituições e promovendo um serviço público moderno, eficiente e comprometido com os valores democráticos.
Publicado no Le Monde Diplomatique Brasil – Edição 215 – em 23 de junho de 2025.