Documento publicado no Diário da Justiça em 19 de novembro reúne orientações do Comitê de Governança em Inteligência Artificial
Porto Velho, RO – A Nota Técnica n. 2/2025 do Tribunal de Justiça de Rondônia (TJRO) foi disponibilizada no Diário da Justiça desta quarta-feira, 19, com orientações sobre medidas de segurança aplicadas ao uso de sistemas de inteligência artificial no Judiciário. O material, elaborado pelo Comitê de Governança em Inteligência Artificial (CGIA), consolida procedimentos direcionados à prevenção de alterações maliciosas em documentos processuais submetidos a ferramentas automatizadas. As diretrizes atendem à Resolução CNJ n. 615/2025, que trata de parâmetros de segurança e auditoria para soluções tecnológicas no sistema de Justiça.
O texto apresenta explicações sobre o risco conhecido como prompt injection, definido como a inclusão proposital de comandos ocultos em arquivos processuais. Conforme descrito, essa prática pode modificar o desempenho de sistemas responsáveis por análise, classificação ou sumarização de informações. O documento menciona diferentes técnicas utilizadas, entre elas textos invisíveis, instruções em metadados, camadas não visíveis em PDFs e comandos inseridos em fontes que não podem ser lidas.
AS ÚLTIMAS OPINIÕES
++++
A Nota Técnica reúne fundamentos jurídicos e éticos que tratam das implicações da manipulação de sistemas de IA. O conteúdo informa que a conduta pode violar a boa-fé processual, caracterizar litigância de má-fé e contrariar deveres estabelecidos no Estatuto da Advocacia, além de alcançar princípios constitucionais como devido processo legal e isonomia. Para reduzir riscos, o material orienta medidas como registro detalhado de logs, revisão humana obrigatória dos resultados automatizados, verificação de formatos documentais e capacitações contínuas voltadas a magistrados, servidores e equipes de tecnologia.
O documento também recomenda que o tema seja amplamente divulgado à comunidade jurídica e encaminhado à OAB Rondônia. Segundo registrado na nota, manipulações intencionais voltadas a influenciar sistemas de IA podem resultar em responsabilização administrativa, processual e ética.




