Uso de Inteligência Artificial (IA)
Última atualização: 02/05/2026
A Pensar – Revista de Ciências Jurídicas adota como princípio fundamental que a autoria acadêmica é exclusivamente humana. Ferramentas de Inteligência Artificial generativa (como ChatGPT, Copilot, Gemini, entre outras) não podem, em nenhuma hipótese, ser reconhecidas como autoras ou coautoras de manuscritos.
O uso de IA deve ser sempre transparente, declarado, justificado e compatível com:
- As diretrizes da SciELO;
- O posicionamento do COPE sobre o uso de IA na autoria;
- A política institucional da Universidade de Fortaleza (UNIFOR);
- A Portaria CNPq nº 2.664, de 6 de março de 2026, que institui a Política de Integridade na Atividade Científica.
A revista reconhece que ferramentas de IA podem ser utilizadas como apoio em determinadas etapas da produção acadêmica e editorial, desde que tal uso não comprometa a integridade científica, a originalidade intelectual, a confidencialidade do processo editorial nem a responsabilidade humana sobre o conteúdo produzido.
1. Diretrizes para autores
A autoria é humana e intransferível. Nenhum sistema de IA pode figurar como autor ou coautor.
O uso de ferramentas de IA, quando aplicável, deve ser expressamente declarado pelo(s) autor(es) na Introdução do manuscrito e no Formulário de Submissão, com indicação de:
- Nome da ferramenta utilizada;
- Finalidade do uso (por exemplo: tradução, revisão linguística, apoio à organização do texto);
- Etapa do trabalho em que foi empregada.
Os autores permanecem integralmente responsáveis pelo conteúdo submetido, por sua originalidade, pela precisão dos dados, pela correção factual e jurídica das informações apresentadas e pelo respeito a direitos de terceiros, inclusive quando houver apoio de IA.
Modelo de declaração na Introdução
Desde 2026, todas as submissões à Pensar devem incluir, na Introdução do manuscrito, parágrafo próprio com a declaração sobre o uso (ou não) de IA. Modelo sugerido:
"Os autores declaram que utilizaram a ferramenta [nome da ferramenta] para [finalidade específica: ex.: revisão linguística, tradução, apoio à organização textual] na etapa de [etapa: ex.: redação, tradução para o inglês, revisão final]. A responsabilidade pelo conteúdo final, pela precisão das informações apresentadas e pela originalidade do texto é integralmente humana."
Ou, alternativamente: "Os autores declaram que não utilizaram ferramentas de Inteligência Artificial generativa em nenhuma etapa da produção deste manuscrito."
É vedado
- Apresentar conteúdo gerado por IA como se fosse produção intelectual humana original, sem a devida declaração;
- Utilizar IA para fabricar dados, referências, decisões, citações, jurisprudência, transcrições ou documentos inexistentes;
- Ocultar o uso relevante de IA quando ele tiver interferido na redação, estrutura, tradução, revisão substancial ou organização do conteúdo.
O uso não declarado de IA, quando relevante, constitui falha ética grave e poderá resultar em rejeição, arquivamento, retratação ou comunicação às instituições dos autores, conforme a gravidade do caso. Manuscritos submetidos passam por verificação de similaridade via Crossref Similarity Check / iThenticate, instrumento que pode contribuir para a identificação de uso não declarado.
2. Diretrizes para editores
Os editores devem zelar pela detecção e verificação de uso não declarado de IA em manuscritos, utilizando os meios institucionais adequados quando necessário.
O uso de IA por editores somente é admitido em tarefas auxiliares, técnicas ou administrativas, como:
- Apoio linguístico;
- Padronização formal;
- Triagem compatível com a segurança do processo editorial.
Nenhum manuscrito poderá ser compartilhado integral ou substancialmente em plataformas de IA que comprometam a confidencialidade, o anonimato, o sigilo editorial ou a propriedade intelectual do conteúdo submetido.
A decisão editorial é sempre humana e não pode ser delegada à IA.
3. Diretrizes para avaliadores (pareceristas)
Os avaliadores devem elaborar seus pareceres de forma autônoma, fundamentada e pessoal, não podendo delegar integralmente sua função a sistemas de IA.
É vedado inserir manuscritos, trechos identificáveis, dados sensíveis ou conteúdo confidencial em plataformas de IA que possam comprometer o sigilo, a anonimização do processo ou a proteção do conteúdo avaliado.
O uso eventual de IA como apoio meramente acessório e que não comprometa o sigilo, quando admitido pela política institucional, deverá ser informado ao editor responsável.
O parecerista deve observar se o manuscrito declara corretamente o uso de IA e, em caso de suspeita de uso não declarado, comunicar o fato ao editor responsável.
4. Diretrizes para a equipe técnica e editorial
A equipe técnica e editorial poderá utilizar IA em funções administrativas e operacionais, como:
- Tradução de comunicações;
- Organização de metadados;
- Padronização textual.
Tal uso é admitido desde que não comprometa a autonomia das decisões editoriais nem a confidencialidade do processo.
A revista não utilizará IA para alterar, resumir, traduzir ou reinterpretar automaticamente artigos científicos sem supervisão editorial humana e sem observância das políticas institucionais aplicáveis.
5. Descumprimento da política de IA
O descumprimento desta política poderá ensejar:
- Pedido de esclarecimentos;
- Suspensão da tramitação editorial;
- Rejeição da submissão;
- Arquivamento;
- Correção ou retratação;
- Comunicação à instituição de vínculo e à agência de fomento, quando cabível.
Documentos relacionados
- Política Editorial de Ciência Aberta (item 8 — política de IA)
- Formulário de Submissão (campo específico de declaração de IA)
- Verificação de Similaridade (Crossref Similarity Check)
- Ética na publicação









