
08 jul ‘Impossibilidade de identificar’: editora cancela concurso após detectar histórias possivelmente feitas por IA
A Editora Kotter cancelou o “Prêmio Kotter 2025” após identificar a inscrição de obras geradas por inteligência artificial. O anúncio foi feito na última sexta-feira (04), por meio de uma publicação no Instagram da editora curitibana.
“Pelo nosso compromisso com a idoneidade literária, diante da identificação de inúmeras obras recebidas terem sido geradas por IA e na impossibilidade de identificar com a certeza necessária esse uso, vimo-nos forçados a cancelar o concurso deste ano”, diz o comunicado.
Leia mais: IA vira gerente de loja, dá prejuízo financeiro e tem ‘crise de identidade’ durante experimento
“Estamos estudando como realizar o concurso, ano que vem, em tempos de IA. Contamos com a compreensão de todos e somos gratos pelas centenas de obras recebidas”, conclui a nota.
Essa seria a segunda edição da premiação, inaugurada em 2024 com o objetivo de reconhecer obras inéditas e autorais nas áreas de literatura, filosofia e política.
A Editora Kotter não divulgou quais foram as obras flagradas com uso de IA.
Uso de IA compromete avaliação
De acordo com Salvio Kotter, criador da editora, o concurso deste ano recebeu cerca de 900 inscrições. Dentre essas, 40 obras apresentavam sinais claros de uso de IA, como comentários deixados pela própria ferramenta, enquanto outras 60 continham indícios mais sutis de geração por modelos de linguagem. “São muitos os indícios que, quando se somam, aumentam a certeza”, explicou Kotter ao g1.
“O mais óbvio é o texto impecável do ponto de vista formal — ortografia, gramática e sintaxe — em obras de baixo valor literário. Se bem que o autor pode ter revisado à exaustão. Mas aí entram outras questões, cada vez mais abstratas, como o uso de palavras incomuns no português, mas bastante comuns no inglês — a IA escreve em português, mas ‘pensa’ em inglês.”
Observação: embora modelos generativos sejam majoritariamente treinados em inglês, muitos deles são treinados com vasto conteúdo em português brasileiro. A afirmação de que “a IA pensa em inglês” é, portanto, questionável e depende do modelo utilizado.
Kotter também citou outros padrões como indícios de autoria não humana. “Outro ponto é a regularidade das passagens — o texto não cresce nem cai, se mantém em um brilho plástico… E assim seguem-se outros indícios, cada vez mais abstratos. Quando um texto apresenta vários deles, fica muito difícil acreditar que tenha sido produto humano”.
Detectar IA é tarefa difícil
Desde a popularização das IAs generativas para produção e revisão de texto, surgiram discussões sobre a legitimidade e ética de seu uso em obras acadêmicas ou literárias. Enquanto alguns condenam completamente a prática, outros aceitam a ferramenta com uso criterioso.
No meio acadêmico, por exemplo, o uso de IA pode ser interpretado como plágio, e muitos professores recorrem a detectores online para estimar a probabilidade de um texto ter sido gerado por um modelo de linguagem.
Contudo, essas ferramentas não oferecem precisão absoluta. Os resultados se baseiam em padrões estatísticos que podem ser manipulados ou até mesmo replicados por escritores humanos. Há vários relatos, inclusive no LinkedIn, de jornalistas, escritores e profissionais que tiveram textos autorais apontados como “gerados por IA”, mesmo quando escritos antes da popularização de ferramentas como o ChatGPT — como é o caso do autor desta reportagem, que já flagrou falsos-positivos em publicações bem antigas.
Para mais atualizações sobre o impacto da IA no mercado editorial e em outras áreas da cultura, acompanhe o TecMundo nas redes sociais.