A plataforma consegue fazer a distinção de informações erradas gerada em textos criados por IA
Jornalistas, roteiristas e professores universitários estão entre os crescentes grupos preocupados em perder seus meios de subsistência para programas de inteligência artificial como o ChatGPT, que pode produzir textos mais rápidos e, possivelmente, melhores que os humanos. Mas um empreendedor aposta em uma tecnologia para facilitar a distinção entre o texto escrito por pessoas e aquele composto por uma máquina.
Edward Tian, um estudante de 22 anos da Universidade de Princeton que estuda ciência da computação e jornalismo, desenvolveu um aplicativo chamado GPTZero para impedir o uso indevido do chatbot ChatGPT nas salas de aula. O aplicativo conseguiu 1,2 milhão de usuários registrados desde janeiro.
Ele agora está lançando um programa, chamado Origin, com o objetivo de “salvar o jornalismo” ao distinguir a desinformação gerada por IA dos fatos na mídia online. Tian conseguiu US$ 3,5 milhões em financiamento coliderado pela Uncork Capital e Neo Capital, com investidores de tecnologia, entre eles Emad Mostaque, diretor-presidente da Stability AI, e Jack Altman.
O GPTZero analisa a aleatoriedade do texto, conhecida como perplexidade, e a uniformidade dessa aleatoriedade dentro do texto para identificar quando a IA está sendo usada. A ferramenta tem uma taxa de precisão de 99% para textos escritos por humanos e de 85% para textos de IA, de acordo com a empresa.
A equipe de dez pessoas agora quer empoderar o jornalismo e conversa com grandes organizações de mídia, como a BBC, e executivos do setor, incluindo o ex-CEO do “The New York Times” Mark Thompson, para discutir parcerias para detecção e análise de IA. A startup também vê sua tecnologia para uso em áreas de confiança e segurança, governo, direitos autorais, finanças, legislação e muito mais.
“Acreditamos que podemos reunir as pessoas mais inteligentes para trabalhar na detecção de IA em uma sala”, disse Tian. “O campo de detecção é muito novo, e acreditamos que merece mais atenção e apoio.”
A OpenAI, que criou o ChatGPT, lançou um classificador de texto de inteligência artificial para detectar conteúdo gerado por máquina, mas que está longe de ser infalível. A ferramenta identifica corretamente apenas 26% do texto escrito por IA como “provavelmente escrito por IA”, enquanto classifica incorretamente o texto escrito por humanos como gerado por IA em 9% das vezes. O classificador também funciona “significativamente pior” em outros idiomas além do inglês e “não é confiável” em códigos e textos mais curtos. Para entradas muito diferentes do texto no conjunto de treinamento da ferramenta, o classificador também pode estar errado, de acordo com a OpenAI.
“Nosso classificador tem uma série de limitações importantes”, reconhece a empresa no site. “Não deve ser usado como uma ferramenta primária de tomada de decisão, mas sim como um complemento a outros métodos de determinação da fonte de um texto.”
A falta de confiabilidade da ferramenta de detecção representa um dilema para educadores. Mesmo que um professor encontre um artigo suspeito de um aluno sinalizado com 70% de probabilidade de ser gerado por IA, desde que a precisão dessas ferramentas de detecção não seja de 100%, é muito difícil para os professores tomarem uma ação decisiva.
“Acho que não sabemos o que fazer com uma bandeira que indica um provável problema”, disse Jack Cushman, diretor do Harvard Library Innovative Lab, que estuda tópicos como o impacto da internet. “Tudo o que você pode fazer nesse ponto é conversar com um aluno e dizer que pode ter cometido desonestidade acadêmica de acordo com essa ferramenta.”
A nova concepção de plágio
Enquanto isso, a definição de plágio também tem evoluído com o surgimento da IA. “Isso vai desafiar toda a noção de honestidade acadêmica porque, às vezes, ter uma ferramenta que recomenda uma frase ou duas, ou ajuda com citações, será legítimo da mesma forma que usar uma calculadora para fazer trabalhos matemáticos”, disse. “A melhor resposta é que você não deve deixar que ela escreva tudo.”
Nick Loui, cofundador e CEO da PeakMetrics, startup que ajuda governos e grandes empresas a combater a desinformação, disse que seus clientes não estão tão preocupados com a ameaça de textos gerados por IA, porque o potencial de dano é menor do que a proliferação dos chamados vídeos “deepfake”, por exemplo, onde ocorreram mais casos maliciosos de conteúdo manipulado.