É fácil identificar quando algo foi escrito por inteligência artificial, não é? O texto soa excessivamente genérico. Mesmo sendo impressionante, falta personalidade. Além disso, há os sinais óbvios —os travessões, os exemplos seguindo a “regra de três” e o uso constante de palavras como “aprofundar” e “enfatizar”. A escrita, como disse um pesquisador de learning machine (aprendizado de máquina, em tradução livre), é “mediana”.

No entanto, cada um desses supostos sinais óbvios pode ser aplicado à escrita humana. Três exemplos em sequência são uma formulação comum na narrativa. Palavras como “aprofundar” são usadas em ambientes profissionais para dar ênfase. Jornalistas adoram travessões. Nada disso é exclusivo da IA.

Leia os guias “como identificar IA não divulgada” de sites como a Wikipédia e você receberá muitos conselhos contraditórios. Tanto a repetição quanto a variação são supostamente indicadores. Até mesmo os fornecedores de ferramentas de detecção de IA reconhecem que, como os modelos de inteligência artificial estão evoluindo e “a escrita humana varia amplamente”, eles não podem garantir precisão. Isso não impediu o surgimento de uma indústria de “especialistas” online declarando que conseguem identificar quando algo aparentemente escrito por uma pessoa foi realmente gerado por IA.

A ideia de que temos uma capacidade inata de identificar a profundidade humana nas palavras é uma ilusão. Sei disso porque no ano passado fui enganada e passei 15 minutos da minha vida conversando com um chatbot que se passava por um corretor de imóveis no WhatsApp. Olhando para trás, talvez o entusiasmo deles com a minha busca por um apartamento devesse ter sido um sinal. Mas não havia nada incomum nas palavras. Na verdade, a única razão pela qual sei que era um chatbot é porque ele me disse —algo que me provocou tanta raiva que imediatamente o bloqueei.

Aqui estão algumas estatísticas que encontrei para me sentir melhor sobre todos aqueles minutos desperdiçados. Uma pesquisa Ipsos com 9.000 pessoas publicada no mês passado descobriu que 97% das pessoas não conseguiam distinguir entre uma música gerada por IA e uma humana. E no ano passado, uma pesquisa da Universidade de Pittsburgh com mais de 1.600 pessoas convidadas a ler poesias escritas por humanos e IA descobriu que elas eram mais propensas a afirmar que os poemas gerados por IA haviam sido escritos por pessoas.

Esses estudos contrariam a ideia que muitos de nós temos de que podemos instintivamente identificar quando algo é IA.

É verdade que os melhores textos têm um calor ou estranheza tangível que seria difícil de replicar. Mas muitos textos não são assim. O mundo está cheio de textos desinteressantes, muitos deles usados para treinar modelos de linguagem. O texto gerado por IA está apenas refletindo essa realidade.

Isso não significa que os grandes modelos de linguagem (LLMs, na sigla em inglês) não escrevam com frases excessivamente uniformes e não repitam certas palavras. Eles fazem isso. Mas não a ponto de esses traços serem sinais infalíveis. Um editor de um jornal local canadense viralizou neste ano ao expor um freelancer que aparentemente usava inteligência artificial para inventar reportagens. Embora ele tenha afirmado que suas “frases mecânicas” deveriam ter sido um sinal, o que realmente levantou sua suspeita foi o fato de que alguém com publicações em jornais de Nova York afirmava morar em Toronto. Foi o contexto, não o conteúdo.

Os primeiros textos gerados por IA eram muito mais fáceis de identificar. Para começar, frequentemente estavam errados. Agora chegamos a um ponto confuso: o conteúdo produzido por IA está mais lapidado e é até incentivado em ambientes de trabalho, mas ao mesmo tempo tem status tão baixo que seu uso não declarado é visto como algo vergonhoso.

Apesar disso, há pouco interesse por marcas d’água que esclareceriam as coisas. Empresas de tecnologia fizeram um excelente trabalho ao convencer o mundo de que qualquer tipo de restrição teria o custo de “perder a corrida”. A União Europeia adiou a implementação de parte de sua Lei de Inteligência Artificial. O presidente Donald Trump quer barrar leis estaduais sobre IA.

Isso nos deixa num impasse. Se você suspeita que algo foi escrito por IA, pode perguntar nas redes sociais “Grok, isso é real?” ou colar o texto em ferramentas de detecção como GPTZero, Copyleaks e Surfer. Nenhuma delas é infalível. O Surfer, inclusive, tem uma ferramenta que promete “humanizar” textos produzidos por IA. Quando inseri um texto gerado por IA no humanizador e depois o submeti novamente ao detector do Surfer, ele indicou que o conteúdo havia sido escrito 100% por um humano.

Resta, então, o contexto. Se você sabe que o estilo de comunicação de alguém é conciso e essa pessoa aparece de repente com 800 palavras de texto rebuscado, provavelmente foi IA. Se um corretor de imóveis simpático tenta puxar conversa com você no WhatsApp, pergunte se ele é real. Erros como falhas de ortografia também tendem a indicar autoria humana. Mas não fique confiante demais. Você não reparou que as empresas de IA reduziram o uso de travessões quando eles passaram a ser vistos como um sinal de alerta? Se erros de ortografia forem suficientes para gerar confiança em textos de IA, bastaria programá-los.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

You May Also Like

Apple confirma data do evento de lançamento

Arte que a Apple inseriu no convite de lançamento para seu evento…

CNPq abre edital de R$ 215 mi para pesquisa fora do Brasil – 01/09/2025 – Ciência

O CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) abriu uma nova…

Comunista Jones Manoel ocupa vácuo e viraliza – 25/08/2025 – Encaminhado com Frequência

A direita ainda reina quase sozinha entre os maiores nomes da política…

Trump recebe Bill Gates, Tim Cook e Zuckerberg em jantar – 04/09/2025 – Mercado

O presidente Donald Trump reuniu alguns dos principais executivos do setor de…