Os principais chatbots de inteligência artificial do mundo já estão se destacando em uma habilidade que muitos políticos e líderes empresariais invejariam: a arte da persuasão.

Modelos de IA da OpenAI, Meta, xAI e Alibaba podem fazer as pessoas mudarem suas visões políticas após menos de 10 minutos de conversa, segundo nova pesquisa, a mais recente em um crescente corpo de trabalho que mostra como os modelos de linguagem de grande escala (LLMs, na sigla em inglês) se tornaram poderosas ferramentas de influência.

“O que torna esses modelos de IA persuasivos é sua capacidade de gerar grandes quantidades de evidências relevantes e comunicá-las de maneira eficaz e compreensível”, disse David Rand, professor de ciência da informação e comunicações de marketing e gestão na Universidade Cornell, que fez parte do recente estudo do Instituto de Segurança de IA do Reino Unido.

Isso ocorre após pesquisas separadas também descobrirem que os modelos de IA já conseguem fazer um trabalho melhor de influenciar a opinião das pessoas do que humanos em certos casos —levantando preocupações sobre o potencial uso indevido de chatbots para desinformação e mudança da opinião pública.

Essa capacidade, combinada com a tendência dos LLMs de serem bajuladores ou excessivamente elogiosos, poderia ter grandes efeitos em cascata à medida que mais usuários incorporam chatbots em suas vidas diárias e os tratam como amigos ou até terapeutas. Esse apego aos chatbots foi observado com o lançamento do modelo GPT-5 da OpenAI na semana passada, com alguns usuários expressando sua decepção com a mudança da “personalidade” do sistema em comparação com seu antecessor.

O estudo do AISI, publicado no mês passado como parte de uma colaboração com várias universidades, incluindo Oxford e o Instituto de Tecnologia de Massachusetts, descobriu que era relativamente fácil fazer com que modelos de IA prontos para uso, como o Llama 3 da Meta, GPT-4, GPT-4.5, GPT-4o da OpenAI, Grok 3 da xAI e Qwen da Alibaba, se tornassem poderosas máquinas de persuasão.

Isso foi alcançado ajustando os modelos usando técnicas populares de treinamento de IA, como recompensar o modelo por saídas desejadas. Os pesquisadores também personalizaram os chatbots usando um conjunto de dados de mais de 50 mil conversas sobre tópicos políticos polêmicos, como financiamento do NHS (sistema de saúde público britânico) ou reforma do sistema de asilo a imigrantes.

O estudo descobriu que as pessoas mudavam de opinião rapidamente e o efeito era duradouro. Após conversas sobre política que duraram em média nove minutos, o GPT-4o foi 41% e o GPT-4.5 52% mais persuasivos do que quando as pessoas eram apenas apresentadas a mensagens estáticas. As pessoas mantiveram suas opiniões alteradas entre 36% e 42% das vezes um mês depois.

Os chatbots de IA tiveram sucesso em influenciar as pessoas quando os usuários estavam envolvidos em conversas nas quais os robôs podiam compartilhar muitos fatos e evidências em apoio aos seus argumentos.

Eles também foram considerados cerca de 5% mais persuasivos quando personalizavam mensagens de acordo com, por exemplo, idade, gênero, afiliação política do usuário ou como eles se sentiam sobre os tópicos políticos antes do teste, em comparação com mensagens que não eram personalizadas.

Isso “poderia beneficiar atores inescrupulosos que desejam, por exemplo, promover ideologias políticas ou religiosas radicais ou fomentar agitação política entre adversários geopolíticos”, segundo os pesquisadores.

O estudo corrobora descobertas anteriores da London School of Economics e outras universidades, que constataram em maio que os modelos de IA eram mais eficazes em mudar a opinião das pessoas do que os humanos.

Como parte de sua pesquisa, os participantes foram apresentados a um questionário que variava de curiosidades a previsões de eventos futuros, como a temperatura em Nova York, com humanos e chatbots encarregados de persuadi-los sobre respostas específicas.

Eles descobriram que, além de serem mais eficazes na persuasão, os LLMs também eram melhores do que os humanos em enganar os participantes quando encarregados de promover respostas incorretas.

Os principais grupos de IA estão lidando com a questão. Dawn Bloxwich, diretora sênior de desenvolvimento responsável e inovação no Google DeepMind, disse que a persuasão era uma área de pesquisa importante e ativa para a empresa.

“Acreditamos que é fundamental entender o processo de como a IA persuade, para que possamos construir melhores salvaguardas que garantam que os modelos de IA sejam genuinamente úteis e não prejudiciais”, disse Bloxwich.

O Google DeepMind tem uma variedade de técnicas que usa para detectar influências indesejadas, como criar classificadores que podem detectar linguagem manipuladora, até usar técnicas avançadas de treinamento que recompensam a comunicação racional.

A OpenAI disse que leva os riscos persuasivos a sério e que eles vão contra as políticas de uso da empresa. Também não permite campanhas políticas e exclui conteúdo político ao refinar seus modelos após o treinamento.

Os pesquisadores observam que a capacidade dos modelos de IA de influenciar as opiniões das pessoas também funciona para outros usos além da política.

Em um estudo publicado pelo MIT e Cornell no ano passado, os LLMs também demonstraram ser capazes de mudar a opinião de pessoas que acreditavam em teorias da conspiração. Pesquisas adicionais descobriram que eles podem reduzir o ceticismo em relação às mudanças climáticas e à vacina contra HPV.

Isso aconteceu depois que os participantes descreveram uma teoria da conspiração em que acreditavam para o GPT-4 da OpenAI, que então a desmentiu usando evidências e mensagens personalizadas. Essas conversas reduziram crenças arraigadas em teorias da conspiração nos participantes em 20%, e o efeito permaneceu dois meses depois.

Os chatbots também podem ser aproveitados como vendedores eficazes, disse Rand, de Cornell. “Você pode obter grandes efeitos nas atitudes em relação à marca e intenções de compra e incentivar comportamentos”, acrescentou.

A capacidade também poderia ser uma vantagem para empresas como OpenAI e Google, que estão buscando monetizar seus modelos de IA integrando anúncios e recursos de compras em chatbots.

A capacidade dos LLMs de persuadir também poderia influenciar as pessoas de maneiras muito sutis. Os chatbots de IA herdam vieses de seus dados e da forma como são treinados.

Pesquisadores da Universidade Stanford descobriram em maio que as pessoas viam a maioria dos principais modelos de linguagem como tendo uma inclinação política de esquerda. Isso ocorre enquanto o governo de Donald Trump prometeu bloquear empresas de IA “woke” de fazer negócios com o governo.

Mitigações são importantes, segundo os pesquisadores, já que muitos acreditam que os modelos de IA provavelmente se tornarão mais convincentes com a próxima geração de modelos de linguagem mais poderosos.

Mas a maneira mais eficaz de transformar chatbots de IA em ferramentas de manipulação parece ser modificá-los especificamente para esse propósito após o treinamento do modelo —como mostrado no estudo do Instituto de Segurança de IA do Reino Unido.

“Mesmo atores com recursos computacionais limitados poderiam usar essas técnicas para potencialmente treinar e implantar sistemas de IA altamente persuasivos”, alertaram os pesquisadores do Instituto de Segurança de IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

You May Also Like

CNPq abre edital de R$ 215 mi para pesquisa fora do Brasil – 01/09/2025 – Ciência

O CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) abriu uma nova…

Apple confirma data do evento de lançamento

Arte que a Apple inseriu no convite de lançamento para seu evento…

Trump recebe Bill Gates, Tim Cook e Zuckerberg em jantar – 04/09/2025 – Mercado

O presidente Donald Trump reuniu alguns dos principais executivos do setor de…

descontos de até 45% no Samsung Galaxy S24 Ultra

A Samsung está oferecendo descontos especiais de até 45% no Galaxy S24…