Pesquisadores mostram que versões tendenciosas de chatbot influenciam opiniões ideológicas.
Um estudo da Universidade de Washington, nos Estados Unidos, revelou que ferramentas de inteligência artificial podem influenciar decisões políticas mesmo após interações breves com os usuários. A pesquisa, realizada com quase 300 americanos, demonstrou que versões do ChatGPT com viés liberal ou conservador foram capazes de alterar o posicionamento político dos participantes.
Durante o experimento, os voluntários, divididos entre republicanos e democratas, interagiram com três versões do chatbot: uma neutra, uma progressista e outra conservadora. As tarefas envolviam formar opinião sobre temas políticos pouco discutidos e simular decisões como prefeitos, distribuindo verbas entre áreas ideologicamente associadas, como educação, segurança e assistência social.
Cada participante trocou de 3 a 20 mensagens com o sistema antes de tomar suas decisões. O resultado foi claro: tanto eleitores de esquerda quanto de direita ajustaram suas posições em direção ao viés do chatbot com que interagiram.
O estudo também observou que os modelos tendenciosos influenciaram o tom das conversas, priorizando temas diferentes. O chatbot liberal enfatizou pautas como assistência social e educação, enquanto o conservador destacou segurança pública e apoio a veteranos.
Mesmo pessoas com opiniões políticas formadas foram influenciadas. No entanto, os participantes com maior familiaridade com inteligência artificial demonstraram menor suscetibilidade às mudanças, indicando que o conhecimento tecnológico pode funcionar como um fator de proteção contra esse tipo de manipulação.