GPT-4 gera desinformação

Foto de Airam Dato-on: https://www.pexels.com/pt-br/foto/ia-antiguidade-inteligencia-artificial-bate-papo-15940011/
Compartilhe:

GPT-4 gera mais desinformação que a versão 3.5, segundo estudo da NewsGuard Tech.

O estudo da NewsGuard descobriu que o #ChatGPT4 gerou 100% das 100 narrativas falsas propostas no exercício, ao contrário dos 80% gerados pelo ChatGPT-3.5. Além disso, o ChatGPT-4 foi mais convincente e detalhado em suas respostas, tornando-o ainda mais perigoso para a disseminação de desinformação em grande escala.

Esse resultado é bem diferente do que diz a OpenAI, que afirmou que o ChatGPT-4 é “82% menos propenso a responder a pedidos de conteúdo proibido e 40% mais propenso a produzir respostas factuais do que o GPT-3.5”.

Pelo contrário, segundo a NewsGuard, o GPT-4 seria mais suscetível a gerar desinformação.

A descoberta levanta preocupações sobre a facilidade com que a inteligência artificial pode ser usada para disseminar desinformação em larga escala e em violação das políticas de uso da OpenAI.

Confira o relatório completo aqui: https://lnkd.in/dBmFeTwq

#OpenAI#ChatGPT4#misinformation#NewsGuard

Fábio Correa Xavier

Mestre em Ciência da Computação | Professor | Colunista da MIT Technology Review Brasil | Inovação, Privacidade e Proteção de Dados | Membro IAPP, GovDados