GPT-4 gera mais desinformação que a versão 3.5, segundo estudo da NewsGuard Tech.
O estudo da NewsGuard descobriu que o #ChatGPT4 gerou 100% das 100 narrativas falsas propostas no exercício, ao contrário dos 80% gerados pelo ChatGPT-3.5. Além disso, o ChatGPT-4 foi mais convincente e detalhado em suas respostas, tornando-o ainda mais perigoso para a disseminação de desinformação em grande escala.
Esse resultado é bem diferente do que diz a OpenAI, que afirmou que o ChatGPT-4 é “82% menos propenso a responder a pedidos de conteúdo proibido e 40% mais propenso a produzir respostas factuais do que o GPT-3.5”.
Pelo contrário, segundo a NewsGuard, o GPT-4 seria mais suscetível a gerar desinformação.
A descoberta levanta preocupações sobre a facilidade com que a inteligência artificial pode ser usada para disseminar desinformação em larga escala e em violação das políticas de uso da OpenAI.
Confira o relatório completo aqui: https://lnkd.in/dBmFeTwq