4 de abril de 2025

GPT-4 gera desinformação

Compartilhe:

GPT-4 gera mais desinformação que a versão 3.5, segundo estudo da NewsGuard Tech.

O estudo da NewsGuard descobriu que o #ChatGPT4 gerou 100% das 100 narrativas falsas propostas no exercício, ao contrário dos 80% gerados pelo ChatGPT-3.5. Além disso, o ChatGPT-4 foi mais convincente e detalhado em suas respostas, tornando-o ainda mais perigoso para a disseminação de desinformação em grande escala.

Esse resultado é bem diferente do que diz a OpenAI, que afirmou que o ChatGPT-4 é “82% menos propenso a responder a pedidos de conteúdo proibido e 40% mais propenso a produzir respostas factuais do que o GPT-3.5”.

Pelo contrário, segundo a NewsGuard, o GPT-4 seria mais suscetível a gerar desinformação.

A descoberta levanta preocupações sobre a facilidade com que a inteligência artificial pode ser usada para disseminar desinformação em larga escala e em violação das políticas de uso da OpenAI.

Confira o relatório completo aqui: https://lnkd.in/dBmFeTwq

#OpenAI#ChatGPT4#misinformation#NewsGuard

Fábio Correa Xavier

Fábio Correa Xavier é Mestre em Ciência da Computação pela Universidade de São Paulo,com MBA em Gestão de Negócios pelo Ibmec/RJ, e Especialização Network Engineering pela Japan International Cooperation Agency (JICA). Atualmente é CIO do Tribunal de Contas do Estado de São Paulo, Professor e Coordenador de graduação e pós-graduação e colunista da MIT Technology Review Brasil e da IT Forum. Possui as certificações CIPM e CDPO/BR (IAPP – International Association of Privacy Professionals), CC((ISC)² e EXIN Privacy and Data Protection. É autor de vários livros sobre tecnologia, inovação, privacidade, proteção de dados e LGPD, com destaque para o Best Seller “CIO 5.0“, semifinalista do Prêmio Jabuti 2024 e destaque da Revista Exame e também de Mapa da Liderança.

Related Post