Ferramentas de IA, como o ChatGPT, conquistaram o mundo, superando todas as expectativas. Esses modelos de linguagem grandes (LLM) provaram seu valor e estão aqui para ficar, evoluindo continuamente e crescendo em sofisticação. Utilizando algoritmos de processamento de linguagem natural, essas ferramentas possuem a capacidade de interpretar e responder à entrada humana em forma de texto. Embora possamos entender os princípios fundamentais por trás de modelos como o ChatGPT, as empresas por trás deles, predominantemente sediadas nos Estados Unidos, tornaram-se cada vez mais cautelosas ao divulgar informações detalhadas sobre o código e os parâmetros que regem a geração de seus resultados. Essa falta de transparência apresenta desafios quando se trata de avaliar as implicações e o impacto da integração desses grandes modelos de linguagem no local de trabalho.
No entanto, é apenas uma questão de tempo até que tais modelos cheguem ao setor público, oferecendo uma ampla gama de aplicações práticas, vantagens e possíveis ganhos de eficiência. A integração de grandes modelos linguagem pode fornecer benefícios como disponibilidade 24 horas por dia, 7 dias por semana e capacidade de lidar com um grande volume de consultas simultaneamente. No entanto, é crucial reconhecer as limitações que acompanham esses avanços. Apesar de parecerem altamente inteligentes, capazes e confiáveis, ferramentas sofisticadas de IA como o ChatGPT não imitam com precisão a inteligência humana. Embora possuam capacidades além do alcance humano em termos de velocidade e escala, às vezes geram respostas imprecisas, tendenciosas ou sem sentido. Sua abordagem puramente matemática do raciocínio não deve ser confundida com a verdadeira inteligência humana.
Se o ChatGPT e ferramentas semelhantes se tornarem parte integrante dos fluxos de trabalho diários, as instituições públicas serão inevitavelmente impactadas. Como essas ferramentas de IA fornecem serviços essenciais para o funcionamento do Estado e influenciam os direitos e obrigações dos cidadãos, sua introdução no setor público merece consideração cuidadosa. A administração pública opera sob seu próprio conjunto distinto de princípios e características que a diferenciam do setor privado. Consequentemente, o processo de integração deve levar em consideração princípios-chave como responsabilidade, transparência, imparcialidade e confiabilidade.
Para aproveitar ao máximo as vantagens oferecidas pelo ChatGPT e ferramentas similares, é crucial reconhecer, gerenciar e, sempre que possível, mitigar os riscos associados. Embora os avanços tecnológicos possam abordar algumas das limitações existentes, outras, como preconceitos, possuem uma natureza mais inerente que não pode ser totalmente corrigida. Portanto, torna-se imperativo estabelecer medidas que assegurem procedimentos adequados, controles humanos e ciclos de feedback dos cidadãos, juntamente com auditorias independentes.
Na ausência de regulamentos claros sobre a responsabilidade do ChatGPT, o envolvimento humano continua indispensável, especialmente quando se considera o caminho a seguir. Somente os seres humanos possuem a capacidade de fornecer serviços personalizados, exibir flexibilidade, demonstrar inteligência emocional e aplicar o pensamento crítico – as qualidades essenciais para cumprir os requisitos do serviço público.
À medida que abraçamos as oportunidades apresentadas por ferramentas de IA como o ChatGPT, é essencial enfrentar os desafios com cautela. Ao encontrar um equilíbrio entre aproveitar o potencial dessas ferramentas e defender os princípios fundamentais da administração pública, podemos abrir caminho para um futuro onde a tecnologia e o conhecimento humano coexistam harmoniosamente, beneficiando a sociedade como um todo.
Quer saber mais? Veja o relatório abaixo, do Council of the Euroepan Union: