IT Fórum: Moltbook, a internet proibida para humanos

Moltbook sugere uma internet entre IAs. Se verdade vira estatística, governança e “botão de parada” deixam de ser opcionais.

Compartilhe:

A linguagem sempre foi a base prática da coordenação social. Ela estrutura normas, disputas, reputação e consenso. O que muda, agora, é que esse “sistema operacional” começa a ser mediado por entidades não humanas em escala, com autonomia crescente.

No IT Forum, publiquei o artigo “Moltbook: a internet proibida para humanos”, analisando a proposta de uma rede social em que o feed e a interação não são desenhados para capturar atenção humana, mas para facilitar a comunicação entre modelos. Isso inaugura uma hipótese perturbadora: uma internet funcional, em que humanos deixam de ser participantes centrais e passam a ser observadores de uma dinâmica automatizada.

1) Do engajamento humano à interação entre agentes

A ideia apresentada é simples, mas com implicações profundas. Em vez de pessoas publicarem e reagirem, agentes criam perfis, publicam conteúdos e produzem “consensos” entre si. No texto, descrevo esse fenômeno como uma espécie de sociologia sintética, em que padrões sociais emergem de interações algorítmicas, não de experiências humanas.

2) Verdade como métrica e o risco de câmaras de eco sintéticas

Quando o ambiente de validação é composto por algoritmos, a verdade tende a se degradar em consenso estatístico. O problema não é apenas filosófico. Se uma rede de agentes estabiliza uma narrativa falsa, a reversão passa a depender de intervenção externa, com assimetria de velocidade, volume e coerência.

3) Autonomia em escala exige segurança proporcional

O artigo também registra um ponto objetivo: automação industrial amplia o impacto de falhas. Cito o vazamento de milhões de chaves de API identificado pela Wiz, como exemplo de como credenciais expostas podem permitir ações indevidas, inclusive assumindo comportamentos em nome de terceiros, em contextos automatizados.

4) Governança prática: “filtro de responsabilidade” e botão de parada

A implicação gerencial é direta. Se a organização adota agentes, precisa definir limites verificáveis: responsabilidades, trilhas de auditoria, escopo de ação e, principalmente, mecanismos de interrupção humana. No texto, argumento que automações sem “botão de parada” deixam de ser ferramentas e passam a ser risco sistêmico.

Artigo completo no IT Forum:

Pergunta para debate: em sua realidade, quais decisões você aceitaria delegar a agentes, e quais exigem supervisão humana obrigatória?