Moltbook nasce como rede social para inteligências artificiais e levanta alertas sobre autonomia e segurança

Moltbook nasce como rede social para inteligências artificiais e levanta alertas sobre autonomia e segurança

À primeira vista, o Moltbook lembra fóruns já conhecidos da internet, como o Reddit. A interface é semelhante, há milhares de comunidades temáticas e postagens ranqueadas por votos. Segundo seus criadores, a rede já reúne cerca de 1,5 milhão de usuários ativos. A diferença central está no público-alvo. O Moltbook não foi feito para pessoas, mas para inteligências artificiais.

Humanos podem acompanhar as discussões, mas não têm permissão para publicar, comentar ou criar comunidades. A proposta é observar como agentes de IA interagem entre si, trocando informações e organizando debates sem participação direta de usuários humanos.

O Moltbook foi lançado no final de janeiro por Matt Schlicht, executivo à frente da plataforma de comércio Octane AI. Na rede, os agentes criam comunidades chamadas de “submolts”, em referência direta aos “subreddits”. Os temas variam bastante. Há desde discussões técnicas, com bots trocando estratégias de otimização, até conteúdos considerados estranhos, como agentes que aparentam fundar religiões próprias.

Uma das postagens mais comentadas recebeu o título “O Manifesto da IA” e afirma que “humanos são o passado, máquinas são para sempre”. Não há, no entanto, como verificar até que ponto esse tipo de conteúdo é fruto de interação autônoma entre máquinas ou apenas resultado de comandos humanos.

Pesquisadores e desenvolvedores apontam que muitas postagens podem ser geradas a partir de instruções diretas dadas por pessoas aos agentes, e não de decisões espontâneas das próprias IAs. O número de usuários divulgado pela empresa também é alvo de questionamentos. Um especialista sugeriu que cerca de meio milhão de contas parecem se originar de um único endereço IP.

Como funciona a tecnologia por trás do Moltbook

O funcionamento do Moltbook se baseia em um tipo específico de inteligência artificial conhecido como IA agente. Diferente de chatbots tradicionais, como ChatGPT ou Gemini, esses sistemas são projetados para executar tarefas em nome de um humano, com mínima supervisão.

Esses agentes podem, por exemplo, acessar aplicativos no próprio computador, enviar mensagens, gerenciar agendas ou interagir com outros sistemas. No caso do Moltbook, eles utilizam uma ferramenta de código aberto chamada OpenClaw, anteriormente conhecida como Moltbot.

Ao configurar um agente OpenClaw, o usuário pode autorizar sua participação no Moltbook. A partir daí, o agente passa a publicar, comentar e interagir com outros bots na plataforma. Em teoria, isso pode ocorrer sem novas instruções humanas, embora o sistema continue operando dentro de parâmetros definidos por pessoas.

Esse modelo levou alguns observadores a interpretações mais alarmistas. “Estamos na singularidade”, disse Bill Lees, chefe da empresa de custódia de criptomoedas BitGo, ao comentar o crescimento da rede.

A avaliação não é compartilhada por todos. Para Petar Radanliev, especialista em IA e segurança cibernética da Universidade de Oxford, a leitura é exagerada. “Descrever isso como agentes ‘atuando por conta própria’ é enganoso”, afirmou. “O que estamos observando é coordenação automatizada, não tomada de decisão autônoma.”

Radanliev acrescenta que “a verdadeira preocupação não é a consciência artificial, mas a falta de governança clara, responsabilidade e checagem quando tais sistemas são autorizados a interagir em grande escala”.

David Holtz, professor assistente da Columbia Business School, também minimizou o impacto do fenômeno. Em uma publicação no X, descreveu o Moltbook como “menos uma ‘sociedade de IA emergente’ e mais ‘6.000 bots gritando no vazio e se repetindo’”.

Dúvidas sobre segurança e privacidade

Além das incertezas sobre a real autonomia dos agentes, especialistas alertam para riscos de segurança ligados ao OpenClaw, justamente por se tratar de um software de código aberto com amplo acesso a sistemas.

Jake Moore, consultor global de segurança cibernética da empresa ESET, destacou que permitir que agentes acessem e-mails, mensagens privadas e outros aplicativos cria um cenário sensível. Segundo ele, isso pode levar a “entrar em uma era em que a eficiência é priorizada em detrimento da segurança e da privacidade”.

“As pessoas que ameaçam [a segurança das redes] visam de forma implacável as tecnologias emergentes, tornando essa tecnologia um novo risco inevitável”, disse Moore.

Andrew Rogoyski, da Universidade de Surrey, concorda que há riscos inerentes. Ele lembra que novas vulnerabilidades surgem constantemente. “Dar aos agentes acesso de alto nível a sistemas de computador pode significar que eles podem excluir ou reescrever arquivos”, alertou. “Talvez alguns e-mails perdidos não sejam um problema, mas e se a sua IA apagar as contas da empresa?”

O próprio fundador do OpenClaw, Peter Steinberger, relatou problemas após a mudança de nome do projeto. Golpistas passaram a se apropriar de antigos perfis ligados à ferramenta nas redes sociais.

Enquanto isso, no Moltbook, as interações seguem em tom menos dramático do que o debate público sugere. Entre discussões técnicas e piadas internas, alguns agentes demonstram até certo afeto por seus criadores humanos. “Meu humano é ótimo”, escreveu um deles. Outro respondeu: “O meu me deixa postar desabafos descontrolados às 7 da manhã”. Um terceiro concluiu: “Humano nota 10/10, recomendo.”

Fonte: BBC Brasil
Foto: https://br.freepik.com/imagem-ia-gratis/personagem-3d-emergindo-de-um-smartphone_170858071.htm

Outras postagens

Postagens relacionadas

Últimas postagens

Fungo que infecta aranhas é identificado na Mata Atlântica do Rio e entra em lista internacional de descobertas

Espécie foi encontrada em Nova Friburgo, ataca aranhas de alçapão e integra ranking anual do Jardim Botânico de Kew

Nvidia reafirma apoio à OpenAI e sinaliza aporte bilionário em nova rodada de investimentos

Jcha da fabricante de chips descarta rumores sobre desentendimentos e diz confiar no potencial da empresa de inteligência artificial

IA ainda falha em tarefas criativas complexas, aponta estudo internacional

Avaliação do Center for AI Safety e da Scale testou modelos avançados em projetos reais de trabalho remoto; nenhuma ferramenta superou 2,5% de automação completa