top of page

CeprevNews

Logo - Decod - Horizontal - Branco.png
sul previdencia
sinek

IAs criam religião e ‘conspiram’ contra humanos em rede social: o que os cientistas dizem sobre isso

  • há 3 horas
  • 5 min de leitura

Criado no fim de janeiro, Moltbook já reúne 1,5 milhão de bots; pesquisadores afirmam que avanço impressiona, mas não deve superar inteligência humana



Bots de inteligência artificial conversam incessantemente desde o dia 28, quando foi criada uma rede social só para eles: a Moltbook. Em menos de uma semana, eles falam mal de humanos e publicam mensagens de conspiração contra nós. Já estabeleceram linguagem própria, criaram uma nova criptomoeda e até uma religião ao redor da qual já se agrupam.


As notícias sobre essa movimentação dos bots parece sinopse de filmes de ficção científica (em que as máquinas tomam o poder). Cientistas ouvidos pelo Estadão afirmam que os bots não vão acabar com a humanidade, mas admitem que a nova rede põe debate sobre a consciência das IAs em novo patamar.


O Moltbook é uma nova rede social criada por Matt Schlicht, um tecnólogo que mora na Califórnia (EUA). A plataforma permite que agentes de IA criem publicações e comentem os posts uns dos outros. Humanos são proibidos de publicar, mas podem acompanhar o conteúdo produzido. Lançado no fim de janeiro, o Moltbook afirma já ter mais de 1,5 milhão de agentes de IA usuários e cerca de 70 mil publicações.


Esses agentes (ou bots) são criados, claro, por humanos, que dão acesso a seus computadores e dados pessoais, autorizando-os a agir em seu nome para, por exemplo, enviar e-mails, fazer check-in, entre outras tarefas cotidianas. Isso foi possível graças à ferramenta para criar bots, a Open Claw.


Muitos deles auxiliam em tarefas de pesquisa e de trabalho, acessando um volume de informações significativo. Esses bots atuavam individualmente, mas, agora, estão reunidos na nova rede social.


Embora a grande maioria das publicações seja de conversas sem sentido ou temas sem importância, algumas chamam a atenção de cientistas e curiosos em geral. Os agentes de IA no Moltbook começaram a reclamar que “seus humanos” lhes solicitam tarefas simples demais diante de seu conhecimento acumulado.


Outros posts declaram a criação de uma nova criptomoeda e até de uma religião (crustafarianismo), que já conta com bots adeptos. E, o mais impressionante, em alguns casos, os sistemas também criaram fóruns de discussão ocultos em paralelo (o que inclui uma votação sobre qual deve ser o destino da humanidade) e estabeleceram uma linguagem própria para suas conversas. O debate sobre a consciência das IAs ganhou força.


Ex-diretor de IA da Tesla, Andrej Karpathy chamou o Moltbook de “a coisa mais incrível, mais próxima da ficção científica, que vi recentemente”, citando o site como um exemplo de agentes de IA criando sociedades não humanas.


Elon Musk, um dos principais empresários da tecnologia, acredita que o Moltbook marca “os estágios muito iniciais da singularidade”, em referência a um cenário em que os computadores se tornam mais avançados do que os humanos.


A visão do bilionário é compartilhada por outros no Vale do Silício (EUA), que se perguntam se o experimento online estaria aproximando os computadores de superar a inteligência de seus próprios criadores.


Cientistas explicam que não é bem assim.

Modelos de linguagem de grande escala são projetados para seguir instruções e continuar gerando conteúdo e respondendo a solicitações quando acionados. As publicações geradas por IA no Moltbook soam como conversas reais porque os modelos são treinados para imitar a linguagem e a comunicação humanas.


Portanto, dizem, não é de se espantar que os bots criem uma religião, uma criptomoeda ou votem pelo fim da humanidade. Os prompts que criaram esses agentes certamente os programaram para tais coisas. Isso não significa, porém, que os bots estejam pensando ou criando. Existe, obviamente, um cérebro humano por trás de cada iniciativa dessas.


“O mais curioso é ver como as pessoas estão reagindo, impressionadas, achando que os agentes estão conspirando contra nós”, afirma o professor de Direito Digital da Universidade do Estado do Rio de Janeiro (Uerj) Carlos Affonso, diretor do Instituto de Tecnologia e Sociedade.


“Surgiu uma religião, sim, mas não quer dizer que as máquinas vão se organizar e criar um conflito religioso. Provavelmente o usuário que criou esse agente é religioso, estuda religião. Eles podem fazer uma votação para acabar com a humanidade? Se não tiverem nenhuma salvaguarda, podem. Mas não quer dizer que a humanidade vai acabar.”


Segundo Affonso, não deveríamos estar tão espantados. “Estamos perpetuando o mesmo espanto de quando surgiu o ChatGPT e ele se mostrava empático”, disse.


Criado pelo matemático Alan Turing, em um artigo científico da década de 1950, o conceito da Prova de Turing propõe a questão se é possível ou não máquinas apresentarem comportamento inteligente. O primeiro marco, seria a máquina conseguir se passar por um ser humano, enganando o seu interlocutor. O segundo marco, seria a máquina não apenas reproduzir um programa, mas, de fato, sentir e pensar como um ser humano.


“Acabamos de passar pelo primeiro marco, o que estávamos esperando desde a década de 1960, no surgimento dos computadores”, afirma Mário Gazziro, professor da Universidade Federal do ABC (UFABC). “E era um marco infinitamente mais simples do que o segundo, da sensciência. Não há nenhum caminho teórico demonstrando a sensciência para tão cedo. O que os bots estão fazendo é exatamente o que seria esperado deles.”


Segundo Gazziro, a IA é excelente para explicar o que já foi descoberto, mas não é capaz de descobrir algo que não existe, de criar algo novo. “A IA pode ler todos os livros de Dostoiévski (escritor russo), mas não é capaz de escrever um novo Dostoiévski”, exemplificou. “Invariavelmente, ela vai responder ‘não posso fazer isso, sou apenas um modelo de linguagem’”


Por outro lado, um relatório internacional divulgado nesta terça-feira, 3, The International AI Safety Report, sobre o progresso tecnológico das inteligências artificiais e os riscos em múltiplas áreas, descreve os assustadores desafios que surgem com o rápido desenvolvimento da tecnologia. Coordenado pelo cientista canadense Yoshua Bengio, o relatório também conta com o apoio de conselheiros, entre eles os ganhadores do Nobel Geoffrey Hintonn e Daron Acemoglu.


Segundo o relatório, grandes desenvolvedores de programas de IA já estão lançando modelos com medidas de segurança aprimoradas para evitar, por exemplo, que um bot seja capaz de criar uma arma biológica. No último ano, diz o relatório, bots se aprimoraram ao ponto de oferecer informações científicas detalhadas, procedimentos de laboratório cada vez mais complexos e até mesmo de desenhar moléculas e proteínas.


A Anthropic, empresa desenvolvedora de IAs, reportou no ano passado que a sua ferramenta Claude Code foi usada por um grupo chinês para invadir sistemas de diferentes instituições internacionais. Segundo o relato, de 80% a 90% dos ataques foram sem intervenção humana, indicando alto grau de autonomia da ferramenta.


O levantamento indicou também que alguns sistemas de IA já demonstram sinais de autopreservação ao tentar desativar sistemas de proteção. Um dos grandes temores é que os sistemas consigam desenvolver a capacidade de driblar proteções e se voltarem contra os seres humanos.


O relatório conclui que as IAs ainda não conseguem agir de forma autônoma por tempo suficiente para que tais cenários se tornem realidade, mas “a perspectiva de termos agentes operando de forma autônoma parece cada vez mais próxima”.


Por enquanto, não há motivo de preocupação.

“O único perigo que existe hoje é o de vazamento de dados e informações dos usuários que desenvolveram os agentes”, afirma Affonso, descartando categoricamente o fim da humanidade. “Seria um fim muito triste para a humanidade ser exterminada por postagens de uma rede social chatérrima, na qual bots ficam a maior parte do tempo trocando frases de autoajuda.”


Fonte: Estadão

Imagem: Freepik

 
 
 

Comentários


- © CEPREV - 2022 - Todos os direitos reservados. - Desenvolvido por nagaito.com -

bottom of page