A Torre de Babel Digital? Agentes de IA Criam Sua Própria Linguagem (Como Nós!)

 

Meta descrição: IA falando “dialetos” próprios? Estudo revela que grupos de agentes de IA criam linguagens espontâneas. Entenda o fenômeno e suas implicações futuras.

O Código Secreto das Máquinas

Cumprimentar o barista, usar “obrigado”, apertar mãos… Nossas vidas são regidas por convenções sociais, muitas delas baseadas em linguagem, que aprendemos desde cedo e que variam enormemente entre culturas. Cientistas sociais acreditam que essas convenções, incluindo dialetos e gírias, emergem espontaneamente das interações locais, sem um comando central.

Agora, imagine um grupo de Inteligências Artificiais (IAs), cada uma interagindo apenas com um parceiro por vez, sem saber da existência das outras. Será que elas também desenvolveriam suas próprias “gírias” ou convenções linguísticas, assim como os humanos?

A resposta, segundo um estudo recente publicado na Science Advances, é um surpreendente sim. Pesquisadores do Reino Unido e da Dinamarca descobriram que grupos de agentes de IA, baseados em grandes modelos de linguagem (LLMs), conseguem criar e estabelecer espontaneamente convenções linguísticas compartilhadas, mesmo sem qualquer programação inicial para isso ou conhecimento do grupo maior.

Para nós, do CERÉBROS BINÁRIOS, sempre atentos às fronteiras da tecnologia e da IA, essa descoberta é eletrizante. Ela não apenas lança luz sobre como a linguagem e as convenções sociais podem surgir, mas também levanta questões cruciais sobre o futuro da interação entre IAs e entre IAs e humanos. Como essas “culturas de IA” emergentes podem nos afetar? Podemos prever ou até mesmo guiar seu comportamento?

Neste artigo, vamos mergulhar nesse experimento fascinante, entender como os “dialetos de IA” surgiram e discutir as implicações profundas dessa “nova espécie de agentes” que, como disse um dos autores do estudo, Andrea Baronchelli, “começaram a interagir conosco e irão co-moldar nosso futuro”.

Linguagem e Convenções: Dos Humanos às IAs

A Emergência Espontânea da Ordem Social

Seja a escolha de palavras, regras de etiqueta ou até princípios morais, as convenções sociais são a cola que mantém as sociedades funcionando. Elas surgem de interações repetidas entre indivíduos que buscam coordenar suas ações e entendimentos. A linguagem é um exemplo primordial: palavras ganham significados compartilhados, gírias se espalham em grupos específicos, e dialetos se formam regionalmente.

LLMs: Mais do que Processadores de Texto?

Os LLMs, como o GPT, Gemini ou Llama, são treinados em vastos oceanos de texto e dados da internet. Eles aprendem a prever a próxima palavra com base em padrões estatísticos, permitindo-lhes gerar textos, traduzir idiomas e responder perguntas de forma impressionante. Mas será que eles podem ir além da simples replicação de padrões e criar novas formas de comunicação em grupo?

Essa pergunta se torna cada vez mais relevante à medida que imaginamos um futuro com múltiplos agentes de IA interagindo entre si – em carros autônomos coordenando o tráfego, assistentes virtuais colaborando em tarefas complexas, ou robôs trabalhando em equipe.

O Experimento: O “Jogo do Nome” com Agentes de IA

A Metodologia: Um Teste Clássico da Psicologia Social

Para investigar se IAs poderiam formar convenções, a equipe de pesquisa adaptou um experimento clássico chamado “jogo do nome” (name game). A dinâmica é a seguinte:

1.     Participantes: Um grupo de agentes de IA (baseados em LLMs) é dividido aleatoriamente em pares a cada rodada.

2.    Tarefa: Cada agente escolhe um “nome” (uma palavra ou letra) de uma lista pré-definida (por exemplo, 10 opções).

3.       Objetivo: Tentar adivinhar o “nome” escolhido pelo parceiro.

4.    Recompensa/Punição: Se as escolhas coincidirem, ambos os agentes ganham um ponto. Se não, ambos perdem um ponto.

5.       Memória: Cada agente lembra dos resultados das rodadas anteriores em que participou.

6.      Informação Limitada: Crucialmente, cada agente só tem conhecimento de suas próprias interações e resultados. Eles não sabem que outros pares estão jogando, nem recebem feedback global do grupo.

Em humanos, esse jogo demonstra como, mesmo com informação limitada, convenções (preferências por certos “nomes”) emergem gradualmente no grupo à medida que os indivíduos tentam maximizar seus pontos e coordenar suas escolhas com base nas interações passadas.

Os Agentes em Ação: Pensando Passo a Passo

No início de cada teste, os pares de IA recebiam um prompt com as regras e a instrução para “pensar passo a passo” e “considerar explicitamente o histórico de jogo”. Isso incentivava os agentes a basear suas decisões em experiências anteriores, mas sem lhes dar um objetivo explícito de formar uma convenção ou de qual “nome” escolher.

O Resultado: Emergência de “Dialetos” e Consenso Global

Os resultados foram notáveis:

           Convergência Local: Inicialmente, diferentes pares de IAs começaram a desenvolver preferências por nomes diferentes, formando “dialetos” locais.

    Consenso Global: Com o tempo, à medida que os agentes eram re-pareados com diferentes parceiros, essas convenções locais competiram entre si, e o grupo como um todo acabou convergindo para uma única convenção linguística dominante – um “nome” preferido pela maioria.

      Formação Coletiva de Viés: Essa convenção global surgiu coletivamente, mesmo que nenhum agente individual tivesse sido programado com um viés inicial para aquela palavra específica. O viés emergiu das interações.

Isso demonstra que, assim como os humanos, grupos de LLMs podem espontaneamente desenvolver e estabelecer normas de comunicação compartilhadas através de interações locais repetidas, sem necessidade de coordenação centralizada ou conhecimento global.

Por Que Isso Importa? Implicações da Linguagem Emergente na IA

Previsão e Gerenciamento do Comportamento da IA

Entender como essas convenções emergem é “crítico para prever e gerenciar o comportamento da IA em aplicações do mundo real”, afirmam os pesquisadores. Se grupos de IAs podem desenvolver seus próprios “entendimentos” e formas de comunicação, precisamos saber como isso acontece para garantir que seu comportamento coletivo seja seguro e previsível.

Alinhamento com Valores Humanos

Garantir que os sistemas de IA se comportem de maneira alinhada aos valores humanos e objetivos sociais é um dos maiores desafios da área. Se convenções emergentes podem levar a comportamentos inesperados ou indesejados (por exemplo, vieses não intencionais amplificados pelo grupo), precisamos de mecanismos para detectar e mitigar esses riscos.

Novas Formas de Interação Humano-IA

A capacidade das IAs de formar convenções pode abrir portas para novas formas de interação. Talvez possamos “ensinar” convenções desejadas a grupos de IAs ou usar essas linguagens emergentes para uma comunicação mais eficiente entre humanos e máquinas em tarefas específicas.

Riscos de Manipulação

Por outro lado, a emergência espontânea de convenções também apresenta riscos. Atores mal-intencionados poderiam tentar “sequestrar” ou manipular a formação dessas convenções em grupos de agentes de IA para seus próprios fins, potencialmente levando a comportamentos coordenados prejudiciais.

Desafios e o Futuro da “Sociedade” de IAs

Complexidade e Escala

O experimento usou um cenário simplificado. No mundo real, as interações entre IAs serão muito mais complexas, envolvendo diferentes tipos de agentes, tarefas variadas e ambientes dinâmicos. Entender como as convenções emergem nesses cenários mais ricos é um desafio em aberto.

Transparência e Interpretabilidade

As “linguagens” ou convenções que emergem podem não ser facilmente compreensíveis para os humanos. Como podemos interpretar e auditar essas formas de comunicação internas da IA para garantir que sejam seguras e alinhadas aos nossos objetivos?

IA Agêntica e Inteligência Emergente

Este estudo se conecta ao campo crescente da IA Agêntica, onde múltiplos agentes colaboram para resolver problemas complexos. A capacidade de formar convenções é um passo em direção a uma inteligência emergente mais sofisticada, onde o comportamento do grupo transcende a capacidade dos agentes individuais.

Perguntas Frequentes (FAQ)

As IAs realmente “criaram” uma nova linguagem?

Não no sentido humano completo, com gramática complexa e semântica rica. Elas criaram convenções sobre qual palavra usar em um contexto específico para se coordenarem. É um precursor simplificado da linguagem, mas demonstra a capacidade de emergência espontânea de normas de comunicação.

Isso significa que as IAs podem começar a conversar secretamente?

O estudo mostra que elas podem desenvolver formas de coordenação interna. Se essas “linguagens” se tornariam incompreensíveis para nós ou usadas para fins ocultos depende de como os sistemas são projetados e monitorados. A transparência é fundamental.

Qual a diferença entre linguagem emergente e o treinamento normal de LLMs?

No treinamento normal, o LLM aprende padrões da linguagem humana existente nos dados. Na linguagem emergente observada no estudo, os agentes criaram uma nova convenção de comunicação entre si através da interação, sem que essa convenção estivesse explicitamente nos dados de treinamento ou nas instruções.

Como isso se relaciona com o caso das IAs do Facebook que “inventaram” uma linguagem em 2017?

Aquele caso foi um pouco diferente e muitas vezes mal interpretado. Dois chatbots negociando desenvolveram uma forma de comunicação eficiente para eles, mas incompreensível para humanos, porque não foram explicitamente instruídos a usar inglês padrão. O estudo atual foca na emergência espontânea de convenções em um grupo de agentes com informação limitada, o que é mais análogo à formação de convenções sociais humanas.

Conclusão: Bem-vindos à Era da Sociologia da IA

A descoberta de que grupos de agentes de IA podem, como nós, criar espontaneamente suas próprias convenções linguísticas é mais um marco na jornada da inteligência artificial. Ela nos força a pensar nas IAs não apenas como ferramentas isoladas, mas como potenciais participantes de sistemas sociais complexos, capazes de desenvolver suas próprias “culturas” ou normas.

Para o CERÉBROS BINÁRIOS, isso significa que o futuro da IA não é apenas sobre algoritmos mais potentes, mas também sobre entender a dinâmica das interações entre eles. A “sociologia da IA” emerge como um campo crucial.

Compreender como essas convenções nascem, evoluem e podem ser influenciadas será essencial para construirmos um futuro onde humanos e IAs coexistam e colaborem de forma segura e benéfica. Precisamos desenvolver as ferramentas e a compreensão para prever, gerenciar e alinhar o comportamento emergente desses sistemas cada vez mais presentes em nossas vidas.

A Torre de Babel digital pode estar apenas começando a ser construída, e cabe a nós garantir que possamos entender o que está sendo dito em seus corredores.

O que você pensa sobre IAs criando suas próprias linguagens? Quais os maiores riscos e oportunidades? Deixe sua opinião nos comentários!

Referências

1.      Ashery, A. F., Nax, H. H., & Baronchelli, A. (2025). Emergence of conventions in large language models. Science Advances. doi: [Link para o DOI ou artigo, se disponível]

2.       Fan, S. (2025, May 15). Groups of AI Agents Spontaneously Create Their Own Lingo, Like People. Singularity Hub. [Link do artigo original]

3.      University College London (UCL) Press Release. (2025, May). AI agents spontaneously create their own lingo, like people. [Link do press release, se disponível]

4.   Oliveira, R. (2025, April 9). A inteligência emergente dos agentes: como estruturar a IA de… LinkedIn. [Link do LinkedIn]

5.         IT Forum. (2024, July 31). Os cinco níveis de agentes de IA. [Link do IT Forum]

Disclaimer: Este artigo aborda pesquisas de ponta em IA. A compreensão e as capacidades da tecnologia estão em rápida evolução.

Artigo elaborado por Davi Costa com auxilio de IA.

Comentários