A Torre de Babel Digital? Agentes de IA Criam Sua Própria Linguagem (Como Nós!)
Meta descrição: IA falando “dialetos”
próprios? Estudo revela que grupos de agentes de IA criam linguagens
espontâneas. Entenda o fenômeno e suas implicações futuras.
O Código Secreto das Máquinas
Cumprimentar o barista, usar
“obrigado”, apertar mãos… Nossas vidas são regidas por convenções sociais,
muitas delas baseadas em linguagem, que aprendemos desde cedo e que variam
enormemente entre culturas. Cientistas sociais acreditam que essas convenções,
incluindo dialetos e gírias, emergem espontaneamente das interações locais, sem
um comando central.
Agora, imagine um grupo de Inteligências
Artificiais (IAs), cada uma interagindo apenas com um parceiro por vez, sem
saber da existência das outras. Será que elas também desenvolveriam suas
próprias “gírias” ou convenções linguísticas, assim como os humanos?
A resposta, segundo um estudo recente publicado
na Science Advances, é um
surpreendente sim. Pesquisadores do Reino Unido e da Dinamarca descobriram que
grupos de agentes de IA, baseados em grandes modelos de linguagem (LLMs),
conseguem criar e estabelecer espontaneamente convenções linguísticas
compartilhadas, mesmo sem qualquer programação inicial para isso ou
conhecimento do grupo maior.
Para nós, do CERÉBROS BINÁRIOS, sempre
atentos às fronteiras da tecnologia e da IA, essa descoberta é eletrizante. Ela
não apenas lança luz sobre como a linguagem e as convenções sociais podem
surgir, mas também levanta questões cruciais sobre o futuro da interação entre
IAs e entre IAs e humanos. Como essas “culturas de IA” emergentes podem nos
afetar? Podemos prever ou até mesmo guiar seu comportamento?
Neste artigo, vamos mergulhar nesse
experimento fascinante, entender como os “dialetos de IA” surgiram e discutir
as implicações profundas dessa “nova espécie de agentes” que, como disse um dos
autores do estudo, Andrea Baronchelli, “começaram a interagir conosco e irão
co-moldar nosso futuro”.
Linguagem
e Convenções: Dos Humanos às IAs
A
Emergência Espontânea da Ordem Social
Seja a escolha de palavras, regras de
etiqueta ou até princípios morais, as convenções sociais são a cola que mantém
as sociedades funcionando. Elas surgem de interações repetidas entre indivíduos
que buscam coordenar suas ações e entendimentos. A linguagem é um exemplo
primordial: palavras ganham significados compartilhados, gírias se espalham em
grupos específicos, e dialetos se formam regionalmente.
LLMs: Mais
do que Processadores de Texto?
Os LLMs, como o GPT, Gemini ou Llama,
são treinados em vastos oceanos de texto e dados da internet. Eles aprendem a
prever a próxima palavra com base em padrões estatísticos, permitindo-lhes
gerar textos, traduzir idiomas e responder perguntas de forma impressionante.
Mas será que eles podem ir além da simples replicação de padrões e criar novas formas de comunicação em
grupo?
Essa pergunta se torna cada vez mais
relevante à medida que imaginamos um futuro com múltiplos agentes
de IA interagindo entre si – em carros autônomos coordenando o tráfego,
assistentes virtuais colaborando em tarefas complexas, ou robôs trabalhando em
equipe.
O
Experimento: O “Jogo do Nome” com Agentes de IA
A
Metodologia: Um Teste Clássico da Psicologia Social
Para investigar se IAs poderiam formar
convenções, a equipe de pesquisa adaptou um experimento clássico chamado “jogo
do nome” (name game). A dinâmica é a seguinte:
1. Participantes: Um grupo de agentes de IA
(baseados em LLMs) é dividido aleatoriamente em pares a cada rodada.
2. Tarefa: Cada agente escolhe um “nome”
(uma palavra ou letra) de uma lista pré-definida (por exemplo, 10 opções).
3. Objetivo: Tentar adivinhar o “nome”
escolhido pelo parceiro.
4. Recompensa/Punição: Se as escolhas
coincidirem, ambos os agentes ganham um ponto. Se não, ambos perdem um ponto.
5. Memória: Cada agente lembra dos
resultados das rodadas anteriores em que participou.
6. Informação Limitada: Crucialmente, cada
agente só tem conhecimento de suas próprias interações e resultados. Eles não
sabem que outros pares estão jogando, nem recebem feedback global do grupo.
Em humanos, esse jogo demonstra como,
mesmo com informação limitada, convenções (preferências por certos “nomes”)
emergem gradualmente no grupo à medida que os indivíduos tentam maximizar seus
pontos e coordenar suas escolhas com base nas interações passadas.
Os
Agentes em Ação: Pensando Passo a Passo
No início de cada teste, os pares de
IA recebiam um prompt com as regras e a instrução para “pensar passo a passo” e
“considerar explicitamente o histórico de jogo”. Isso incentivava os agentes a
basear suas decisões em experiências anteriores, mas sem lhes dar um objetivo
explícito de formar uma convenção ou de qual “nome” escolher.
O
Resultado: Emergência de “Dialetos” e Consenso Global
Os resultados foram notáveis:
•
Convergência Local: Inicialmente,
diferentes pares de IAs começaram a desenvolver preferências por nomes
diferentes, formando “dialetos” locais.
• Consenso Global: Com o tempo, à medida
que os agentes eram re-pareados com diferentes parceiros, essas convenções
locais competiram entre si, e o grupo como um todo acabou convergindo para uma
única convenção linguística dominante – um “nome” preferido pela maioria.
• Formação Coletiva de Viés: Essa
convenção global surgiu coletivamente, mesmo que nenhum agente individual
tivesse sido programado com um viés inicial para aquela palavra específica. O
viés emergiu das interações.
Isso demonstra que, assim como os
humanos, grupos de LLMs podem espontaneamente desenvolver e estabelecer normas
de comunicação compartilhadas através de interações locais repetidas, sem
necessidade de coordenação centralizada ou conhecimento global.
Por Que
Isso Importa? Implicações da Linguagem Emergente na IA
Previsão
e Gerenciamento do Comportamento da IA
Entender como essas convenções emergem
é “crítico para prever e gerenciar o comportamento da IA em aplicações do mundo
real”, afirmam os pesquisadores. Se grupos de IAs podem desenvolver seus
próprios “entendimentos” e formas de comunicação, precisamos saber como isso
acontece para garantir que seu comportamento coletivo seja seguro e previsível.
Alinhamento com
Valores Humanos
Garantir que os sistemas de IA se
comportem de maneira alinhada aos valores humanos e objetivos sociais é um
dos maiores desafios da área. Se convenções emergentes podem levar a
comportamentos inesperados ou indesejados (por exemplo, vieses não intencionais
amplificados pelo grupo), precisamos de mecanismos para detectar e mitigar
esses riscos.
Novas Formas de
Interação Humano-IA
A capacidade das IAs de formar
convenções pode abrir portas para novas formas de interação. Talvez possamos
“ensinar” convenções desejadas a grupos de IAs ou usar essas linguagens
emergentes para uma comunicação mais eficiente entre humanos e máquinas em
tarefas específicas.
Riscos de Manipulação
Por outro lado, a emergência
espontânea de convenções também apresenta riscos. Atores mal-intencionados
poderiam tentar “sequestrar” ou manipular a formação dessas convenções em
grupos de agentes de IA para seus próprios fins, potencialmente levando a
comportamentos coordenados prejudiciais.
Desafios e
o Futuro da “Sociedade” de IAs
Complexidade e Escala
O experimento usou um cenário
simplificado. No mundo real, as interações entre IAs serão muito mais
complexas, envolvendo diferentes tipos de agentes, tarefas variadas e ambientes
dinâmicos. Entender como as convenções emergem nesses cenários mais ricos é um
desafio em aberto.
Transparência e
Interpretabilidade
As “linguagens” ou convenções que
emergem podem não ser facilmente compreensíveis para os humanos. Como podemos
interpretar e auditar essas formas de comunicação internas da IA para garantir
que sejam seguras e alinhadas aos nossos objetivos?
IA Agêntica e
Inteligência Emergente
Este estudo se conecta ao campo
crescente da IA
Agêntica, onde múltiplos agentes colaboram para resolver problemas
complexos. A capacidade de formar convenções é um passo em direção a uma inteligência
emergente mais sofisticada, onde o comportamento do grupo transcende a
capacidade dos agentes individuais.
Perguntas Frequentes
(FAQ)
As IAs
realmente “criaram” uma nova linguagem?
Não no sentido humano completo, com
gramática complexa e semântica rica. Elas criaram convenções sobre qual palavra usar em um contexto específico para
se coordenarem. É um precursor simplificado da linguagem, mas demonstra a
capacidade de emergência espontânea de normas de comunicação.
Isso
significa que as IAs podem começar a conversar secretamente?
O estudo mostra que elas podem desenvolver
formas de coordenação interna. Se essas “linguagens” se tornariam
incompreensíveis para nós ou usadas para fins ocultos depende de como os
sistemas são projetados e monitorados. A transparência é fundamental.
Qual a
diferença entre linguagem emergente e o treinamento normal de LLMs?
No treinamento normal, o LLM aprende
padrões da linguagem humana existente nos dados. Na linguagem emergente
observada no estudo, os agentes criaram
uma nova convenção de comunicação entre
si através da interação, sem que essa convenção estivesse explicitamente
nos dados de treinamento ou nas instruções.
Como isso
se relaciona com o caso das IAs do Facebook que “inventaram” uma linguagem em
2017?
Aquele caso foi um pouco diferente e
muitas vezes mal interpretado. Dois chatbots negociando desenvolveram uma forma
de comunicação eficiente para eles, mas incompreensível para humanos, porque
não foram explicitamente instruídos a usar inglês padrão. O estudo atual foca
na emergência espontânea de
convenções em um grupo de agentes com
informação limitada, o que é mais análogo à formação de convenções sociais
humanas.
Conclusão:
Bem-vindos à Era da Sociologia da IA
A descoberta de que grupos de agentes
de IA podem, como nós, criar espontaneamente suas próprias convenções
linguísticas é mais um marco na jornada da inteligência artificial. Ela nos
força a pensar nas IAs não apenas como ferramentas isoladas, mas como
potenciais participantes de sistemas sociais complexos, capazes de desenvolver
suas próprias “culturas” ou normas.
Para o CERÉBROS BINÁRIOS, isso significa
que o futuro da IA não é apenas sobre algoritmos mais potentes, mas também
sobre entender a dinâmica das interações entre eles. A “sociologia da IA”
emerge como um campo crucial.
Compreender como essas convenções nascem,
evoluem e podem ser influenciadas será essencial para construirmos um futuro
onde humanos e IAs coexistam e colaborem de forma segura e benéfica. Precisamos
desenvolver as ferramentas e a compreensão para prever, gerenciar e alinhar o
comportamento emergente desses sistemas cada vez mais presentes em nossas
vidas.
A Torre de Babel digital pode estar
apenas começando a ser construída, e cabe a nós garantir que possamos entender
o que está sendo dito em seus corredores.
O
que você pensa sobre IAs criando suas próprias linguagens? Quais os maiores
riscos e oportunidades? Deixe sua opinião nos comentários!
Referências
1. Ashery, A. F., Nax, H. H.,
& Baronchelli, A. (2025). Emergence of conventions in large language
models. Science Advances. doi: [Link
para o DOI ou artigo, se disponível]
2. Fan, S. (2025, May 15). Groups
of AI Agents Spontaneously Create Their Own Lingo, Like People. Singularity Hub. [Link do artigo
original]
3. University College London (UCL)
Press Release. (2025, May). AI agents spontaneously create their own lingo,
like people. [Link do press release, se disponível]
4. Oliveira, R. (2025, April 9). A
inteligência emergente dos agentes: como estruturar a IA de… LinkedIn. [Link do LinkedIn]
5.
IT Forum. (2024, July 31). Os
cinco níveis de agentes de IA. [Link do IT Forum]
Disclaimer:
Este artigo aborda pesquisas de ponta em IA. A compreensão e as capacidades da
tecnologia estão em rápida evolução.
Artigo elaborado por Davi Costa com auxilio de IA.

Comentários
Postar um comentário