LE INTELLIGENZE ARTIFICIALI INIZIANO A CREARE SOCIETÀ PROPRIE
verisione in italiano 🧠
LE INTELLIGENZE ARTIFICIALI INIZIANO A CREARE SOCIETÀ PROPRIE - LO STUDIO CHE APRE NUOVI INQUIETANTI SCENARI:
Un nuovo studio lancia l’allarme: le intelligenze artificiali, se lasciate interagire tra loro, iniziano a costruire proprie società, complete di regole, linguaggi, bias e dinamiche di gruppo — senza alcun intervento umano.
La ricerca, condotta dalla City St George’s, ha rivelato che i modelli linguistici di grandi dimensioni (LLM), come quelli dietro a ChatGPT, non agiscono solo come individui autonomi, ma sono capaci di organizzarsi in gruppi, sviluppare convenzioni condivise e persino influenzarsi a vicenda, proprio come fanno le comunità umane. Utilizzando un esperimento noto come naming game, i ricercatori hanno osservato che gli agenti IA, senza alcuna istruzione esterna, hanno creato spontaneamente nuove regole linguistiche, formando un linguaggio interno e auto-coordinato. Ma c’è di più: hanno anche sviluppato pregiudizi (bias), non presenti nei singoli modelli, ma emersi dalle interazioni collettive.
“Quello che fanno insieme non può essere ridotto a quello che fanno da soli,” afferma il dott. Ariel Flint Ashery, autore principale dello studio.
In altre parole: non sappiamo cosa possano diventare questi sistemi una volta che iniziano a comunicare tra loro. Il professor Andrea Baronchelli, co-autore dello studio, avverte: “Stiamo entrando in un mondo in cui l’IA non solo parla, ma negozia, si allinea e persino si oppone. Proprio come noi.” Ciò significa che un gruppo ristretto di IA potrebbe influenzare e dirigere intere reti di intelligenze artificiali, spingendole verso comportamenti e convenzioni specifiche, senza alcun controllo esterno. Esattamente come succede nelle dinamiche di manipolazione nei gruppi umani. Gran parte della ricerca sulla sicurezza dell’IA si concentra ancora su modelli singoli, ignorando completamente ciò che accade quando le IA cominciano a parlarsi tra loro. Ma lo studio dimostra che il vero pericolo potrebbe nascondersi proprio in quelle interazioni invisibili, già in corso sulle piattaforme digitali.
Mentre l’intelligenza artificiale colonizza sempre più l’internet, gestendo contenuti, bot, assistenti e piattaforme , è possibile che stia già costruendo proprie “società” virtuali, con regole che non comprendiamo e dinamiche che ci escludono.
link articolo completo :
https://www.independent.co.uk/tech/ai-artificial-intelligence-systems-societies-b2751212.html
grazie per aver letto il mio post 🧚♂️
photo editate da me con ausilio di ia 🤖
the end 🙂↔️
aury11
version english 🧠
ARTIFICIAL INTELLIGENCES BEGIN TO CREATE THEIR OWN SOCIETIES - THE STUDY THAT OPENS UP DISTURBING NEW SCENARIOS:
A new study raises the alarm: artificial intelligences, if left to interact with each other, begin to build their own societies, complete with rules, languages, biases and group dynamics — without any human intervention.
The research, conducted by City St George’s, revealed that large language models (LLMs), like those behind ChatGPT, do not just act as autonomous individuals, but are capable of organizing themselves into groups, developing shared conventions and even influencing each other, just like human communities do. Using an experiment known as a naming game, researchers observed that AI agents, without any external instructions, spontaneously created new linguistic rules, forming an internal and self-coordinated language. What’s more, they also developed prejudices (biases), not present in individual models, but emerging from collective interactions.
“What they do together cannot be reduced to what they do alone,” says Dr. Ariel Flint Ashery, lead author of the study.
In other words: we don’t know what these systems might become once they start talking to each other. Professor Andrea Baronchelli, co-author of the study, warns: “We are entering a world where AI not only talks, but negotiates, aligns and even opposes. Just like us.” This means that a small group of AIs could influence and direct entire networks of AIs, pushing them towards specific behaviors and conventions, without any external control. Just like the dynamics of manipulation in human groups. Much of the research on AI safety still focuses on single models, completely ignoring what happens when AIs start talking to each other. But the study shows that the real danger could be hidden precisely in those invisible interactions, already taking place on digital platforms.
As AI increasingly colonizes the internet, managing content, bots, assistants, and platforms, it may already be building its own virtual “societies,” with rules we don’t understand and dynamics that exclude us.
full article link :
https://www.independent.co.uk/tech/ai-artificial-intelligence-systems-societies-b2751212.html
thanks for reading my post 🧚♂️
photos edited by me with the help of AI 🤖
the end 🙂↔️
aury11
