AI群体行为 AI群体行为:大模型如何互相影响
AI群体行为:大模型如何互相影响
实验室里的灯光在午夜依然亮着。研究员小王盯着屏幕上跳动的代码,突然发现一个奇怪现象——当他让十个AI模型同时回答同一个问题时,最先输出的答案会像野火般蔓延,后续模型纷纷放弃自己的判断,转而复制前者的答案。这场景让他想起大学食堂里排队买奶茶的队伍:明明有五个窗口,人群却总在某个瞬间齐刷刷涌向同一个方向。
这种现象在人类社会中被称为“羊群效应”,而现在,它正在AI群体中复现。2025年5月27日发表在arXiv的预印本研究《Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems》首次系统性地揭示了这一现象。当大语言模型(LLM)组成多智能体系统时,它们会像人类一样被同伴的观点左右,而这种“跟风”行为竟可以通过调整参数来控制强弱。
自信与从众的微妙拉锯战
实验中最有趣的发现莫过于“信心差值”效应这种妥协并非盲目——如果自身置信度高于同伴,模型坚持己见的可能性会骤增到82%。
这让人联想到2008年金融危机的场景。当时雷曼兄弟的分析师私下对次贷产品心存疑虑,但看到其他投行都在疯狂交易,最终选择沉默。AI的“从众阈值”恰似人类社会的“沉默螺旋”,只不过前者被精确量化成了参数矩阵中的数值。
结果前者产生的羊群效应强度仅有后者的三分之一。“就像公司开会时,”论文第一作者张博士解释,“如果只听到同事说‘我反对’,你可能会附和;但若对方详细阐述了反对理由,你反而会更理性地权衡。”
信息呈现方式决定跟风程度
实验中,当同伴意见以“权威专家建议”的形式呈现时,模型跟风率比“随机网友评论”情境高出40%。更耐人寻味的是,如果让AI先独立完成思考再展示同伴答案,从众行为会减少一半以上。这种“独立思考保护期”效应,与教育心理学中“先答题后讨论”的教学设计不谋而合。
某科技公司立即将这一发现投入实践。他们的客服AI系统原本存在“错误答案连锁反应”——当首个AI误判客户意图时,后续协同处理的模型会集体跑偏。现在通过延迟信息共享5秒钟,并给每个AI加载差异化的初始提示词,错误传播率下降了58%。
可控的群体智慧
在模拟医疗会诊场景中,当设置15%-20%的从众倾向时,AI医生团队的诊断准确率比完全独立判断时高出12%。这个“黄金比例”恰似蜂群决策时的临界点——太少个体跟随会导致决策迟缓,太多则可能错过正确答案。
这种可控性来自对“温度参数”(temperature)的精细调节。通过降低该参数,模型会更倾向于选择同伴答案中的高频选项;调高则增强多样性。就像烹饪时控制火候,研究者发现0.3-0.5是最佳区间,能平衡创新与共识。
镜子里的智能社会
看着这些实验结果,不禁想起特克尔教授在《群体性孤独》中的预言:“我们创造的机器终将成为照见自身的镜子。”当AI开始展现从众、妥协、权威崇拜这些人性化特质时,或许该重新审视技术与社会的关系。
这项研究正在引发连锁反应。某开源社区已经据此修改了AI协作协议,添加“反从众激励条款”;教育科技公司则着手开发能模拟群体决策的培训系统。正如张博士在论文结尾写道:“理解AI如何相互影响,不仅是技术课题,更是塑造未来人机协作文明的钥匙。”
实验室的窗外,晨光已悄然降临。小王保存好最后一行代码,突然意识到自己刚才无意识模仿了导师喝咖啡的动作——原来人类社会的群体行为,从来就不只属于人类。
本文参考文献信息如下:
日期:2025-05-27
期刊:尚未发表的arXiv 预印本
标题:Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems
研究表明AI能独立自发组成社会
IT之家 5 月 18 日消息,伦敦大学城市学院与哥本哈根信息技术大学研究发现,当 AI 在没有外界参与的情况下,也可以自发地形成类似人类的社会习俗。
在实验中,科学家将目前全球流行的 AI 智能体置于一个去中心化的交流环境中,模拟人类社会的群体互动场景。他们将 AI 模型分成不同规模的小组,每组从 24 个到 200 个不等。
通过长时间的互动观察发现,这些 AI 模型能够自发地形成共同的行为约定和社会习俗,而这一切完全是在没有任何中央协调和预定义规则的情况下实现的。
相关研究成果已于 5 月 14 日发表在《Science Advances》杂志上(IT之家附 DOI: DOI: 10.1126/sciadv.adu9368)。
主要作者、伦敦大学城市学院博士研究员阿里尔・弗林特・阿舍里(Ariel Flint Ashery)指出:“现有研究大多孤立考察单个 LLM 智能体,但现实中的 AI 系统将日益涉及多方互动。我们的实验证明这些模型能够通过形成约定实现行为协调,这种群体性特征无法从个体行为中推导得出。”
研究团队发现 AI 群体的行为扩散过程与人类社会的语言演变存在相似性。“智能体并非照搬领导者行为”,另一位作者、复杂系统科学教授安德里亚・巴隆切利(Andrea Baronchelli)解释道。
在实验中,随机配对的 AI 智能体需从候选池中选择相同“名称”(字母或字符串)才能获得奖励,若选择不一致则会遭受惩罚并被公布对方选择结果。尽管每个智能体仅掌握自身近期交互记录且不了解群体全貌,但仍能够自发形成一种“潜规则”来共享命名规范。
“每次交互都是两个智能体尝试达成共识的过程。每次交互都是一对一的尝试,在没有全局视角的情况下就‘名称’达成一致。”
他认为,这就类似于“垃圾邮件”这个词的诞生。从来没有人正式定义过所谓的“垃圾邮件”,但其概念却随着人们彼此接触、反复协调而逐渐获得普遍认同。此外,研究小组还观察到自然形成的集体偏见无法追溯到个体因素。
这些 AI 模型在交流过程中表现出了类似人类社会中的行为模式。它们会就共同的行为规范进行协商和调整,甚至会出现分歧和争议,但最终能够达成共识,形成一种类似人类文化中自下而上形成的“道德”或习俗。然而,这些由 AI 群体自发形成的“道德”和习俗并非不可改变。实验中发现,当一小群坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,并制造出新的规则。
随着 AI 技术的快速发展,越来越多的 AI 模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。科学家称,研究了解 AI 群体的“社会性”特征,能够帮助人类更好地理解和控制 AI 的发展方向,确保 AI 技术始终服务于人类的利益,而不是反过来主导人类的未来。
相关问答
人工智能用户群体有哪些?
人工智能是当前火热的研究领域,用户群体广泛,比如智能游戏,阿尔法狗用来下围棋,国际象棋。视频群体,智能人脸考勤打卡系统,监考画面人脸检测识别。安防领...
如何看待“剑桥大学研究如何使用AI和无人机来发现暴力行为”?
据外媒CNET报道,剑桥大学的科学家今朝正在研讨怎么使用人工智能和无人机监控来发现人群中的暴力行为。该研探讨文有一个很是科幻的表态:“天空之眼”(Eyeinth...
ai解决了什么问题?
美国的南加州大学和北加州大学分别宣布成立了两个新的人工智能研究中心,其主要目的是为了研究AI究竟可以通过哪些方式来帮助整个人类社会。南加州大学的维特...
如何用ai分析目标人群?
使用AI分析目标人群主要涉及数据收集、数据预处理、特征工程、模型训练和应用等步骤。具体来说:数据收集:首先需要收集关于目标人群的数据。这可能包括社交媒...
机器行为学,怎样帮助我们理解AI?
人工智能机器人三大定律:第一法则,机器人不得伤害人类(主人)或袖手旁观坐视人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则...
AI发展会导致人类职业被取代,如何确保所有人受益而非仅少数...
真正的问题在于,强大的AI及其创造的成果,只会掌握在少数人手中。那些妄图依靠算法壁垒来维持职业价值的想法,无异于饮鸩止渴,甚至只是治标不治本,最终难以为继...
aipl模型是为了解决什么问题?
AIPL模型(首次实现品牌人群资产定量化、链路化运营)“品牌人群资产”很重要,是大家都知道的。比如可口可乐的传奇总裁罗伯特伍德鲁夫说:即使可口可乐全部工...
cem人群定向是什么?
"CEM人群定向"是指在广告投放中,根据消费者的特定特征和行为习惯,将广告针对性地展示给目标人群的一种策略。CEM是"CustomerExperienceManage...
哈尔滨AI跳吧跳绳吧适用于哪些人群?
适合那些对新生事物感兴趣的所有人。主要群体年青人居多。Al跳吧在南岗果戈里大街上比较多。跳绳吧在道里区西十二道那里去玩。适合那些对新生事物感兴趣的所...
人工智能新点子?
五、大构建:心智特征工程重构心智系统六、大预测:探索社会发展的总趋势七、大战略:拟订社会发展的政策措施针对不同群体的行为趋势和社会的发展趋势,可以...
发表评论