研究人员警告:人工智能“集群”或成虚假信息传播新威胁

说币大神2026-01-26
摘要
一篇新的学术论文探讨了自主人工智能代理如何使影响力活动更难被发现,并使其在规模上更有效 。
币币情报道:

根据一项最新研究,传统的、容易被检测到的僵尸网络时代可能即将结束。研究报告于本周四发表在《科学》杂志上,研究人员警告称,虚假信息传播活动正逐渐转向一种新型模式——由能够模仿人类行为、实时适应环境且几乎无需人工干预的自主人工智能群体主导。这种转变使得识别和阻止这些活动变得更加困难。

该报告由来自牛津大学、剑桥大学、加州大学伯克利分校、纽约大学以及马克斯·普朗克研究所的研究团队共同撰写。报告描述了一种数字环境,在这种环境中,操纵行为变得愈发难以察觉。与以往针对选举或政治事件的短期行动不同,这些人工智能驱动的活动可以持续更长时间,逐步构建并强化某种叙事。

研究人员指出:“如果这些工具被政府或其他权力机构滥用,可能会用来压制异议或巩固当权者的统治地位。因此,只有在严格、透明且民主问责的框架下,才能考虑部署防御性人工智能。”

所谓的人工智能“集群”,是指一群自治的人工智能代理协同工作,以比单一系统更高效的方式解决问题或完成目标。研究人员表示,这些集群利用了社交媒体平台现有的弱点,例如用户往往难以接触到多样化的观点。

他们进一步解释道:“事实证明,虚假新闻的传播速度和范围都远超真实新闻,这加剧了社会现实的碎片化,并侵蚀了共同的事实基础。最近的研究表明,以用户参与度为导向的内容推送算法与社会极化密切相关,甚至不惜牺牲用户满意度来放大分裂性内容,从而进一步损害公共领域。”

南加州大学计算机科学教授兼Sahara AI首席执行官Sean Ren表示,这种转变已经在主要平台上显现出来,人工智能驱动的账户越来越难以与普通用户区分开来。

“我认为更严格的KYC(了解你的客户)或账户身份验证机制会有很大帮助,”任教授对《解密》表示,“如果创建新账户变得更困难,监控垃圾邮件发送者更容易,那么代理人就更难利用大量账户进行协同操纵。”

早期的舆论战通常依赖规模而非技巧,成千上万个账号同时发布相同的信息,这让检测变得相对容易。相比之下,该研究指出,人工智能集群展现出“前所未有的自主性、协调性和规模”。

任教授认为,单靠内容审核无法有效阻止这些系统。他强调,问题的核心在于平台如何大规模管理用户身份。他表示,更严格的身份验证和账户创建限制,即使单个帖子看起来像是真人发布,也能更容易地检测到协同行为。

他说:“如果代理人只能使用少量账户发布内容,那么就更容易发现可疑的使用情况并封禁这些账户。”

没有简单的解决办法

研究人员得出结论,这一问题没有单一的解决方案。潜在的应对措施包括改进对统计异常协调的检测能力,以及提高自动化活动的透明度。然而,他们也表示,仅依靠技术手段可能不足以应对这一挑战。

任教授补充道,即便平台引入新的技术保障措施,经济利益仍然是协同操纵攻击的重要驱动力。

他表示:“这些代理群通常由一些团队或供应商控制,他们会从外部机构或公司获得金钱报酬,从而进行协同操纵。平台应加强KYC(了解你的客户)和垃圾邮件检测机制,以识别并过滤掉被代理操纵的账户。”

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场