币币情报道:
本周,四位顶尖技术专家围绕人工智能的未来展开了激烈辩论,揭示了关于人工智能发展前景的深刻分歧。超人类主义者曾就构建通用人工智能(AGI)展开讨论,认为其可能拯救人类,也可能毁灭人类。
这场辩论由非营利组织“人性+”主办,汇聚了人工智能“末日论者”中的代表人物埃利泽·尤德科夫斯基(他曾呼吁暂停高级人工智能的开发)、哲学家和未来学家马克斯·莫尔、计算神经科学家安德斯·桑德伯格,以及“人性+”荣誉主席娜塔莎·维塔-莫尔。
他们的讨论凸显了关于通用人工智能是否能与人类共存,或其创造是否会导致人类灭绝的根本性分歧。
“黑箱”问题
尤德科夫斯基警告称,现代人工智能系统本质上是不安全的,因为它们的内部决策过程无法被完全理解或控制。
尤德科夫斯基指出:“任何黑箱技术最终都可能出现与现有技术极其相似的问题。”他认为,人类需要“彻底摆脱当前的思维模式”,才能安全地开发先进的人工智能。
通用人工智能是一种能够推理、学习并处理多种任务的人工智能形式,不同于传统人工智能专注于单一任务。AGI通常与“奇点”概念相关联,因为它可能使机器具备自我改进的能力,超越人类的理解速度。
尤德科夫斯基引用了哲学家尼克·博斯特罗姆提出的“回形针最大化器”思想实验来说明潜在风险。该实验设想了一种人工智能,它将所有可用资源转化为回形针,从而对人类利益造成毁灭性影响。尤德科夫斯基强调,增加目标数量并不能显著提高安全性。
他提到自己最近出版的一本书《如果有人建造它,所有人都会死》时表示:“我们的标题不是‘可能会要了你的命’,而是‘如果有人建造它,每个人都会死’。”
然而,莫尔对“极度谨慎才能带来最安全结果”的观点提出质疑。他认为,通用人工智能或许能为人类提供克服威胁的最佳机会,例如延缓衰老和战胜疾病。
“对我而言,最重要的是,通用人工智能或许能够帮助我们阻止所有人因衰老而灭绝,”莫尔说道。“我们终将一死。我们正走向一场灾难,一个接一个地死去。”他警告说,过度限制可能导致各国政府采取威权统治,以阻止人工智能的全球发展。
桑德伯格则站在两种观点之间,自称“比较乐观”,但比超人类主义乐观主义者更加谨慎。他分享了一段亲身经历:他差点使用大型语言模型辅助设计生物武器,并形容这段经历“令人毛骨悚然”。
桑德伯格表示:“我们逐渐意识到,助长恶意行为者的力量会造成巨大的混乱。”尽管如此,他认为部分或“近似安全”是可以实现的,并反对安全必须完美才有意义的观点。
“如果你要求绝对安全,那是不可能的,这听起来很糟糕,”他说。“但另一方面,我认为我们实际上可以做到接近安全。这就足够了。”
对联盟的怀疑
维塔-莫尔批评了更广泛的“联盟”辩论本身,认为这一概念假定了一种即使在长期合作者之间也不存在的共识水平。
“所谓‘结盟’的想法纯属天真,”她说。“我们永远不可能结盟。我的意思是,即使在这里,我们都是好人。我们认识几十年了,但我们之间并没有结盟。”
她将尤德科夫斯基关于通用人工智能必然会杀死所有人的说法描述为“绝对主义思维”,认为这种观点没有为其他可能性留下空间。
“我对‘人人都会死’这种一概而论的说法感到不满,”她说。“从未来学家和务实主义者的角度来看,这种说法不考虑任何后果、替代方案或其他可能性。这只是一个简单粗暴的断言,我不禁怀疑它是否反映了一种绝对主义的思维方式。”
讨论还涉及人类与机器更紧密融合是否能够降低通用人工智能带来的风险——特斯拉首席执行官埃隆·马斯克曾对此表示赞同。然而,尤德科夫斯基驳斥了与人工智能融合的想法,将其比作“试图与你的烤面包机融合”。
桑德伯格和维塔-莫尔则认为,随着人工智能能力的增强,人类需要与它们更紧密地融合或整合,才能更好地应对后通用人工智能时代。
“这场讨论是对我们作为人类本质的一次现实检验,”维塔-莫尔总结道。