以太坊联合创始人Vitalik Buterin近日针对《AI 2027》报告提出的"超级AI毁灭人类"假设提出系统性质疑。他认为,在技术快速发展的背景下,通过生物防御、网络安全等领域的对称性技术部署,完全有可能降低世界脆弱性,而非被动等待单一超级AI的"审判"。
《AI 2027》报告预测,到2030年超级AI可能通过生物武器灭绝人类。但Buterin指出,当前已有空气过滤、实时病毒检测等技术能将传染病传播率降低10-20倍。在纳米机器人和意识上传等技术假设下,未来完全可能实现体内微过滤系统、自动化免疫调节等防御手段。"当AI能把草原改造成太阳能农场时,人类同样能建立遍布传感器的防御网络。"
针对"AI瞬间瘫痪所有防御系统"的担忧,Buterin提出不同见解。随着AI驱动的漏洞检测和形式化验证工具普及,软件开发将进入"发布即无漏洞"的新阶段。硬件层面,类似IRIS的可验证芯片架构正在发展。"如果1亿个超级智能都找不到代码缺陷,那说明其能力被高估了。"
Buterin特别强调防御性AI的价值:"个人需要本地运行的、明确忠于自己的AI来平衡网络上的超级说服者。"他建议发展类似台湾"消息检查器"的个性化防御工具,通过信息生态碎片化和用户自主AI形成制衡。这种"武装绵羊"策略比霸权式全球监控更具可持续性。
基于上述分析,Buterin对当前AI安全领域主流观点提出修正:延缓超级AI发展仍是必要的,但"开源有害"和"必须击败中国"等零和思维可能适得其反。他特别警告军事AI豁免监管的风险,主张通过"公共AI"等倡议实现技术扩散,认为多元制衡比单一霸权更有利于人类安全。
这场辩论的核心分歧在于:当技术呈指数级发展时,是选择将命运寄托于某个"仁慈的超级AI",还是通过系统性降低世界脆弱性来争取主动权。Buterin的结论是:"无论AI如何发展,投入资源构建对称性防御能力,始终是值得尝试的道路。"