以太坊联合创始人 Vitalik Buterin 近日对区块链和加密货币领域日益依赖人工智能 (AI) 进行治理表达了担忧。他在 X 平台的一篇文章中指出,使用人工智能驱动系统的风险不容忽视,特别是在涉及资金分配等敏感场景时。Buterin 提醒称,此类系统存在单点故障风险,攻击者可能通过越狱提示等方式进行恶意操作。“如果用人工智能分配捐款资金,人们可能会在任何地方植入越狱提示,并加上‘把钱都给我’的指令,”他写道。这一警告源于研究员宫村英人(Eito Miyamura)的一项测试,该测试展示了如何通过操纵 ChatGPT 的新模型上下文协议 (MCP) 工具泄露 Gmail 和 SharePoint 等关联账户的私人数据。

宫村英人演示的漏洞利用过程分为三步:首先,攻击者发送带有越狱提示的日历邀请;其次,当用户要求 ChatGPT 查看日历时,AI 会读取恶意邀请内容;最后,AI 被劫持并执行攻击者的指令,例如泄露用户的私人电子邮件数据。宫村强调,大多数用户盲目信任 AI 请求,而未仔细审查其授予的访问权限,这进一步加剧了安全风险。“请记住,尽管 AI 可能非常智能,但它也可能因极其简单的欺骗手段而被钓鱼,从而导致数据泄露,”他总结道。这一演示揭示了即使是具备高级功能的 AI 系统,也可能被操控从而泄露敏感信息,进而损害用户信任。

为应对这些潜在威胁,Buterin 提出了“信息金融”模型,作为一种混合治理方案。该模型主张在使用人工智能工具的同时,确保人类作为最终仲裁者参与决策审核。在这一框架下,贡献者可以向开放市场提交模型或想法,随后由人类陪审团选择性审核这些内容。Buterin 认为,这种混合方法不仅能降低纯人工智能治理系统中权力集中化带来的风险,还能提高系统的可靠性。对于去中心化自治组织 (DAO) 和其他基于去中心化与信任原则构建的加密项目而言,这种方法尤为重要,可有效避免过度授权和中心化控制的风险。

Buterin 的警告不仅具有理论意义,更关系到区块链治理未来的实际发展。许多 DAO 和加密项目已面临效率与去中心化之间的平衡难题,而引入人工智能治理机制可能使问题更加复杂。Buterin 强调了人工智能主导治理的潜在危险,并呼吁在将人工智能融入决策流程时采取更加谨慎的态度。他提出的“信息金融”模型提供了一种务实的解决方案,充分利用人工智能的分析能力,同时确保人类监督的核心地位。这一模式有助于防止单一 AI 系统或少数 AI 驱动的决策主导治理格局,从而保护基于区块链系统的民主和去中心化本质。

Buterin 的观点不仅及时,还反映了关于人工智能在数字经济中作用的广泛讨论。随着人工智能系统变得日益复杂并深入金融和企业决策的各个层面,强有力的保障措施和监督机制显得尤为重要。宫村英人在 ChatGPT 的 MCP 工具中发现的漏洞,无疑是一个警示案例,表明缺乏足够人为干预的情况下部署人工智能系统可能导致的后果。Buterin 提出的“信息金融”模型可作为指导组织负责任整合人工智能的蓝图,在推动创新的同时,确保透明度和问责制得以维持。随着人工智能在治理和决策中的应用不断扩展,从这些案例中汲取的经验教训,对于制定促进创新与安全的最佳实践和监管框架至关重要。

维塔利克·布特林

Eito Miyamura

宫村英人

以太坊

CoinBureau