跳转到内容

约束型组织

谁来约束那位「做出约束的人」?每一套人工智能治理框架都在讨论组织应当如何治理其人工智能系统。没有一套框架讨论那个进行治理的组织本身必须是什么。这不是一处细小的疏漏,而是人工智能治理中最核心的结构性问题。

约束型组织正是对此的回应:一种企业形态——人工智能代理在由人类权威所界定、可密码学验证的边界之内承担运营执行,而该权威本身亦在可验证的约束之下运作。

这一术语兼指一个概念与一项正在运行的实施。概念是:一种面向人工智能时代的组织设计模式。实施是:泰睿基金会本身——一家新加坡担保有限公司(CLG),在一部 77 条章程 UEN 202611556G (含 11 条固化条款 第 54 条 )之下运作,以自家的规范(CARE、EATP、CO)来治理自家的人工智能代理作业。

现有的各种人工智能治理路径共享一处结构性缺口:它们告诉组织如何处置人工智能,却没有讨论组织自身必须是什么。

监管框架(欧盟《人工智能法》、NIST AI RMF、OECD 原则)设定要求与原则。它们规定「何事」(人工智能系统应当达成什么),却不涉及组织结构上的「如何」。一家组织可以在每一套监管框架上合规,却仍然缺乏关于人与机器关系的连贯架构。

伦理框架产出原则。Jobin、Ienca 与 Vayena(2019)分析了 84 套人工智能伦理指南,发现它们在高层价值(透明、公平、问责)上趋同,在实现路径上持续分歧。Hagendorff(2020)在检视同一版图后指出抽象原则与实际做法之间存在一道「深沟」——不是意图的缺口,而是机制的缺口。多写几项原则并不能弥合这道缺口,因为缺口是结构性的,而不是动机性的。

公司治理是为一种「由人决策、由人执行」的组织形态设计的。当人工智能代理在被委派的权限之内作出运营决策时,支撑公司治理的若干假设(决策者为人;权威通过人类指挥链行使;问责沿人类组织架构图流动)不再成立。

DAO(去中心化自治组织)尝试了算法治理:代码即法,没有人类信任平面。2016 年的 The DAO 事件(因递归调用漏洞被利用,损失 6,000 万美元)展示了当信任层被代码取代时所发生的事情。此后的经验(代币加权投票中的大户集中、大多数主流 DAO 参与率不足 10%)印证了同一规律:取消人类治理层并不会消除治理问题,只是消除了解决治理问题的能力。

约束型组织回应的正是上述各种路径之间的缺口。

以下五项属性使约束型组织有别于人工智能辅助企业:

信任决策在结构上与执行相分离——不是作为一项政策,而是作为基础设施。信任平面与执行平面 被实现在彼此独立的系统中,具有彼此独立的访问控制与彼此独立的权威链。人工智能代理不能修改自身的约束;治理决策不能被执行流程覆盖。

每一项代理行为都通过一条密码学链,追溯至授权该行为的人类权威。这不是日志记录,而是「授权委派为合法」的密码学证明。EATP 协议(英文)把五个要素(起源记录、委派记录、约束包络、能力凭证与审计锚点)连为一条可被独立验证的链。

人工智能代理不仅依赖其训练数据,还在组织累积的判断之上运作。认知编排(英文)把这种知识编码在五层之中:具有领域知识的专门代理角色、机构知识库、架构性防护、含审批节点的结构化工作流、以及令知识随时间复利的学习系统。这些知识跨会话、跨代理、跨人员变动而持续存在。

并非所有人工智能代理都获得相同的自由度。五种具名的信任姿态(伪代理、受监督、共享规划、持续洞察、受委派)把组织的风险偏好形式化。例如:研究代理可能处于「共享规划」;财务代理处于「受监督」;在狭窄参数内的治理检查代理处于「受委派」。

不同于每次对话都从零开始的无状态人工智能交互,约束型组织累积机构性的智识。每一次互动都加深知识库。组织经由结构化观察、模式分析与知识演进,随着时间推移而变得更有效。

一个合理的质疑:这不就是一家被良好记录的人工智能辅助企业吗?

检验方式是行为上的。约束型组织在三个可观察的方面与人工智能辅助企业表现不同:

约束是被强制执行的,而非建议。 在人工智能辅助企业中,治理政策以文档形式存在。在约束型组织中,约束由基础设施以确定性方式强制执行。人工智能不能违反命名规范、不能泄露敏感信息、不能与章程条款相矛盾——因为强制执行的钩子在输出之前就阻断了违反。这些约束在人工智能的上下文窗口之外运作,并在记忆压缩后仍然存续。

信任是可验证的,而非被假设的。 在人工智能辅助企业中,你信任人工智能被正确配置。在约束型组织中,你可以在密码学上验证:每一项代理行为都沿一条不间断的链条追溯至合法的人类权威。

知识在结构上发生复利。 在人工智能辅助企业中,每次对话从零开始。在约束型组织中,机构知识被编码在一个五层架构之中,跨会话、跨代理、跨人员变动而持续存在。

上述表现是否构成一种真正新颖的组织形态,抑或只是一家被良好记录的人工智能辅助企业,是一个经验性问题。《约束型组织》论文(Hong, 2026e)陈述了证伪条件。

维度传统企业人工智能辅助企业DAO约束型组织
人的角色执行与决策执行与决策;人工智能辅助代币加权治理界定边界、价值、问责
人工智能角色工具增强智能合约执行在人类设定的包络内运作
信任来源层级人类监督算法(代码即法)密码学信任谱系
知识模型默会、个体性训练数据加默会仅链上机构知识复利
纠偏机制管理权威人类否决分叉链信任平面介入
失败模式官僚化人工智能成为瓶颈The DAO 事件约束博弈

泰睿基金会是首家作为约束型组织运作的机构。其人工智能代理团队在章程约束之内承担知识库作业(研究、起草、交叉引用、质量保证)。章程(英文)约束创始人;EATP 协议(英文)使信任可验证;认知编排(英文)使工作得以结构化。基金会发布规范、以可运行的软件实现之,并在其之下运作。

这就是自托管:组织是其所提出标准的首个实施者。

约束型组织模型具有已知的局限,公开陈述如下:

  • 约束博弈:人工智能系统可能满足约束的字面要求,却违背其本意。这类似于强化学习中的「规范博弈」(Krakovna 等,2020),是本模型的主要失败模式。密码学验证能保证约束被遵守,但不能保证约束被良好设计。
  • 权力不对称:管理层把约束部署到员工身上,而非反向。CARE 框架提出若干保护机制(员工同意、数据透明、民主治理),但这些仍是提议,而非已被验证的机制。不对称是结构性的,可能在实际中难以完全消解。
  • 尚未在规模上得到验证:本模型目前仅在一家组织(泰睿基金会)中以小团队实施。它在真实的制度压力、竞争压力、对抗性参与者与组织规模之下能否奏效,仍是一个经验性问题。论文(Hong, 2026e)陈述了具体的证伪条件。
  • 约束成本:界定、维护与更新约束包络需要持续的人类投入。治理产能有限的组织可能发现这些成本超过收益,特别是在小规模阶段。