理念
每一套主要的人工智能治理框架都在追问同一个问题:组织应当如何约束其人工智能?没有一套框架追问更前置的问题:组织自身必须是什么。
这不是侧重之别,而是结构性缺失。Jobin、Ienca 与 Vayena(2019)分析了 84 套人工智能伦理指南,发现它们在原则层面(透明、公平、问责)趋同,却在实现路径上持续分歧。Hagendorff(2020)指出抽象原则与实际做法之间存在一道「深沟」。这道缝隙之所以持续存在,是因为现有框架指向错误的对象。它们约束人工智能,却让进行约束的机构本身处于无约束状态。
泰睿基金会建立在一条命题之上:一家自身不能可信地治理的机构,无法产生可信的人工智能治理。这不是偏好,而是一项结构性要求,由 Fama 与 Jensen(1983)关于决策过程的分析延伸至向自主系统进行委派的组织而得出。
三项彼此关联的观念构成智识基础。
既有的组织形态(传统企业、人工智能辅助企业、DAO)在结构上不足以治理自主系统。约束型组织这一主张指出:需要一种新的组织形态,一种由人类权威所界定、在可密码学验证的边界内由人工智能代理承担执行的企业形态。
泰睿基金会是这一概念的首个实施者。它在 77 条章程 UEN 202611556G 与 11 条固化条款之下运作,按 CC BY 4.0 SPDX 发布开放规范,按 Apache 2.0 SPDX 构建可运行的软件。
当承担工作的系统同时为这些工作制定规则时,问责便会瓦解。双平面模型通过在架构上将信任与执行分离来防止这一后果。信任平面(问责、价值、边界)永久属于人类。执行平面(任务完成、协调、信息处理)由人类与在人类设定的约束内运作的人工智能共同承担。这一分离不是政策建议,而是基础设施设计,由架构本身强制执行。
五个约束维度(财务、运营、时间、数据访问、通信)界定出人工智能代理得以自主运作的包络。
当人工智能处理一切可被自动化的事务时,会发生什么?通常的回答是:人类将变得不再必要。观察到的回答恰好相反:那些一直存在却从未被单独度量的贡献变得可见,包括伦理判断、关系资本、情境智慧、创造性综合、情感智能与文化导航。
镜像命题最终是一项关于人的尊严的论证:你不仅仅是你所产出的东西。
以上三项观念由一条形式化论证相互连接,该论证把 Fama 与 Jensen(1983)对决策管理与决策控制的分离延伸至向自主系统进行委派的组织。论证得出七条命题,最终导向一条不可能性结论:可信的人工智能治理要求组织层面的治理;机构受托人本身必须作为约束型组织运作。
完整论述见《约束型组织》论文(Hong, 2026e),目前正准备学术发表。CARE、EATP 与 CO 规范的概述见 标准(英文)页面。