现有的人工智能安全方法将风险归结为目标不一致、过度自治或超人类智能的函数。本文提出了一个不同的论点:人工智能变得危险,并非因为智能本身,而是因其对不可逆转记录终结性的控制。当人工智能输出固化为约束未来行动的具有约束力的记录,其速度超过人类质疑的能力时,支配性便在无恶意、无意图或无意识的情况下出现。基于对决策系统的结构分析,本文制定了一种基于认知与权威严格分离的非主导人工智能系统的一般架构理论。引入规范因果完整性(Normative Causal Integrity, NCI)作为中心安全不变量,识别了符号上规范持续而失去对结果因果控制的“解耦”作为先进人工智能部署的主要失效模式。所提架构通过延迟终结性、强制质疑、分布式授权和人类问责制,在设计上保持了民主治理。该框架将人工智能安全重新定位为制度和架构问题,而非对齐或能力问题,从而实现了无权威捕获或代理丧失的大规模智能增强。
Building similarity graph...
Analyzing shared references across papers
Loading...
SPIROS P Kalalis
Epic Systems (United States)
Building similarity graph...
Analyzing shared references across papers
Loading...
SPIROS P Kalalis(Sat,)研究了此问题。
www.synapsesocial.com/papers/6966f2fb13bf7a6f02c006d0 — DOI: https://doi.org/10.5281/zenodo.18209623
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: