人工智能系统正日益部署于金融、医疗、国防和公共治理等高风险和受监管领域。尽管模型能力显著提升,现有的人工智能架构缺乏正式且可执行的机制来界定决策权归属、决策执行条件及如何保持责任制。这种缺失带来了系统性的法律、运营和伦理风险。本文提出了决策权基础设施(DAI),一种确定性、以治理为先的框架,正式将智能生成与决策授权分离。该方法强制执行人类最终权威、非自主执行、不确定性感知的自动锁定机制,以及用于审计级可追溯性的确定性决策回放。只有在明确满足权威、风险阈值和治理约束时,决策才被允许。不同于强调一致性、伦理或概率监督的主流人工智能安全范式,DAI将决策权视为可计算的系统层,可被验证、审计和监管。该框架确立了决策权作为在不可逆和责任关键环境中部署人工智能的基础设施需求,并将其作为人工智能治理中一个新的科学和工程领域提出。
Building similarity graph...
Analyzing shared references across papers
Loading...
YASIN KALAFATOGLU
Chinese Academy of Governance
Building similarity graph...
Analyzing shared references across papers
Loading...
YASIN KALAFATOGLU(Sun,)研究了此问题。
www.synapsesocial.com/papers/698435b9f1d9ada3c1fb4e2e — DOI: https://doi.org/10.5281/zenodo.18473123