类似于因个人利益驱动,过度开采开放草场导致其退化的牧羊人,即所谓的公地悲剧,建造首个人工通用智能(AGI)的竞赛也超越了安全界限,其典型表现为与OpenAI的ChatGPT相关的可靠性担忧。在最坏情况下,这可能导致流氓AGI的出现或其被好斗或营利性利益垄断,最终使人类失去权力。因此,OpenAI所拥有的产权组合是否是治理AGI的可行模板?问题在于是否应允许AI开发者自我监管。基于公地研究,OpenAI与AI专家建议的更值得信赖的替代实体类别——非营利公司进行了比较。研究结果表明,为实现AGI开发中的自我约束,旨在防止财务支持者及其他股东干预OpenAI决策的治理机制未能奏效。一项适当的国际治理制度应考虑调控AI开发的中观和微观宪法规章,而欧盟人工智能法案作为首个全面AI法规对此未给予充分关注。关键实际意义有二:1)对关键技术(如特定微芯片)的访问应像铀一样严格控制,仅限授权的AGI实验室使用;2)必须强制实施用于AGI隔离的网络沙盒,区别于用于现实世界AI测试的监管沙盒,以确保安全。• AGI带来的是一种加性的全球公地悲剧,而非减性的。• 中观和微观规章必须与宏观规章同步。• OpenAI重组后的治理未能限制利润动机。• 欧盟人工智能法案规制应用,忽视了AGI技术。• 基础形式本体映射了OpenAI的因果机制。
Building similarity graph...
Analyzing shared references across papers
Loading...
Alejandro Agafonow
Marybel Pérez
Technological Forecasting and Social Change
ESSCA School of Management
Building similarity graph...
Analyzing shared references across papers
Loading...
Agafonow等人(周四)研究了该问题。
www.synapsesocial.com/papers/69edab424a46254e215b352f — DOI: https://doi.org/10.1016/j.techfore.2026.124680
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: