Ähnlich wie Hirten, die, motiviert durch persönlichen Gewinn, eine allgemein zugängliche Weide übernutzen, was zu deren Verschlechterung führt – bekannt als die Tragödie der Allmende – dehnt das Rennen um den Bau der ersten künstlichen allgemeinen Intelligenz (AGI) die Sicherheitsgrenzen aus, wie die Zuverlässigkeitsbedenken im Zusammenhang mit OpenAIs ChatGPT veranschaulichen. Im schlimmsten Fall könnte dies zu einer unkontrollierten AGI oder deren Monopolisierung durch kriegerische oder profitorientierte Interessen führen, was eine entmachtete Menschheit zur Folge hätte. Ist somit das Bündel von Eigentumsrechten, das OpenAI darstellt, ein praktikables Modell für die Governance von AGI? Es stellt sich die Frage, ob KI-Entwicklern die Selbstregulierung erlaubt sein sollte. Aufbauend auf der Allmenden-Forschung wird OpenAI mit der Klasse von Organisationen verglichen, die KI-Experten als vertrauenswürdigere Alternative vorgeschlagen haben, nämlich der gemeinnützigen Körperschaft. Die Ergebnisse zeigen, dass die Governance, die darauf abzielt, Einmischungen von finanziellen Geldgebern und anderen Eigenkapitalinhabern in die Entscheidungsfindung von OpenAI zu verhindern, nicht erfolgreich war, um Selbstbeschränkung in der Entwicklung von AGI zu erreichen. Ein geeignetes internationales Governance-Regime würde die meso- und mikro-verfassungsrechtlichen Regeln berücksichtigen, die die KI-Entwicklung steuern; diese wurden vom EU AI Act – der ersten umfassenden KI-Verordnung – nicht ausreichend adressiert. Die wichtigsten praktischen Implikationen sind zweifach: 1) Der Zugang zu kritischer Technologie, wie bestimmten Mikrochips, sollte so streng kontrolliert werden wie Uranium und auf autorisierte AGI-Labore beschränkt sein; und 2) Cyber-Sandboxes zur Isolation von AGI, die sich von regulatorischen Sandboxes für das reale KI-Testing unterscheiden, müssen aus Sicherheitsgründen vorgeschrieben werden. • AGI stellt eine additive globale Tragödie der Allmende dar, keine subtraktive. • Meso- und Mikroregeln müssen mit Makroregeln synchronisiert werden. • Die umstrukturierte Governance von OpenAI verhindert den Profit nicht. • Der EU AI Act reguliert Anwendungen, verfehlt jedoch die AGI-Technologie. • Die Basic Formal Ontology bildet die kausalen Mechanismen von OpenAI ab.
Building similarity graph...
Analyzing shared references across papers
Loading...
Alejandro Agafonow
Marybel Pérez
Technological Forecasting and Social Change
ESSCA School of Management
Building similarity graph...
Analyzing shared references across papers
Loading...
Agafonow et al. (Thu,) untersuchten diese Fragestellung.
www.synapsesocial.com/papers/69edab424a46254e215b352f — DOI: https://doi.org/10.1016/j.techfore.2026.124680
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: