Zusammenfassung Emotional künstliche Intelligenz (KI) — Systeme, die menschliche Gefühle ableiten, simulieren oder beeinflussen — schaffen ethische Risiken, die bestehende Rahmenwerke für Datenschutz, Transparenz und Aufsicht nicht vollständig adressieren können. Dieses Papier führt das Konzept der affektiven Souveränität ein: das Recht der Individuen, letztlich selbst die Deutenden ihrer eigenen Emotionen zu bleiben. Wir leisten vier Beiträge. Erstens entwickeln wir formale Grundlagen durch die Zerlegung von Risikofunktionen, um Interpretationsüberschreibungen als messbare Kosten zu erfassen. Zweitens schlagen wir eine "Sovereign-by-Design"-Architektur vor, die Schutzmechanismen und Anfechtbarkeit in den Lebenszyklus des maschinellen Lernens integriert. Drittens operationalisieren wir Souveränität durch neue Metriken — den Interpretive Override Score (IOS), die After-correction Misalignment Rate (AMR) und die Affective Divergence (AD) — und demonstrieren deren Anwendung in einer Machbarkeits-Simulation. Viertens verbinden wir technisches Design mit Governance durch die Einführung des Affective Sovereignty Contract (ASC), einer maschinenlesbaren Richtlinienebene, und durch die Herausgabe einer Erklärung zur affektiven Souveränität als normative Grundlage für Regulierung. Zusammengenommen bieten diese Elemente einen rechnergestützten Rahmen zur Ausrichtung emotionaler KI an menschlicher Würde und Autonomie und gehen damit über abstrakte Prinzipien hinaus zu durchsetzbaren und prüfbaren Standards.
Building similarity graph...
Analyzing shared references across papers
Loading...
Ryan SangBaek Kim
Building similarity graph...
Analyzing shared references across papers
Loading...
Ryan SangBaek Kim (Fr,) untersuchte diese Fragestellung.
www.synapsesocial.com/papers/68e03501f0e39f13e7fa3ae4 — DOI: https://doi.org/10.21203/rs.3.rs-7765449/v1
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: