초록 감성 인공지능(AI)—인간의 감정을 추론, 시뮬레이션하거나 영향력을 행사하는 시스템—은 기존의 프라이버시, 투명성, 감독 체계만으로는 완전히 해결할 수 없는 윤리적 위험을 야기한다. 본 논문은 감성 주권이라는 개념을 제시한다: 개인이 자신의 감정을 최종적으로 해석할 권리. 네 가지 기여를 한다. 첫째, 해석적 무효화(interpretive override)를 측정 가능한 비용으로 포착하기 위해 위험 함수 분해를 통해 형식적 기초를 개발한다. 둘째, 기계학습 수명주기 전반에 걸쳐 안전장치와 이의 제기 가능성을 내장하는 Sovereign-by-Design 아키텍처를 제안한다. 셋째, 해석적 무효화 지수(IOS), 수정 후 불일치율(AMR), 감성 상이성(AD)이라는 신규 지표를 운영화하고, 개념 증명 시뮬레이션에서 이를 실증한다. 넷째, 감성 주권 계약(ASC)이라는 기계 판독 가능 정책 계층을 도입하고, 규제의 규범적 기준으로서 감성 주권 선언을 발행함으로써 기술 설계와 거버넌스를 연결한다. 이들 요소들은 감성 AI를 인간 존엄성과 자율성에 맞게 조율하는 계산적 프레임워크를 제공하며, 추상적 원칙을 넘어 집행 가능하고 검증 가능한 기준으로 나아가게 한다.
Building similarity graph...
Analyzing shared references across papers
Loading...
Ryan SangBaek Kim
Building similarity graph...
Analyzing shared references across papers
Loading...
Ryan SangBaek Kim (금요일,)이 이 질문을 연구했다.
www.synapsesocial.com/papers/68e03501f0e39f13e7fa3ae4 — DOI: https://doi.org/10.21203/rs.3.rs-7765449/v1
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: