본 연구는 인공지능(AI)과 지능형 시스템에서의 윤리적 의사결정 간의 관계를 조사한다. AI 기술이 의료, 법률, 자율 시스템 등 중요한 영역에 점차 적용됨에 따라, 편향성, 불투명성, 감정적 또는 맥락적 판단의 부재와 같은 윤리적 위험이 즉각적인 주의를 필요로 한다. 이러한 위험은 기술적 불확실성, 인간 도덕성의 한계, 인간과 비인간 행위자 간의 복잡한 상호작용이라는 세 가지 차원으로 분류된다. 이 논문은 공리주의, 의무론, 덕 윤리와 같은 규범 이론을 사용하여 AI 시스템에 윤리적 추론을 내장하는 가능성을 검토한다. 또한 전 세계 규제 프레임워크와 신흥 학제간 접근법을 분석하여 문화적으로 대응 가능하며 투명하고 책임 있는 AI 거버넌스의 중요성을 보여준다. 다중 분야 윤리적 위험 분석 프레임워크를 제안하여 개발자, 정책 입안자 및 윤리학자가 AI 생애주기 전반에 걸쳐 윤리적 문제를 평가하고 완화할 수 있도록 돕는다. 이 연구는 AI 설계에서 윤리를 운영화하고 예측적 거버넌스 모델을 개발하는 등 향후 학제간 연구를 위한 권고사항으로 결론을 맺는다. 이 작업은 기술적으로 견고할 뿐만 아니라 인간의 가치와 윤리적으로 일치하는 지능형 시스템의 창출을 지원하는 것을 목표로 한다.
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah (수요일,) 이 이 질문을 연구했다.
www.synapsesocial.com/papers/68bb3d4e2b87ece8dc955b73 — DOI: https://doi.org/10.61856/6kyazw30
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: