本研究は、人工知能(AI)と知能システムにおける倫理的意思決定の関係性を調査する。医療、法務、自律システムなどの重要領域でAI技術の活用が増加する中で、バイアス、不透明性、感情や文脈判断の欠如などの倫理的リスクが即時の注意を必要としている。これらのリスクは、技術的不確実性、人間の道徳の限界、人間および非人間エージェント間の複雑な相互作用という三つの次元に分類される。本論文は、功利主義、義務論、美徳倫理などの規範的理論を用いて、倫理的推論をAIシステムに組み込む実現可能性を検討する。また、グローバルな規制枠組みおよび新興の学際的アプローチを分析し、文化的に応答的で透明かつ説明責任のあるAIガバナンスの重要性を示す。多領域にわたる倫理リスク分析フレームワークを提案し、開発者、政策立案者、倫理学者がAIライフサイクルを通じて倫理的懸念を評価・軽減する支援を行う。最後に、倫理をAI設計に実装し、予測的ガバナンスモデルを開発するための将来的な学際研究の推奨をまとめている。本研究は、技術的に堅牢であるだけでなく、人間の価値観と倫理的に整合した知能システムの創出を支援することを目的とする。
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah (Wed,) はこの問題を研究した。
www.synapsesocial.com/papers/68bb3d4e2b87ece8dc955b73 — DOI: https://doi.org/10.61856/6kyazw30
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: