تبحث هذه الدراسة العلاقة بين الذكاء الاصطناعي (AI) واتخاذ القرارات الأخلاقية في الأنظمة الذكية. مع زيادة استخدام تقنيات الذكاء الاصطناعي في مجالات حاسمة مثل الرعاية الصحية والقانون والأنظمة الذاتية، فإن المخاطر الأخلاقية التي تُدخلها — مثل التحيز، وغموض العمليات، وغياب الأحكام العاطفية أو السياقية — تتطلب اهتمامًا فوريًا. تُصنف هذه المخاطر عبر ثلاثة أبعاد: عدم التيقن التكنولوجي، والقيود في الأخلاق البشرية، والتفاعلات المعقدة بين العوامل البشرية وغير البشرية. يفحص البحث مدى جدوى دمج التفكير الأخلاقي في أنظمة الذكاء الاصطناعي باستخدام نظريات معيارية مثل النفعية، والديونتولوجيا، وأخلاقيات الفضيلة. كما يحلل الأطر التنظيمية العالمية والنهج متعددة التخصصات الناشئة، موضحًا أهمية حوكمة الذكاء الاصطناعي التي تستجيب ثقافيًا، وتكون شفافة، ومسؤولة. يتم اقتراح إطار لتحليل المخاطر الأخلاقية متعدد المجالات لمساعدة المطورين وصناع السياسات والأخلاقيين على تقييم المخاوف الأخلاقية والتخفيف منها خلال دورة حياة الذكاء الاصطناعي. تختتم الدراسة بتوصيات لأبحاث مستقبلية متعددة التخصصات، بما في ذلك تشغيل الأخلاق في تصميمات الذكاء الاصطناعي وتطوير نماذج الحوكمة التنبؤية. يهدف هذا العمل إلى دعم إنشاء أنظمة ذكية ليست قوية تقنيًا فحسب، بل متفقة أخلاقيًا مع القيم الإنسانية.
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah
Building similarity graph...
Analyzing shared references across papers
Loading...
درس رافد خليفة (الأربعاء) هذا السؤال.
www.synapsesocial.com/papers/68bb3d4e2b87ece8dc955b73 — DOI: https://doi.org/10.61856/6kyazw30
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: