مع انتقال أنظمة الذكاء الاصطناعي من نشر النماذج العرضي إلى بنى فاعلة ومُدمجة ماديًا، تواجه الأساليب السائدة للسلامة وحوكمة الذكاء الاصطناعي حدًا هيكليًا. يجادل هذا المقال بأنه لا يمكن بعد الآن اعتبار الحوكمة كمجرد سياسة اختيارية عندما تعمل أنظمة الذكاء الاصطناعي بشكل مستمر، بسرعات عالية، وتحت ظروف التبعية وعدم القدرة على الخروج. استنادًا إلى التحولات الحديثة في نشر الذكاء الاصطناعي الدفاعي والصناعي، يشخص المقال تحولًا في الهيكل التبريري حيث يُعاد تصنيف التأخير نفسه كمخاطر نظامية، بينما يُعاد تقييم الفشل وسوء التوافق كمخاطر محلية يمكن تحملها. الادعاء المركزي هو أن هذا التحول يجعل أُطر الحوكمة الحالية غير كافية، ليس بسبب نقص الطموح الأخلاقي، ولكن لأنها تفترض القابلية للعكس، والإشراف العرضي، والتصحيح اللاحق التي لم تعد ملائمة للأنظمة الفاعلة والمُدمجة ماديًا. بالاعتماد على تحليل هيكلي للوكالة، وتحليل الإدراك الموزع كبنية اجتماعية تقنية، ونظريات الائتمان المتعلقة بالتصرف بالنيابة، يعيد المقال صياغة حوكمة الذكاء الاصطناعي كشروط معمارية للسلطة الشرعية. ويخلص إلى تحديد شروط حوكمة برمجية دنيا—قابلية الطعن، والإمكانية للمراجعة، وقدرة الإيقاف، وتتبع المسؤولية—مطلوبة لضمان أن تظل الشرعية والمساءلة مفهومة في ظل النشر السريع.
Building similarity graph...
Analyzing shared references across papers
Loading...
Peter Kahl
Building similarity graph...
Analyzing shared references across papers
Loading...
درس بيتر كهل (Fri,) هذا السؤال.
www.synapsesocial.com/papers/6980fed9c1c9540dea8115ae — DOI: https://doi.org/10.5281/zenodo.18431308
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: