Este estudio investiga la relación entre la inteligencia artificial (IA) y la toma de decisiones éticas en sistemas inteligentes. A medida que las tecnologías de IA se despliegan cada vez más en dominios críticos como la atención sanitaria, el derecho y los sistemas autónomos, los riesgos éticos que introducen – como el sesgo, la opacidad y la ausencia de juicios emocionales o contextuales – requieren atención inmediata. Estos riesgos se clasifican en tres dimensiones: incertidumbre tecnológica, limitaciones en la moralidad humana e interacciones complejas entre agentes humanos y no humanos. El artículo examina la viabilidad de incorporar razonamiento ético en los sistemas de IA usando teorías normativas como el utilitarismo, la deontología y la ética de la virtud. También analiza marcos regulatorios globales y enfoques interdisciplinarios emergentes, ilustrando la importancia de una gobernanza de IA culturalmente sensible, transparente y responsable. Se propone un marco de análisis de riesgos éticos multidominio para ayudar a desarrolladores, responsables políticos y éticos a evaluar y mitigar preocupaciones éticas a lo largo del ciclo de vida de la IA. El estudio concluye con recomendaciones para futuras investigaciones interdisciplinarias, incluyendo la operacionalización de la ética en los diseños de IA y el desarrollo de modelos de gobernanza anticipatoria. Este trabajo tiene como objetivo apoyar la creación de sistemas inteligentes que no sólo sean técnica sino también éticamente alineados con los valores humanos.
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah
Building similarity graph...
Analyzing shared references across papers
Loading...
Rafid Khaleefah (mié,) estudió esta cuestión.
www.synapsesocial.com/papers/68bb3d4e2b87ece8dc955b73 — DOI: https://doi.org/10.61856/6kyazw30
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: