El despliegue de sistemas avanzados de IA en contextos de decisiones de alto impacto ha intensificado las preocupaciones respecto a la alineación, gobernanza y uso indebido. Los enfoques actuales conceptualizan predominantemente el riesgo relacionado con la IA como una propiedad del comportamiento del modelo, enfatizando la alineación de salidas, la aplicación de restricciones y los mecanismos externos de supervisión. Si bien estas estrategias abordan modos de falla importantes, permanecen estructuralmente incompletas en contextos donde los sistemas de IA funcionan principalmente como herramientas de apoyo a la decisión para actores humanos con autoridad concentrada. Este artículo argumenta que una clase significativa de riesgo relacionado con IA surge no del mal comportamiento del modelo, sino de la degradación progresiva del juicio humano bajo condiciones de poder decisorio amplificado por la IA. En entornos caracterizados por irreversibilidad, impacto asimétrico y retroalimentación correctiva limitada, la interacción sostenida con sistemas de IA altamente capaces puede estrechar sistemáticamente el razonamiento, reforzar la sobreconfianza y atenuar la sensibilidad a las consecuencias humanas, incluso cuando las salidas del sistema permanecen formalmente alineadas. Introducimos un espacio de diseño arquitectónico para contrapesos éticos internos en sistemas de IA. Estos contrapesos se conciben como subespacios autónomos, no orientados a tareas, que operan junto con los núcleos operativos de IA para detectar condiciones estructurales de riesgo asociadas con la degradación del juicio y modular la interacción con el sistema en consecuencia. En lugar de imponer resultados normativos o restringir las capacidades del sistema, los contrapesos éticos introducen fricción interna persistente mediante modulación graduada de salidas, indicaciones para reflexión y amplificación de incertidumbre. El artículo no propone una doctrina ética universal ni una única estrategia de implementación. En cambio, delimita múltiples vías de construcción—impulsadas por políticas, basadas en modelos e híbridas—y analiza sus respectivas compensaciones en términos de adaptabilidad, auditabilidad y gobernanza. Al replantear la alineación como un problema de estabilización del juicio bajo poder amplificado, más que solo control de salida, este trabajo proporciona una base conceptual para integrar fricción ética interna en sistemas de toma de decisiones asistida por IA que operan en dominios de alto impacto.
Building similarity graph...
Analyzing shared references across papers
Loading...
Janer TIttarelli Javier Ignacio
Building similarity graph...
Analyzing shared references across papers
Loading...
Janer TIttarelli Javier Ignacio (Vie,) estudió esta cuestión.
www.synapsesocial.com/papers/6988291e0fc35cd7a8849356 — DOI: https://doi.org/10.5281/zenodo.18508162
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: