Les systèmes d'intelligence artificielle contemporains sont fréquemment décrits comme possédant des représentations, des modèles internes du monde, ou des états similaires à la compréhension. Ces descriptions persistent malgré des échecs répétés en fiabilité, ancrage et généralisation. Cet article soutient que ces échecs ne sont pas accidentels mais structurels. Nous introduisons le Couteau de la Contrainte Explicative (CCE) : un critère qui distingue une véritable explication d'une description représentationnelle. Selon le CCE, une explication est valide uniquement dans la mesure où elle contraint ce qui ne peut pas se produire. Nous soutenons que les perspectives représentationnelles échouent systématiquement à ce critère. Elles décrivent des corrélations internes mais n'imposent pas d'exclusion. Par conséquent, elles confondent la fluidité perceptuelle avec la compréhension et le succès de l'optimisation avec une adéquation explicative. Cet article établit le CCE comme un filtre épistémique nécessaire pour l'explication en IA et prépare le terrain pour des analyses ultérieures des hallucinations et des échecs à long terme.
Building similarity graph...
Analyzing shared references across papers
Loading...
Aruna Reddy Katanguri
Building similarity graph...
Analyzing shared references across papers
Loading...
Aruna Reddy Katanguri (jeu,) a étudié cette question.
www.synapsesocial.com/papers/69e321aa40886becb6540b7a — DOI: https://doi.org/10.5281/zenodo.19614522
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: