Dr. Juan Manuel Duran en el IIFs

Seminario Inteligencia Artificial y Lógica “Against epistemic transparency of algorithms”

 

 

 

Presentación

Resumen: Epistemic transparency is often proposed as a solution to algorithmic opacity, wherein revealing the inner logic of an algorithm provides reasons or supporting evidence for the justification of its outputs. I argue that transparency is defective in belief formation and thus inadequate as an epistemology of algorithms. Two objections are developed: transparency regress and bootstrapping, both rooted in transparency’s status as a time-sliced, ‘outsourced’ inferentialist epistemology. While weaker forms—such as contextual transparency—are briefly considered, the central argument remains that transparency fails to provide justification and should be abandoned as an epistemology of algorithms.

Video

Video Local 1
 

 

 

 

 

 

 

Discusión del artículo: “Against epistemic transparency of algorithms”

Resumen: Epistemic transparency is often proposed as a solution to algorithmic opacity, wherein revealing the inner logic of an algorithm provides reasons or supporting evidence for the justification of its outputs. I argue that transparency is defective in belief formation and thus inadequate as an epistemology of algorithms. Two objections are developed: transparency regress and bootstrapping, both rooted in transparency’s status as a time-sliced, ‘outsourced’ inferentialist epistemology. While weaker forms—such as contextual transparency—are briefly considered, the central argument remains that transparency fails to provide justification and should be abandoned as an epistemology of algorithms.

Video

Video Local 1
 

 

 

 

 

 

 

 

Charla dirigida a estudiantes e investigadores “Epistemología fiabilista en la era de la IA”

Presentación

Resumen: En esta presentación, me propongo explorar la importancia de la confianza y la justificación en el aprendizaje automático (machine learning, ML). Para comenzar, abordaré brevemente dos epistemologías prometedoras para el ML: la transparencia y el fiabilismo computacional (FC). Sin embargo, mi enfoque estará en defender esta última, lo que requerirá una discusión más detallada. Dedicaré algo de tiempo a explicar cómo funciona el FC y cuáles son los supuestos que lo sustentan. A continuación, ilustraré cómo opera el FC en el contexto del aprendizaje automático forense. Finalmente, abordaré dos objeciones en contra del FC: i) la preocupación de que, bajo este enfoque, errores estadísticamente insignificantes pero graves puedan comprometer la fiabilidad de los algoritmos de IA; y ii) el argumento de que el FC, al ser una epistemología fiabilista, exige una alta frecuencia de éxito, lo que plantea un problema relacionado con la precisión predictiva. Presentaré argumentos para contrarrestar estas objeciones y defenderé el fiabilismo computacional como una epistemología prometedora para el aprendizaje automático.


Video

Video Local 1
 

 

 

 

 

 

Actualizado Sep 24 de 2025
    Mar 14 de 2026
© 2015-2019 Instituto de Investigaciones Filosóficas - Universidad Nacional Autónoma de México
  Aviso de privacidad