Seminario Inteligencia Artificial Tras Bambalinas: Herramientas formales y otras más
El seminario Inteligencia Artificial y Lógica (2025) propuso un espacio de reflexión interdisciplinaria sobre los cruces —cada vez más relevantes— entre el desarrollo de sistemas de IA y los marcos conceptuales provistos por la lógica y la filosofía. A través de una serie de exposiciones a cargo de especialistas, abordamos preguntas interesantes sobre los fundamentos lógicos de la inteligencia artificial, así como los desafíos epistemológicos, éticos y explicativos que surgen en su aplicación contemporánea.
El seminarioInteligencia Artificial tras bambalinas: herramientas formales y otras más(2026) propone ampliar la discusión de su antecesor, Inteligencia Artificial y Lógica. Esto es, reflexionar sobre los mecanismos subyacentes de los programas computacionales inteligentes y de sus aplicaciones. A través de una serie de exposiciones a cargo de especialistas, abordaremos preguntas sobre sus fundamentos formales, las bases de la IA generativa y de los mecanismos de atención visual. Exploraremos aplicaciones a la investigación biomédica y a la biología estructural, así como el reto de la gobernanza de la Inteligencia Artificial en sus diferentes variantes y aplicaciones.
Jueves quincenalmente
12:00 a 13.30 (hora CDMX)
Aula Alejandro Rossi / Modalidad Híbrida Instituto de Investigaciones Filosóficas
Ciudad Universitaria, CDMX, MEXICO
Resumen
El estudio de la responsabilidad es un tema complicado. El término se utiliza de distintas maneras en distintos campos y es fácil entablar debates cotidianos sobre por qué alguien debería ser considerado responsable de algo. Normalmente, el trasfondo de estos debates son problemas sociales, legales, morales o filosóficos. Un patrón claro en todas estas esferas es la intención de emitir estándares sobre cuándo y en qué medida un agente debería ser considerado responsable de un estado de cosas. Aquí es donde la lógica ayuda. El desarrollo de lógicas expresivas (para razonar sobre las decisiones de los agentes en situaciones con consecuencias morales) implica idear representaciones inequívocas de componentes de la conducta que son muy relevantes para la atribución sistemática de responsabilidad y para la asignación sistemática de culpa o elogio. En esta plática, presentaremos una teoría formal de la responsabilidad basada en lógica modal y, más específicamente, en una clase de lógicas modales de acción conocida como teoría stit. En particular, presentaremos modelos y lenguajes stit-teóricos para explorar la interacción entre los siguientes componentes de la responsabilidad: agencia, conocimiento, creencias, intenciones y obligaciones. Dichos modelos se integran en un marco lo suficientemente rico como para proporcionar caracterizaciones basadas en la lógica para tres categorías de responsabilidad: responsabilidad causal, informativa y motivacional.
Francisco Hernández Quiroz Facultad de Ciencias, UNAM
Fundamental Theorems in Propositional Calculus: Precomputed Knowledge?
Resumen
Some very useful and basic classical propositional theorems appear to be very intuitive and easy to grasp. Among them there are some (like De Morgan's laws) that are not that easy to prove, but nonetheless they play a role in proving other more advanced theorems. May it be the case that they contain precomputed, harder to get, knowledge? In order to test this theory, a suitable measure of hardness is needed. This talk will present a measure built as an analogue of Kolmogorov's complexity, which I will call Inferential Information Complexity. Moreover, given that classical propositional logic is decidable, the proposed measure turns out to be computable (although at a high cost).
Pablo Suárez-Serrato Instituto de Matemáticas, IMATE, UNAM
Geometría, topología e IA: Una perspectiva general
Resumen
Esta charla ofrecerá una visión general de la fascinante intersección entre la geometría, la topología y la inteligencia artificial. Exploraremos brevemente el desarrollo histórico de estas áreas, destacando cómo conceptos geométricos y topológicos han influido y continúan enriqueciendo los avances en IA. Finalmente, comentaremos sobre algunas de las direcciones actuales más prometedoras y los desafíos futuros en este campo dinámico.
María del Rosario Martínez Ordaz SECIHTI, IIFs-UNAM
Scientific understanding through big data: From ignorance to insights to understanding
Resumen
En lo que sigue, defiendo que los científicos pueden lograr cierta comprensión tanto de los productos de la implementación del big data como del fenómeno objetivo al que se espera que se refieran, incluso cuando estos productos se obtuvieron mediante procesos epistémicamente (esencialmente) opacos. Para hacerlo, describo el camino que lleva a los agentes epistémicos del uso del big data a la opacidad epistémica, de la opacidad epistémica a la ignorancia, de la ignorancia a las percepciones y, finalmente, de las percepciones a la comprensión. Finalmente, exploro algunas de las consecuencias epistémicas de las interacciones pedagógicas entre humanos y sistemas de IA; en particular, la forma en la que dichas interacciones han afectado los indicadores epistémicos tradicionales de la comprensión, el insight y la transparencia de la explicación, entre otros.
Lourdes del Carmen González Huesca Facultad de Ciencias, UNAM
Verificación formal e Inteligencia Artificial
Resumen
En esta charla se presentará un panorama de la verificación formal, los usos de ésta y cómo pueden ser útiles para las aplicaciones desarrolladas para la inteligencia artificial.
Resumen
La hipotesis de que la mente es una computadora no es metafórica, sino que se basa en una comprensión literal de la actividad mental como computación. Ergo, es fundamental preguntarse qué es, precisamente, computar.
19 de agosto Sesión híbrida Sala de Investigadores, IIFs-UNAM
Juan Manuel Duran Faculty of Technology, Policy and Management, TU Delft
Against epistemic transparency of algorithms
Abstract
Epistemic transparency is often proposed as a solution to algorithmic opacity, wherein revealing the inner logic of an algorithm provides reasons or supporting evidence for the justification of its outputs. I argue that transparency is defective in belief formation and thus inadequate as an epistemology of algorithms. Two objections are developed: transparency regress and bootstrapping, both rooted in transparency’s status as a time-sliced, ‘outsourced’ inferentialist epistemology. While weaker forms—such as contextual transparency—are briefly considered, the central argument remains that transparency fails to provide justification and should be abandoned as an epistemology of algorithms.
Una inteligencia plausible es una inteligencia falible
Resumen
Originalmente queríamos que las computadoras nunca se equivocaran, pero para algunos propósitos es preferible el sentido común, con mayores riesgos y mejores alcances. A la lógica deductiva clásica hemos de complementarla con lógicas no deductivas, en especial con lógicas no monotónicas. La lógica autopistémica, la default, la circunscriptiva, etc., son formalismos que capturan la capacidad de llegar a conclusiones en situaciones de incertidumbre. Veremos cómo los supuestos de un mundo cerrado, de ausencia de anormalidades, de tipicidad de los objetos, etcétera, son estrategias valiosas con el poder de generar respuestas aceptables bajo los constreñimientos y limitaciones de la vida diaria.
Jimena Olveres Centro de Estudios en Cómputo Avanzado, CECAv, UNAM
La IA y el reconocimiento de imágenes
Resumen
El aprendizaje profundo, perteneciente al área de IA, ha generado una transformación tecnológica de gran alcance en los últimos años. Se ha caracterizado por una evolución acelerada que dificulta mantener el ritmo de los avances que emergen de manera cotidiana. Dentro de este contexto, el impacto mutuo del ámbito de las imágenes y la visión computacional resulta innegable. En esta plática se abordará el tema desde la perspectiva del análisis de imágenes, destacando la aparición de nuevos paradigmas de desarrollo, con énfasis en aplicaciones relacionadas con imágenes médicas. Como un ejemplo de su relevancia, se explorará cómo estas técnicas han permitido mejorar los procesos de diagnóstico médico, así como su contribución a la detección temprana de enfermedades. Asimismo, se discutirán los retos asociados a la interpretabilidad de los modelos y la necesidad de grandes volúmenes de datos de calidad.
Resumen
En la sección 6 de "A framework for representing knowledge", Minsky expone varias tareas de razonamiento de sentido común que debería realizar una inteligencia artificial, y expone las razones para considerar que un enfoque lógico no sirve para representar ese tipo de razonamiento. Si bien ese texto de Minsky motivó, quizá involuntariamente, el desarrollo de las lógicas no monotónicas, las críticas de Minsky al enfoque lógico no se agotan en la monotonicidad. En esta plática presento esas críticas de Minsky y las relaciono con desarrollos recientes en lógica "filosófica".
Sobre la promesa de automatizar el descubrimiento matemático. Retos en el uso de IA para demostraciones matemáticas
Resumen
El descubrimiento de demostraciones matemáticas ha sido motivo de orgullo para los matemáticos desde los primeros días de la disciplina. Debido al papel crucial de las demostraciones en matemáticas, se les han atribuido muchos valores diferentes: se dice que las demostraciones tienen un valor explicativo, estético o motivacional, por mencionar solo algunos. A pesar de que las demostraciones matemáticas son tan valiosas, demostrar una afirmación matemática no es fácil. La historia de las matemáticas y la experiencia de los matemáticos atestiguan la dificultad del descubrimiento de demostraciones. Sin embargo, muchos parecen creer que el progreso de la Inteligencia Artificial (IA) permitirá el descubrimiento automatizado de demostraciones matemáticas, haciendo que la tarea de demostrar afirmaciones matemáticas sea más fácil o incluso automática. Pero ¿es realmente posible automatizar completamente el descubrimiento de demostraciones matemáticas? En esta charla hablaré de los desafíos de automatizar el descubrimiento de demostraciones matemáticas dadas restricciones en términos de complejidad computacional.
Resumen
En años recientes, la mayoría de las universidades han abierto licenciaturas o ingenierías relacionadas con la IA; en esta charla propongo algunas reflexiones sobre la manera en que la Lógica y la heurística suelen aparecer dentro de los programas de estudio vinculados a la IA, para mostrar algunas problemáticas, desde una perspectiva filosófica, sobre cómo se suele entender a la lógica, la heurística, y su relación con la IA, en sus desarrollos en carreras vinculadas a la computación.
11 de noviembre
Sergio Rajsbaum Instituto de Matemáticas, IMATE, UNAM
IA, computación distribuida, y lógica
Computational and Philosophical Applications of Epistemic Logic
Resumen
El modelo epistémico S5n habitual para un sistema multiagente se basa en un marco de Kripke, que es una gráfica cuyas aristas están etiquetadas con agentes que no distinguen entre dos estados. Proponemos descubrir la información de mayor dimensión implícita en esta estructura, usando complejos simpliciales.
Lógica e IA: algunos encuentros y otros desencuentros
Resumen
En esta charla haré una recapitulación del seminario, resaltando los aspectos comunes de las conferencias, así como algunos de sus distintos enfoques. Hablaré sobre el paradigma de la IA simbólica –en el cual la lógica era la herramienta por excelencia—para luego mostrar cómo ha sido prácticamente desplazado por los métodos estocásticos. Si bien estos últimos han sido muy exitosos en algunos dominios, no cuentan con métodos seguros de verificación formal.
Resumen
Esta plática hace un recorrido informativo sobre qué son y cómo se entrenan las Redes Neuronales Artificiales detrás de los avances tecnológicos recientes en Inteligencia Artificial Generativa. Veremos en qué sentido las inteligencias artificiales son cerebros digitales y cuáles son algunas diferencias entre estos cerebros digitales y el cerebro humano.
Jueves 19 de febreroAlejandro Pisanty
Facultad de Química, UNAM
Inteligencia Artificial y las lecciones aprendidas en la experiencia de gobernanza de Internet
Resumen
La construcción de la gobernanza de Internet a lo largo de los últimos 35 años arroja lecciones relevantes para la gobernanza de otras tecnologías de alcance global, como la Inteligencia Artificial en sus diferentes variantes y aplicaciones. Se presentará una breve historia y análisis de la gobernanza de Internet y un esquema de 6 factores para mapear correspondencias entre fenómenos en Internet y sus posibles correlatos antes o fuera de Internet, la experiencia de reunir a las partes interesadas en mecanismos de toma de decisiones, y algunos principios que pueden normar el avance de la gobernanza de la Inteligencia Artificial. Temas como soberanía, la tensión entre lo global y lo local, y el papel de las comunidades expertas estarán en el foco de atención.
Jueves 5 de marzo 12:30 a 14.00 (hora CDMX)Boris Escalante Ramírez
Centro de Estudios en Cómputo Avanzado, CECAV, UNAM
Mecanismos de Atención Visual en Inteligencia Artificial
Resumen
El análisis automático de imágenes ha experimentado diversos cambios a lo largo del tiempo. Sin embargo, estas transformaciones han tenido un paradigma en común, la emulación del análisis visual humano. Desde mediados del siglo pasado se descubrieron mecanismos de atención visual en las primeras etapas del sistema de visión humana que a finales de los 80s permearon en los métodos de procesamiento digital de imágenes marcando el inicio de los modelos computacionales de visión de imágenes y sus aplicaciones en tareas cada vez más complejas y sofisticadas.
La incursión de la Inteligencia Artificial en el análisis automático de imágenes sucedió a través del aprendizaje de máquina y el aprendizaje profundo. Este último ha logrado avances asombrosos en el área a partir de que se incorporaron capas convolucionales que emulan algunas de las operaciones más importantes que se realizan en la corteza visual. Finalmente, los modelos más recientes de aprendizaje llamados Transformers incorporan mecanismos de atención más complejos que bien podrían estar simulando procesos cognitivos que suceden en etapas profundas de la corteza cerebral.
Jueves 19 de marzoMiguel Alberto Zapata
Facultad de Filosofía y Letras, UNAM
Construir y gobernar: Exploraciones tektológico-cibernéticas de la IA
Resumen
Tras las bambalinas de la IA se esconden algunos planteamientos teóricos, como la Tektología de Alexander Bogdanov y la Cibernética de Norbert Wiener, en los que se desarrollaron tesis cuya recuperación podría ofrecer claves éticas y sociales relevantes para la reorientación del rumbo del paradigma dominante.
En concreto, se rescatarán dos ideas tektológicas: 1) que los procesos organizativos se dan a modo de una relación entre actividades que organizan y resistencias encontradas y 2) que la estabilidad del sistema depende de la estabilidad de la más débil de sus partes. Del trabajo de Wiener, por otra parte, se pondrá énfasis en su compromiso con valores éticos que orientan el desarrollo de las máquinas, así como en la noción de retroalimentación negativa gracias a la cual el sistema puede corregir su rumbo.
Con el análisis de estas ideas se pretende mostrar que perspectivas teóricas consideradas superadas o añejas nos abren a un horizonte en el que la IA es concebida como un complejo organizativo que interactúa con el resto de sistemas y nos permiten pensar de manera más clara sobre el modo en que se podría lograr un equilibrio entre innovación tecnológica y valores humanos o sobre la pertinencia de desarrollar IA en función, no sólo del aumento de sus capacidades de cálculo y predicción, sino también del fortalecimiento de sus debilidades (v.g. sesgos y costes energéticos) y de las resistencias que encuentra (v.g. límites éticos o fragilidad institucional o cognitiva).
Jueves 9 de abrilMyriam M. Altamirano-Bustamante
Unidad de Investigación en Enfermedades metabólicas,
Centro Médico siglo XXI, IMSS
Resumen
Una vez descifrado el genoma humano, la investigación en Medicina del siglo XXI, se irá centrando en el análisis del proteoma humano, es decir, de la expresión, la estructura, el plegamiento, las interacciones y las funciones de las proteínas.
Actualmente se utilizan diversos modelos de Inteligencia Artificial para estudiar y predecir la estructura tridimensional de las proteínas, como lo es AlphaFold, el cual utiliza la cadena de aminoácidos de una proteína (estructura secundaria) para predecir su forma tridimensional (estructura terciaria). Otro ejemplo es el uso de Rosetta para la generación de nuevas estructuras tridimensionales al optimizar las secuencias de aminoácidos para que estas tomen conformaciones tridimensionales deseadas para cumplir con funciones específicas.
En este proyecto seleccionamos las proteínas disulfuro isomerasas (PDIs) como la familia de proteínas blanco. Las PDIs son capaces de modular (controlar, inhibir o acelerar) el plegamiento proteico y/o la agregación de las proteínas (oligómeros citotóxicos), involucrados en la fisiopatología de las enfermedades conformacionales (Ecs) como la obesidad, la diabetes mellitus, el síndrome metabólico. Este proyecto busca el contribuir al hacer uso de conocimientos previos, como la existencia de dominios a-b-b’-a’, o el patrón CXXC, para ofrecer una manera alternativa de identificar una proteína como PDI, así como el ofrecer un modelo de inteligencia artificial capaz de producir nuevas estructuras de proteínas que contengan las características de las PDI, y que sea posible identificarlas como FAP (Folding Amplifying Proteins, proteínas amplificadoras del plegamiento); para diseñar en el andamiaje de las PDIs una actividad bifuncional de chaperona y foldasa que no existe aún en la naturaleza. Elegimos a las PDIs como andamiaje blanco porque ya tienen ambas actividades; si bien la actividad de chaperona es débil o residual, y la de foldasa es fuerte, llama la atención que a lo largo de la escala evolutiva han mantenido ambas funciones. Por lo que optimizar y equilibrar ambas funciones y obtener una super-FAP es un reto de la medicina proteómica para desencadenar una cascada de investigaciones para crear nuevas alternativas terapéuticas para las ECS que representan una carga económica catastrófica para las familias y los sistemas sanitarios.
Jueves 23 de abrilArmando Castañeda Rojano
Instituto de Matemáticas, UNAM
Verificación en dinámica de sistemas distribuidos, y posibles conexiones con la IA
Resumen
La verificación dinámica de sistemas provee una serie de técnicas algorítmicas y métodos formales que buscan enriquecer los sistemas computacionales con mecanismos de rendición de cuentas para determinar si el comportamiento en curso del sistema es correcto o no. Este enfoque ha sido aplicado recientemente a sistemas distribuidos o multiagentes. En esta plática veremos trabajo reciente en esta dirección, y algunas posibles conexiones con la IA.
Jueves 7 de mayoFavio E. Miranda Perea
Facultad de Ciencias, UNAM
Estratificación de la información mediante sistemas deductivos
Jueves 21 de mayoLola S. Almendros
PEP, Instituto de Investigaciones Filosóficas, UNAM