CAPÍTULO VIII[1]

 

La formalización del sentido común

 

Raymundo Morado

Introducción

 

            Desde su creación la lógica fue vista, tanto por los peripatéticos como por los estoicos, como la descripción rigurosa de los patrones aceptables de razonamiento. Pero a lo largo de los siglos han cambiado nuestras ideas de lo que cuenta como “riguroso” y de lo que cuenta como “aceptable”. Hoy día el paradigma de rigor es la formalización mientras que el paradigma de aceptabilidad ha dejado de ser el razonamiento deductivo. Consideramos aceptables algunas formas de pensamiento probabilístico, inductivo, estadístico y de sentido común. El reto es señalar cuáles son esas formas aceptables y hacerlo de manera rigurosa, si es posible con la ayuda de una formalización.

Pero, ¿podemos construir algún sistema formal que capture el sentido común? Una primera objeción a este proyecto es señalar que a menudo el razonamiento de sentido común utiliza términos y conceptos vagos y por lo tanto no puede ser formalizado. Pero esta es una idea excesiva de la formalización. Para ella no necesitamos precisión en los conceptos. Basta que sean simbolizables (y continuamente simbolizamos cosas vagas), y que algunas de sus propiedades sean formalizables. No tienen que serlo todas, lo que permite que haya vaguedad e imprecisión. ¿Qué otros sentidos hay de formalizar? Por ejemplo, que tenga un sistema. Y la objeción de que las nociones no son suficientemente precisas, que son demasiado vagas, puede ser en el sentido de que no podemos encontrar un sistema, una estructura que podamos abstraer e identificar para poder hacer un sistema formal de ello. Pero las cosas vagas también pueden ser sistemáticas como prueban las lógicas borrosas.

            Una segunda objeción es decir que no se puede formalizar el sentido común porque no es deductivo. Efectivamente, nuestra noción de validez tiene que ser modificada y será una noción de validez no deductiva como las que ya tenemos en probabilidad, razonamiento estadístico, inducción.

            Una tercera objeción es decir que no se puede formalizar el sentido común porque es irreductiblemente intensional. Pero tenemos casos de nociones irreductiblemente intensionales que han sido formalizadas exitosamente. Por ejemplo, algunas de las nociones de necesidad, obligatoriedad y creencia. El que una noción sea intensional no significa que no podamos manejarla sintácticamente y en ese sentido formalizarla.

            Una cuarta objeción es decir que no se puede formalizar el sentido común porque no es cuantificable. En parte sí lo es. Por ejemplo, hay cuantificación a través de las teorías matemáticas de las teorías de probabilidades y de las lógicas difusas. Pero la cuantificación no es una condición necesaria para la formalización. También hay lógicas meramente cualitativas como las de Reiter, McDermott y Doyle, Moore y Konolige. Podemos tener jerarquías preferenciales en las cuales haya órdenes que permitan hacer inferencias y rescatar propiedades estructurales sin necesidad de tener una métrica para ese orden.

            Parece que no hay objeciones de principio al proyecto de formalizar el razonamiento de sentido común y sí muchas ventajas para el estudio del manejo de la información.

En el discurso de sentido común, igual que en el científico y el tecnológico, la racionalidad de una inferencia y su estatus lógico deben ser juzgados con respecto a su contexto. Esto exige un estudio riguroso de los contextos de razonamiento científico y tecnológico, desde el contexto mínimo en que florece la inferencia deductiva, hasta los complejos contextos inductivos y abductivos.

Fuera de algunas ciencias formales como la matemática y la lógica, la mayor parte de los razonamientos se justifican por referencia a contextos no mínimos. Al cambiar el contexto, las inferencias deben ser retractadas por completo o en parte. Esto nos enlaza con el estudio de la inferencia no-monotónica. Los razonamientos no-monotónicos son aquellos cuyas conclusiones son retractables a la luz de información adicional. En general, son argumentos plausibles pero que pueden ser bloqueados y sus conclusiones retractadas si el contexto cambia.

El caso paradigmático de inferencia no-monotónica es aquella en la que interviene crucialmente el contexto. En estos casos la inferencia no es no-monotónica por la presencia de premisas implícitas sino por la presencia de un contexto que legítima la inferencia. Al cambiar el contexto (que puede ser toda la información que hemos acumulado hasta ese momento) la inferencia puede tener puede ser bloqueada. ¿Cuáles son los requisitos de una representación aceptable del contexto para los fines de una teoría general de la inferencia? ¿Cómo podemos representar el auditorio, los presupuestos, el entrar o salir de contextos, las inferencias deductivas y no deductivas?

En la mayoría de los formalismos tenemos una idea estática de contexto y las variaciones en el contexto quedan representadas por las premisas base. Diferentes grupos de premisas representan diferentes contextos pero no tenemos manera de representar, por ejemplo, el cambio en las premisas, que una premisa deje de ser verdadera, que otra premisa sea añadida o modificada, etc. Nuestra representación de la inferencia no-monotónica se beneficiará de que podamos representar los cambios de contexto, entradas a, y salidas de, ellos. Aunque el contexto sea representado simplemente como el conjunto de las oraciones que en ese contexto son aceptadas, necesitamos también una manera de poder localizar bajo qué contexto una determinada inferencia es aceptado para poder después asignar crédito y responsabilidad a conclusiones que tengan que ser retractadas al momento que su soporte desaparece. Esta estrategia fue utilizada por Jon Doyle a mediados de los setenta para los mal llamados Truth Maintenance Systems, que más que preservar la verdad en el sistema intentan preservar la consistencia.

Desgraciadamente, no tenemos todavía un tratamiento formal satisfactorio de la estructura lógica de los contextos y su efecto en la argumentación. En este trabajo pasaremos revista a algunas herramientas formales recientes para manejar con más rigor los factores contextuales. Examinaremos varios enfoques y propondremos una manera de tratar lógicamente a un rango amplio de contextos de inferencia. Revisaremos las formalizaciones de seis autores y concluiremos que son todas insuficientes. Surav y Akman extienden el formalismo de la Teoría de Situaciones de Barwise y Perry, y lo complementan con el Cálculo de Situaciones de McCarthy y Guha, pero falta extenderlo para que pueda incluir inferencias de sentido común en las que las excepciones no puedan ser especificables de antemano.

 

Necesidad de representar los contextos

 

Fuera de algunas ciencias formales como la matemática y la lógica, la mayor parte de los razonamientos se justifican por referencia a contextos no vacíos. Al cambiar el contexto, las inferencias deben ser retractadas por completo o en parte. Esto se enlaza con el estudio de la inferencia no-monotónica. Como dijimos antes, los razonamientos no-monotónicos son aquellos cuyas conclusiones son retractables a la luz de información adicional y, en general, son argumentos plausibles pero que pueden ser bloqueados y sus conclusiones retractadas si el contexto cambia. Curiosamente, algunas ideas básicas de este desarrollo formal parecen recuperar ciertas intuiciones que ya Aristóteles había expresado informalmente con respecto al llamado entimema retórico.

La lógica se ocupa de la inferencia aceptable y, en su forma extrema, de la inferencia necesaria. Pero el que una conclusión sea necesaria, o por lo menos sensata, puede depender del contexto. Al preguntar si una conclusión A se sigue de cierto grupo P de premisas, es natural preguntar por el contexto de evaluación.

            La usanza en lógica es tratar al contexto como premisas implícitas y a la inferencia contextual como una inferencia con premisas elididas, es decir, como un entimema en su sentido más común.[2] Su formalización es entonces como sigue:

1) El contexto es un grupo de afirmaciones.

2) Las afirmaciones se modelan con meras oraciones, trozos sintácticos de un lenguaje formal L.

3) Los grupos de oraciones se modelan mediante conjuntos.

Gracias a estas convenciones podemos modelar el que una conclusión A se sigue de las premisas P en el contexto C, diciendo que {A} c P c C f L, y que P c C Ö A.

La relación conjuntista AÖ@ se define de la manera habitual como inclusión del segundo término en la clausura lógica del primero. La lectura normal es decir que de P se sigue A en el contexto C justo cuando el contexto contiene información que unida a las premisas permite inferir A fuera de todo contexto. El resultado de este tratamiento es formalizar a la inferencia contextual como una inferencia acontextual entimemática.

Esta manera de formalizar el contexto tiene varios problemas. Por ejemplo, si usamos las reglas lógicas normales, el uso de la clausura lógica impone una noción de omnisciencia lógica que impide modelar la inferencia cotidiana. Pero el mayor problema es que un contexto es más que una colección de creencias. Dejando de lado la cuestión de si nuestro conocimiento de un contexto puede ser recogido por un conjunto de creencias, hay el riesgo de pensar que el contexto mismo consiste simplemente de afirmaciones.

Para dramatizar el problema, considérese el caso en que el contexto legitima conclusiones contradictorias. Es común en la vida diaria, y la norma en los contextos jurídicos, tener evidencias tanto en favor como en contra de una conclusión. Eso no nos lleva a creer tanto A como 5A, sino a suspender nuestro juicio o a concluir una de las dos opciones con cierto grado de certeza, confiabilidad o probabilidad.

            El contexto, pues, contiene además de creencias básicas jerarquías y grados de seguridad sobre creencias. Esto puede ser modelado como meta-creencias, o incorporado en una estructura más compleja y perspicua que un conjunto simple de oraciones representando creencias básicas. Y hay información sobre el contexto mismo, no sobre las creencias que contiene, que determina la aceptabilidad de una conclusión. Por ejemplo, una consideración contextual es la tractabilidad del problema y las limitaciones en recursos computacionales.

            Al hablar sobre contextos hay el peligro de incluir la historia completa del universo. Por ello usaremos una noción que se restringe a los aspectos que afectan nuestra evaluación lógica de la inferencia. Nótese que puede ser el caso de que ni A ni B solas afecten si podemos inferir o refutar algo, y sin embargo la conjunción (A & B) sí afecte.

Una manera de entender el contexto de una inferencia es como aquellos presupuestos y reglas que constituyen el trasfondo epistémico de la deliberación. Un presupuesto es el de normalidad: todos los objetos son normales. El atributo de normalidad recoge el contexto de la deliberación y especifica cuáles son los objetos esperados, cuáles son sus propiedades típicas, y cuáles son sus relaciones habituales. Esta información puede ser heurística y retractable si el presupuesto de normalidad es violado. Otro elemento del contexto de normalidad es el presupuesto de minimalidad ontológica. A falta de información en contra, suponemos que no hay más entidades que aquellas de las que tenemos noticias directas o indirectas. Suponemos que no hay fantasmas ni flogisto ni magnetismo animal ni ether, cuando nuestras teorías pueden ser modeladas sin necesidad de suponer esas entidades. Este tipo de navaja de Ockham está plasmado en los axiomas de circunscripción estudiados a principios de los ochenta por John McCarthy.

 

¿Pero, qué son los contextos?

 

Hay una comprensible reticencia a decir demasiado sobre el aspecto ontológico de los contextos. Guha menciona, antes de entrar a su disertación doctoral, que todos sus asesores le recomendaron no añadir nada a los debates “filosóficos y metafísicos” sobre el tema. A la larga coincidió con ellos en que era mucho mejor limitarse a asuntos puramente técnicos. Después de todo, su disertación era para un departamento de informática, comprensiblemente más interesado en las aplicaciones que en los fundamentos.       

Es bien sabido que la ciencia de la computación tiene tanto que ver con la tecnología de las computadoras como la ciencia astronómica tiene que ver con la tecnología de los telescopios. La ciencia de la computación es una ciencia básica, pero tiene un énfasis computacional que a menudo separa sus temas, y delimita sus enfoques. A un filósofo no le parece prioritario que su noción de contexto pueda ser especificada al grado de ser utilizable por el aparato inferencial de una base de datos. A un computólogo no le es prioritario explicar la ontología de los objetos representados. Ambas actitudes se traducen en generalidades sobre los contextos cuando falta la presión de ofrecer algo que pueda traducirse en sistemas concretos, o de distinguir a los contextos de objetos similares como estados epistémicos, conjuntos de presupuestos o situaciones. 

Empecemos aclarando que los contextos de los que hablaremos aquí son estructuras que incluyen sólo aquellos aspectos relevantes para la evaluación lógica de nuestras inferencias. Por ello no pueden coincidir con los contextos en el sentido psicológico, lingüístico, social o histórico. De igual modo no pueden coincidir con los muy amplios “contextos de descubrimiento”, aunque tienen mucho que ver con los llamados “contextos de justificación”. Lo que hay que recordar es que de momento omitiremos todos los elementos que no toquen el problema de la evaluación lógica de las inferencias. Hay inferencias reprochables desde un punto de vista estético o moral, pero nuestra noción de contexto será ciega a tales distinciones. Por supuesto, nada impide construir nociones que incluyan o se intersecten con la nuestra, pero el tema presente se circunscribe a los contextos inferenciales.

 

¿Cómo están estructurados los contextos?

 

Es común interpretar a los contextos como estados epistémicos, y éstos a su vez como

(1)   conjuntos consistentes y

(2)   cerrados bajo clausura lógica de

(3)   fórmulas que modelan grupos de creencias.

Este modelo funciona, por ejemplo, para modelar la práctica medieval de las obligationes como ejercicios de dialéctica contrafáctica. Sin embargo, tiene serias limitaciones.

El requisito (1) de consistencia excluye el desacuerdo explícito. Pero en una discusión entre varios agentes, no podemos limitar el contexto a las creencias consistentemente compartidas entre todos los proponentes y recipientes de las inferencias. Si lo hacemos no podremos explicar las polémicas, las tesis incompatibles y todas aquellas prácticas dialógicas en que intentamos hacer que la otra persona cambie de opinión. La representación del contexto debe permitir conjuntos inconsistentes de creencias. Y esto no sólo por la contradicción entre las opiniones de varios agentes, sino también por la posibilidad de la autocontradicción; de otra manera no podríamos modelar una inferencia tan común en filosofía como la reducción al absurdo.

El requisito (2) de clausura lógica significa que no distinguimos entre nuestras creencias y todas sus consecuencias lógicas. Pero esta distinción es importante para hablar de grados de racionalidad. No es lo mismo chocar con creencias explícitas que con sus, a veces recónditas, consecuencias lógicas.

Otra limitación es la restricción (3) a creencias. Hay factores lógicos en la estructura de los contextos que no son proposicionales. Por ejemplo, las reglas o disposiciones inferenciales no deben ser confundidas con los condicionales correspondientes. Aunque utilicemos condicionales para representar las reglas, su interpretación debe ser imperativa y no declarativa. No significan que el sistema incluya entre sus datos esas proposiciones hipotéticas, sino que ante la presencia de la prótasis el sistema tiene la opción de insertar la apódosis dentro de su grupo de aseveraciones. Puede ser visto como una disposición o como una licencia, pero no como una creencia más.

Por todo esto, una primera aproximación a la representación de contextos inferenciales es como pares ordenados de conjuntos: <{fórmulas}, {reglas}>. El primer conjunto son fórmulas bien formadas de un sistema suficientemente expresivo, y el segundo es un conjunto de reglas. Esta es una representación popular pero necesita ser afinada tanto al interior como al exterior. Externamente necesitamos añadir operadores para manejar las relaciones entre contextos y entre contextos y sus contenidos. Internamente debemos especificar las fórmulas que autorizaremos y especialmente las reglas que tanto influyen en la naturaleza característica de los contextos.

 

¿Qué propiedades tienen los contextos?

 

El contexto de una inferencia cambia con el añadido o supresión de creencias o métodos, es decir, de fórmulas o reglas. Por ello, tenemos al menos cuatro operadores de cambio de contexto.

El primer operador es un operador de “contracción” para proposiciones. No es una función pues puede haber más de una manera de eliminar una proposición de manera que el resto del sistema no permita derivarla nuevamente. Por ejemplo, si deseamos sustraer la tesis C de un contexto <{A, B, [(A v B) ® C]}, F>, donde F es la lógica clásica, podemos hacerlo eliminando cualquiera de las tres fórmulas generadoras del contexto, A, B o [(A v B) ® C]. Al menos una debe eliminarse pero si no tenemos información adicional puede ser cualquiera de ellas.

El segundo es un operador de “contracción” que toma como argumento a una regla y la sustrae del contexto inferencial. Aquí podemos ver sólo las reglas explícitas y por ello este operador es funcional. Aunque puede haber muchas reglas derivables, las contracciones normales operan sobre las explícitas. Nada impide tener operadores no funcionales sobre las reglas igual que los de contracción de proposiciones.

Los siguientes dos operadores añaden respectivamente proposiciones y reglas y son funciones. Pueden ser definidos como la unión de los conjuntos originales con el conjunto unitario que contiene a la proposición o la regla a incluir, produciendo “extensiones” del contexto.

En términos de estos operadores podemos definir otros. Por ejemplo, es usual definir un operador de revisión de proposiciones en términos de contracción y adición. Para revisar el sistema con la proposición X, simplemente la añadimos después de haber sustraído la negación de X.          

Además de los operadores y funciones de cambio de contexto, necesitamos operadores para describir las interacciones entre los contextos y las reglas y fórmulas que contienen. A continuación pasaremos revista a varias maneras de hacer esto.

 

La formalización de contextos en inteligencia artificial

 

La necesidad práctica de representar los contextos para procesar información mecánicamente, ha llevado al campo de la inteligencia artificial a proponer formalizaciones de esta noción. Con el manejo de contextos un programa de computación puede utilizar conocimiento implícito sobre situaciones comunes. Eso permite un comportamiento más de “sentido común” que facilita la interfase con los usuarios, y nos acerca a poder satisfacer las exigencias de la prueba de Turing. Además, los supuestos del contexto pueden ser abandonados cambiando de contexto sin tocar el núcleo firme de datos explícitos.

Para McCarthy y para su alumno Guha, el contexto es un objeto primitivo sin definición, demasiado “rico” para ser completamente especificado. Por ser un objeto de nuestro dominio, podemos aplicarle predicados y functores normales, transformarlo en otros objetos, y hablar de él desde otros contextos. Ontológicamente hablando, esta formalización del contexto pasa por su completa “reificación”.

Para decir desde nuestro contexto c0 que la proposición p es verdadera (“is true”) en el contexto c1, escribimos c0: ist(c1, p).[3] Alternativamente, podemos “entrar” al contexto c1 y decir que c0: c1: p.

            Podemos definir un orden parcial entre los contextos de acuerdo a su generalidad y decir que c2 es más general que c1 (c1 £ c2). Este orden permite “elevar” (“lift”) un hecho de un contexto c1 a otro más general c2 o al revés. Por supuesto, yendo al contexto más general esta elevación es no-monotónica, y presupone que todo es normal. Formalmente,

c0: "c1 "c2 "p {[(c1 £ c2) & ist(c1, p) & Øab(c1, c2, p)] ® ist(c2, p) }.

Por ejemplo, si algo es verdad hablando sobre la natación, también lo será hablando sobre los deportes, a menos que lo que decimos sea extraño. Al revés, si algo se aplica a los deportes también se aplicará a la natación, a menos que la natación sea abnormal en ese aspecto entre los deportes:

c0: "c1 "c2 "p {[(c1 £ c2) & ist(c2, p) & Øab(c1, c2, p)] ® ist(c1, p) }.

Hay otras maneras de obtener el efecto de no-monotonicidad. Cuando vamos hacia un supercontexto estamos generalizando, y cuando vamos hacia un subcontexto estamos instanciando. El supuesto de normalidad puede formalizarse en la generalización mediante un axioma de circunscripción que asume que no hay más elementos que aquellos de los que hemos hablado implícita o explícitamente. En cambio, el supuesto de normalidad puede formalizarse en la instanciación mediante una regla default que puede desactivarse en caso de excepciones.

Debido a la falta de monotonicidad, no podemos decir que un contexto que contenga todas las fórmulas y reglas que otro, tendrá también todas sus conclusiones. A menudo el contexto más rico bloqueará conclusiones que se tomaron en el más parco a falta de información en contra.

Otra ventaja de esta formalización es que los contextos contienen parámetros que permiten “especializarlos”. Por ejemplo, podemos especializar un contexto de discusión a cierto tiempo o lugar. Al cambiar el valor del parámetro estamos cambiando de contexto y nuestras reglas inferenciales pueden ser explícitamente sensibles a tales cambios.

            Esta formalización también ayuda con el problema del cambio de significado de los términos. Es común que un término cambie de referencias al cambiar el contexto. Términos como “país” o “proposición científica” cambian de referentes de año en año. Podemos ahora afirmar explícitamente que esto no ocurre, escribiendo que un concepto C mantiene su extensión en dos contextos diferentes. Basta usar la noción de que de uno de los contextos al otro se preserva el dominio de aplicación del predicado P escogido para representar al concepto C:

c0: "x {ist(c1, P(x)) ® ist(c2, P(x)) }.[4]

Nada nos impide tener reglas arbitrarias entre contextos como:

c0: "x {ist(c1, P(x)) ® ist(c2, Q(x)) }.

Eso significa que podemos hacer cosas como cambiar el nombre de un predicado al cambiar de contexto.

Además de cambiar la referencia y el nombre de los conceptos, el cambio de contexto nos permite manejar rigurosamente las ambigüedades sistemáticas. Usaremos como ejemplo un fenómeno común en la literatura sobre programación lógica, pero raro en filosofía, el del cambio de aridad de predicados. Puede haber una ambigüedad sistemática en la que la aridad cambie de acuerdo al contexto de aplicación. Por ejemplo, hay verbos como  “despertar”, que pueden ser monádicos (“Juan despertó”) en ciertos contextos y diádicos (“Juan despertó a su público”) en otros, rigiendo acusativos. Un sistema de Prolog puede estar diseñado para detectar automáticamente el número de argumentos que recibe un predicado y asignar el concepto adecuado. Despertó(juan) se lee automáticamente como “Juan se despertó”, mientras que Despertó(juan, pedro) se lee como “Juan despertó a Pedro”. De hecho, el contexto puede cambiar de acuerdo a la naturaleza del segundo argumento: Despertó(juan, sospechas) cambia el sentido de la relación. Por ello el contexto en el que se evalúa Despertó(juan, y) puede ser una función f(y):

c0: "x "y {ist(c1, P(x)) ® ist(f(y), P(x, y)) }.

En sistemas donde hay un lazo más estrecho entre concepto y representación, se rechaza la ambigüedad sistemática (aunque no es realmente ambigüedad), y se usan diferentes nombres para señalar que el cambio de aridad implica un cambio en el concepto (por ejemplo, “Despertose”, “Despertó-A-Alguien” y “Despertó-Algo”). El esquema de individuación de Barwise y Perry da diferentes nombres al cambiar la aridad, y el sistema de Giunchiglia llega a asignar un lenguaje diferente a cada contexto. Esto previene confusiones pero al tratar de eliminar la ambigüedad impide mostrar la ambigüedad sistemática dentro del sistema mismo.  

Para entrar a un contexto podemos asignar dinámicamente “asumiendo(c)”. Por ejemplo, en un sistema de deducción natural esa aserción produciría una subprueba dentro de la cual pueden usarse todas las reglas y creencias de c. En un programa lógico produciría un punto de elección del que se desprende una rama en el árbol de búsqueda. Con un comando simétrico podemos cerrar la subprueba o podar la rama. Y las reglas entre contextos nos señalarían cuales resultados pueden ser exportados fuera del contexto en que se obtuvieron.

 

Pero, nuevamente, ¿qué son los contextos?

 

Un contexto puede ser visto como un tipo o clase de situaciones. En 1969 John McCarthy introdujo un Cálculo de situaciones en Inteligencia Artificial y en 1983 Jon Barwise y John Perry presentaron una Teoría de Situaciones. Aunque tenían puntos en común, tanto las nociones básicas como sus desarrollos fueron diferentes. En 1995 Mehmet Surav y Varol Akman de Turquía presentaron un panorama de formalizaciones de la noción de contexto y específicamente relacionaron el Cálculo de Situaciones de McCarthy con la Teoría de Situaciones de Barwise y Perry.

Aunque el contexto para McCarthy es un objeto no especificado, podemos verlo como un tipo de situaciones específicas, es decir, un tipo de partes de la realidad y esto es cercano a lo que Barwise y Perry entienden por situación. De hecho, una situación en el sentido de McCarthy parece cercana a lo que Barwise llama “situaciones fundamentales (grounding)”. A grandes rasgos, una situación en el sentido de McCarthy puede ser vista como un contexto de una situación en el sentido de Barwise y Perry.

Surav y Akman proponen entender un contexto como una amalgama de situaciones y las reglas que gobiernan sus relaciones en ese contexto. Sin entrar en detalles innecesarios en este momento, una situación S es un grupo parcial de hechos que se modelan con un conjunto de unidades de información I verdaderas para S: {I | S ╞ I}. Un tipo de situación se abstrae parametrizando una unidad de información. Así podemos hablar del tipo T de situación S en que el hecho H ocurre: T = [S | S╞ H]. Estos tipos de situaciones pueden considerarse contextos de los que pueden obtenerse tanto relaciones condicionales como información que describe, así sea incompletamente, hechos categóricos.

Veamos un ejemplo, adaptado de Surav y Akman. Supongamos que queremos formalizar el que, al menos en el contexto U de la UNAM, los exámenes de doctorado en filosofía cuentan con el asesor de la tesis como parte del jurado.[5] Esto quiere decir que en el contexto U, el tipo de situaciones Sa donde es verdad (“1”) que el asesor es x, involucra al tipo de situaciones Sj en que x es un miembro del jurado, al menos en las situaciones F donde el examen es de filosofía. Formalizado,

Sa ╞ << asesor, x, 1 >>

Sj ╞ <<jurado, x, 1 >>

U ╞ << involucra, Sa, Sj, F >>

o, más sintéticamente,

U Î [Sa Þ Sj | F ] .

Si queremos generalizar el contexto a cualquier universidad que sea como la UNAM, basta decir

U = [Sa Þ Sj | F ] .

Por supuesto, el trasfondo F puede ser asimilado en la especificación de la situación Sa; la ventaja de tenerlo por separado es facilitar la manipulación de supuestos que inducen no-monotonicidad.

 

Insuficiencias de la representación

 

            Un problema importante en la formalización de Surav y Akman es su manejo de las inferencias no-monotónicas. Recordemos algunos hechos básicos sobre este tipo de inferencias.

Los desarrollos recientes en Inteligencia Artificial han enfatizado que los procesos deductivos de pensamiento son relativamente sencillos de reproducir mientras que las inferencias diarias o de sentido común son mucho más difícil de reconstruir, si hay poco lugar para el error y la revisión. Ya que una completa certeza en los fundamentos no es el caso normal, a menudo necesitamos saltar de nuestro conocimiento incompleto a conclusiones que avancen nuestras indagaciones. Así pues, un sujeto epistémico capaz de enfrentar retos mínimos en el mundo real, sea una computadora o un humano, necesita poder manejar descripciones incompletas y/o inconsistentes sobre qué estado de cosas ocurre. Normalmente usamos reglas que, aunque llevan a conclusiones retractables, garantizan un mínimo de racionalidad. La posibilidad del error conlleva la necesidad de retractar creencias.

Una amplia gama de fenómenos puede ser relacionada con la no-monotonicidad. Esto ha producido diferentes enfoques, aparentemente inconexos. Afortunadamente, casi todos estos fenómenos comparten importantes propiedades formales y el estudio de un tipo puede iluminar el estudio de otros.

            Decimos que una función f es monotónica bajo un orden O ssi O(x,y) implica O(fx, y). En el caso de razonamiento monotónico, O es la relación “implica” y f es cualquier función que añada contenido semántico. En otras palabras, añadir información a las premisas debiera preservar la conclusión. E. g., (F Þ Y) sólo si (Fi Ù X) Þ (Y). (En términos de uniones de conjuntos de piezas de información: Si GD entonces G È X ≤ D.)

Tarski habla de la operación monotónica Cn que arroja un conjunto de consecuencias a partir de un conjunto de oraciones,[6] y la lógica clásica, lo mismo que las intuicionistas y modales son llamadas monotónicas porque la adición de información no afecta la validez de la inferencia deductiva.[7]

            Esto es formalmente análogo a la regla de Debilitamiento que aparece en lógica combinatorial como el combinador K. En lógica algebraica corresponde al pricipio de límite inferior a°b ≤ b. En algunos sistemas de deducción natural (o cálculos de secuencias tipo Gentzen) Debilitamiento aparece como G, DF / G, Y, DF.

Por otro lado, una relación de orden O no-monotónica es aquella que viola la regla de que si FY bajo O, entonces g(F) ≤ g(Y), para cualquier función g que incremente contenido semántico. Por ejemplo, si substituimos g(a) por (a Ù X), tenemos que FY no implica (F Ù X) ≤ (Y Ù X). Incrementar nuestro conocimiento de F a F Ù X puede impedirnos inferir Y.

            La analogía entre monotonicidad y Debilitamiento no es perfecta, pero ha llevado a aplicar el término no-monotonicidad al rechazo de Debilitamiento. Otra caracterización es decir que el razonamiento monotónico ocurre cuando las inferencias se preservan bajo aumento de premisas: las reglas de inferencia son siempre de la forma “F es un teorema si Y_1 ,...,Y_n son teoremas”. En contraste, el razonamiento no-monotónico ocurre cuando las inferencias no se preservan bajo aumento de premisas: las reglas de inferencia pueden ser de la forma “F es un teorema si Y_1 ,...,Y_n no son teoremas”. Se dice que las reglas de inferencia hacen a los axiomas permisivos o restrictivos.[8]

            Hay que notar que hay otras operaciones no-monotónicas que no se relacionan directamente con incremento de información. Por ejemplo, podemos definir una noción de consecuencia mínima[9] como Gm F iff "M ( [ M╞ G Ù "N (N╞ G Þ N Ë M) ] Þ M╞ F ). Es decir, cualquier modelo mínimo de G modela F. Si definimos modelos como conjuntos de oraciones atómicas F, Y, ... y estipulamos que GØF ssi F Ï G,[10] es claro que Ø╞m ØF, pero no Ø È Fm ØF. Esta consecuencia mínima es no-monotónica en el sentido de que ampliaciones de los modelos pierden consecuencias. Pero, por nuestra estipulación sobre Ø, las ampliaciones no se producen por un mero incremento de conocimiento pues determinan explícitamente todo lo que es el caso e implícitamente todo lo que no. Agrandar estos modelos representa un incremento de información ``positiva'' tanto como un decremento de la información ``negativa''. En contraste, la noción de no-monotonicidad que buscamos es no-monotonicidad bajo incremento total de información, tanto positiva como negativa.

Veamos ahora cómo manejarían Surav y Akman el ejemplo clásico de una regla “Los A son generalmente B, aunque a, b, g... son raros casos en que un A no es B”. Llamaremos al tipo de situación en que x es un A, SA, cuando x es un B, SB, y cuando todo es normal N. La formalización arroja

SA = [S | S ╞ <<A, x, 1>>]

SB = [S | S ╞ <<B, x, 1>>]

N = [S | S ╞ <<a, 0>> & S╞ <<b, 0>>& S╞ <<g, 0>>]

Podemos ahora decir que en el contexto C los A son B, bajo el supuesto de normalidad N:

C = [SA Þ SB | N ] .

Desgraciadamente, esta formalización tiene el defecto, ya notado por McCarthy y Hayes en 1969, de que es prácticamente imposible especificar en situaciones interesantes todos los casos a, b, g, etcétera que bloquean la conclusión. Aunque N recoge a, b y g, lo interesante de las reglas no-monotónicas es la falta de especificación del “etcétera”. El formalismo debe ser ampliado con reglas no-monotónicas en vez de tratar a las inferencias no-monotónicas como si simplemente tuvieran premisas escondidas. Explicaré eso un poco más recordando algunos aspectos de las inferencias entimemáticas.

 

El entimema

 

            Una vez que hemos separado racionalidad de deducibilidad podemos expandir nuestra noción de inferencia. Una noción de razonamiento no-monotónico se puede hallar ya en la noción aristotélica del silogismo retórico o entimema. Las formas interesantes de retractabilidad en razonamiento por defecto se deben a su contextualidad. Si hay, como yo sospecho, una referencia implícita a un contexto, al cambiar éste la inferencia deja de ser razonable. Los cambios en contexto cambian el grado de ``razonabilidad'' de las inferencias por  defecto. Lo que hace a tales inferencias retractables no es la incertidumbre de las premisas o de la conclusión, sino el que su apoyo dependa crucialmente de su contexto. Así pues, en vez de representar relaciones por default sin relación a la base de creencias, debemos representarlas como relativas

a esa base.

 

            El entimema aristotélico, como varias otras formas de razonamiento, incluye un sentido de corregibilidad en la inferencia en el cual el razonamiento sigue siendo correcto aun después de ser cancelado. La retractabilidad no es falta de deducibilidad pues es posible inferir por defecto algo necesario. La implicación no-monotónica puede ser el caso incluso cuando falla la material (y por ende la estricta y la contrafáctica).

            Un condicional no-monotónico no queda invalidado por la información extra sino simplemente desactivado. La retractabilidad de la inferencia por default significa que es bloqueada por información adicional igual que aseveraciones condicionales. Es decir, la nueva información no implica que la regla haya sido indebidamente aplicada sino que ya no se puede aplicar.

            Un punto a enfatizar es que la inferencia es aceptable aun después de que nos damos cuenta que la relación inferencial puede suspenderse al añadir información. Con el mismo cuerpo de creencias, aceptamos F lleva a Y y rechazamos que (F Ù X) lleva a Y. La

inferencia se mantiene aunque sabemos que depende de nuestra ignorancia.

Esto no significa que el contexto contiene suficientes premisas implícitas para hacer a la inferencia cierta si fueran hechas explícitas. Tal enfoque asimilaría a las inferencias no-monotónicas con argumentos con premisas tácitas que hubieran hecho a la inferencia

monotónica si tan sólo hubieran sido explícitas. Esta es la interpretación del entimema como un silogismo incompleto, con una inferencia clásica agazapada en el silencio. Claro que esto puede ocurrir, pero si toda la fuente de la falibilidad es el silencio, la única manera de forzar la retracción de una inferencia sería contradiciendo uno de los supuestos callados, y sacándolo a la luz.

El razonamiento no-monotónico es más que razonamiento clásico à clef. Aun teniendo todo el trasfondo de supuestos, la inferencia puede no ser segura, sólo altamente aceptable. La nueva información ni siquiera necesita contradecir al trasfondo de creencias para bloquear la inferencia de la conclusión, ya que no había en primer lugar ningún conjunto de supuestos que forzaban la conclusión tras bambalinas. En una inferencia no-monotónica nuestras premisas pueden ser insuficientes para la conclusión incluso después de haber tomado en cuenta los supuestos implícitos. Aun así el contexto puede hacer a la inferencia razonable aunque la nueva evidencia puede bloquear la inferencia previa al ofrecer fuerte evidencia para una tesis rival. (Pero nunca tuvimos, ni lógica ni psicológicamente la premisa implícita de que tal evidencia no existiera como quieren ciertos autores.) No se trata de que el trasfondo sea verdadero y callado, sino de que sea aceptado y dependa del contexto.

 

Ejemplo de aplicación

 

            Veamos, para finalizar, un ejemplo. Darmstadter ofrece un ejemplo útil de tres oraciones creídas por un joven llamado Archie:

                        (A1) Un auto no enciende si la batería está descargada.

                        (A2) Un auto con una batería descargada enciende si se le empuja.[11]

                        (A3) Se ha empujado autos con baterías descargadas.

            A3 dice que hubo una instancia de auto que cumplió la condición para A1 y por lo tanto no debió encender. Pero A3 también dice que el auto cumplió las condiciones para A2, así es que debió encender. Estas tres oraciones son conjuntamente inconsistentes. ¿Por qué tendemos a aceptar esas tres aseveraciones? En el contexto de explicar que un auto no encienda, nos dice Darmstadter, (A1) es aceptable. Pero una vez diagnosticado el problema, pasamos a tratar de solucionarlo, empujando el auto. Una vez que la explicación es dada, el contexto cambia y, en el nuevo contexto de predecir como reaccionará el auto al empujón (A1) ya no es aceptable. Aunque las creencias de Archie hayan sido inconsistentes, esa inconsistencia careció de importancia y posiblemente ni siquiera fue notada; la razón es que no hubo un único contexto en el cual fueran aceptables tanto (A1) como (A2) y (A3).

           

Bibliografía

 

ADAMS, Ernest W. (1975) The Logic of Conditionals. Reidel.

APT, Krzysztof, R. (ed.) (1985) Logics and Models of Concurrent Systems;Proceedings of the NATO Advanced Study Institute on Logics and Models of Concurrent Systems held at La Colle-sur-Loup, France, 8-19 October 1984. NATO ASI series. Series F, Computer and System Sciences; vol. 13. Berlin, Springer-Verlag.

BARWISE, Jon (1977) ``An introduction to first-order logic''. En Jon Barwise (ed.), Handbook of Mathematical Logic, pp. 5-46. Cito de la séptima impresión, 1991.

CHANG, Chen Chung, KEISLER, H. J. (1973) Model Theory. North-Holland Publishing Company.

DOYLE, Jon, LONDON, Philip (1980) ``A selected descriptor-indexed bibliography to the literature on belief revision''. SIGART Newsletter, no. 71, pp. 7-23.

DUNLOP, Charles E. M., FETZER, James H. (1993) Glossary of Cognitive Science. New York: Paragon House.

GABBAY, Dov M. (1985) ``Theoretical foundations for non-monotonic reasoning in expert systems''. En Apt (1985), pp. 439-457.

GINSBERG, Matthew L. (1987) Readings in Nonmonotonic Reasoning, Morgan Kaufmann Publishers, Los Altos, California.

GLYMOUR, Clark, THOMASON, Richmond H. (1984) ``Default reasoning and the logic of theory perturbation''. En Non-Monotonic Reasoning Workshop. Organizado por la American Association for Artificial Intelligence. 17-19 de Octubre, 1984. Mohonk Mountain House, New Paltz, NY, pp. 93-102.

KANDEL, Stephen, GERROLD, David (writers) (1967) I, Mudd. Episodio con número de producción 41 de la serie de televisión Star Trek. Transmitido el 3 de noviembre de 1967. Producido por Desilu Studios (Paramount) en asociación con Norway Corp. para la National Broadcasting Company.

LESGOLD, A., GLASER, R., RUBINSON, H., KLOPFER, D., FELTOVICH, P., WANG, Y. (1988) ``Expertise in a complex skill: Diagnosing x-ray pictures''. En M. T. H. Chi, R. Glaser y M. J. Farr (eds.), The Nature of Expertise. Hillsdale, N. J.: Lawrence Erlbaum Associates.

McCARTHY, John, HAYES, P. (1969) ``Some philosophical problems from the standpoint of artificial intelligence''. En B. Meltzer y D. Michie (eds.),Machine Intelligence, vol. 4, Edinburgh University Press, Edinburgh, American Elsevier, New York, pp. 463-502. Reimpreso en B. L. Webber y N. J. Nilsson (eds.), Readings in Artificial Intelligence, Tioga, Palo Alto, California, pp. 431-450, (1981). Tambié reimpreso en McCarthy (1990). Un resumen aparece en el número de febrero de 1969 (No. 14) de la ACM SIGART Newsletter. Cito de la reimpresión en Ginsberg (1987), pp. 26-52.

MINSKY, Marvin Lee (1974) A framework for representing knowledge. Artificial Intelligence Memo 306, MIT AI Lab. Reimpreso sin el apéndice en The Psychology of Human Vision, Patrick H. Winston (ed), McGraw Hill, NY, (1975), pp. 211-277. Otros fragmentos fueron reimpresos como ``Frame-system theory'' en R. C. Schank y B. L. Webber (eds.), Proceedings of the 1975 TINLAP (Theoretical Issues in Natural Language Processing) Conference, Cambridge, Massachusetts, 1975, reimpreso en P.N. Johnson-Laird y P. C. Wason (eds.), Thinking: Readings in Cognitive Science, Cambridge, England: Cambridge University Press. Cito de los fragmentos (diferentes) en J. Haugeland (ed.), Mind Design: Philosophy, Psychology, Artificial Intelligence, Montgomery VT, Bradford Books, pp. 95-128.

MOORE, Robert C. (1985) ``Semantical considerations on nonmonotonic logic''. Artificial Intelligence, Vol. 25, no. 1, pp. 75-94. Una versión más breve apareció en IJCAI (1983), pp. 272-279. Véase también SRI AI Center Technical Note 284 (1983). Cito de la reimpresión en Ginsberg (1987), pp. 127-136.

MORADO, Raymundo (2007). “El entimema retórico y la inferencia no monotónica”. En Martínez Contreras, Jorge y Aura Ponce de León, eds., El saber filosófico. México: Siglo XXI, Asociación Filosófica de México, vol. II, pp. 321-332.

NUTE, Donald (1990) ``Review of Matthew L. Ginsberg, Readings in Nonmonotonic Reasoning''. Pp. 351-355.

PAPALASKARI, Mary-Angela (1988) Minimal Consequence: A Semantic Approach To Reasoning With Incomplete Information. University of Edinburgh PhD Dissertation.

PAPALASKARI, Mary-Angela, WEINSTEIN, Scott (1990) ``Minimal consequence in sentential logic''. Journal of Logic Programming, 9, pp. 19-31. Una versión ligeramente revisada del Reporte Técnico del mismo título, MS-CIS-87-43, LINC LAB 66, Department of Computer and Information Science, School of Engineering and Applied Science, University of Pennsylvania, Mayo 1987.

REITER, Raymond (1978) ``On closed world data bases''. En Gallaire and Minker (1978), pp. 55-76. Cito de la reimpresión en Ginsberg (1987), pp. 300-310.

REITER, Raymond (1980) ``A logic for default reasoning''. En Artificial Intelligence, vol. 13, no. 1-2, pp. 81-132. Cito de la reimpresión en Ginsberg (1987), pp. 68-93.

REITER, Raymond, CRISCUOLO, G. (1981) ``On interacting defaults''. En Proceedings of the Seventh International Joint Conference on Artificial Intelligence. IJCAI-81, 24-28 de agosto de 1981, University of British Columbia, Vancouver, B. C., Canada. Ann Drinan (ed.), AAAI, Morgan Kaufmann, pp. 270-276. Cito de la reimpresión en Ginsberg (1987), pp. 94-100.

SENGER, Charles John (1989) Learning Legal Reasoning In Law School: The Differences Between First And Third Year Students. Disertación doctoral, Michigan State University.

STEIN, Lynn Andrea (1990) Resolving Ambiguity in Nonmonotonic Reasoning. Brown University Ph. D. Thesis, entregada en Mayo de 1991. CS-90-18.

SURAV, Mehmet, AKMAN, Varol (1995). Reporte Técnico LAFORIA 95/11 “Modelling Context with Situations”. En Brezillon, Patrick y Abu-Hakima, Suhayya (eds.), Proceedings of the IJCAI-95 (Fourteenth International Joint Conference on Artificial Intelligence) Workshop on Modelling Context in Knowledge Representation and Reasoning, Montreal, Canadá, 20-25 de agosto de 1995. Páginas 145-156.

TARSKI, Alfred (1930a) ``On some fundamental concepts of metamathematics''. En Tarski (1983), pp. 30-37.

TARSKI, Alfred (1930b) ``Fundamental concepts of the methodology of the deductive sciences''. En Tarski (1983), pp. 60-109.

TARSKI, Alfred (1935) ``Foundations of the calculus of systems''. En Tarski (1983), pp. 342-383.

TARSKI, Alfred (1983) Logic, Semantics, Metamathematics: Papers from 1923 to 1938 by Alfred Tarski. John Corcoran (ed.), Hackett Publishing Company, segunda edición.

ter MEULEN, Alice (1986) ``Generic information, conditional contexts and constraints''. En Elizabeth Closs Traugott, Alice ter Meulen, Judy Snitzer Reilly y Charles A. Ferguson On Conditionals, pp. 123-145. Cambridge: Cambridge University Press.

  



[1] En María José Frápolli Sanz (coord.) Filosofía de la Lógica. Madrid, España: Editorial Tecnos, pp. 233-253, 2007.

 [2] Hay otros sentidos, más cercanos a la intención original de Aristóteles, pero la interpretación del entimema como un razonamiento con premisas omitidas es la más común. Cfr. Morado (2007).

[3] Repetiremos esta referencia al contexto externo para evitar las paradojas que Attardi y Simi señalaron a McCarthy.

[4] Por mor de la generalidad, x es un vector de variables.

[5] Creo que esto indica menos el deseo del asesor de ser juez y parte que el hecho de que sólo se trata de una defensa nominal de la tesis de doctorado.

[6] Tarski (1930b, p. 65).

[7] Véase Gabbay (1985, p. 439).

[8] Minsky (1974, p. 125) se quejaba: En cualquier sistema de lógica, todos los axiomas son necesariamente “permisivos”; todos contribuyen a permitir que se obtengan nuevas inferencias. (“In any logistic system, all the axioms are necessarily “permissive” –they all help to permit new inferences to be drawn”). Véase también Moore (1985).

[9] Papalaskari y Weinstein (1987, p. 3). Véase también Papalaskari (1988).

[10] Como hacen, por ejemplo, Chang and Keisler (1973, pp. 4-5).

[11] Es claro en este contexto que se piensa sólo en autos de tipo “estándar”.