PROBLEMAS FILOSÓFICOS DE LA LÓGICA NO MONOTÓNICA
Raymundo
Morado
En este artículo ofreceremos una panorama de
los problemas filosóficos asociados al desarrollo de las lógicas no
monotónicas. El objetivo es que la lectora entienda por qué surgen estas lógicas
y tenga una idea clara de los desafíos que plantean a las nociones clásicas de
inferencia. Se presuponen los
conocimientos elementales de lógica cuantificacional, modal y no-monotónica que
pueden encontrarse en textos como Quesada (1995), Orayen (1995) y Carnota
(1995).
Después
de ilustrar la historicidad de la noción de inferencia lógica, se hace un
recuento de los límites teóricos y prácticos del modelo deductivo, con una
clasificación de una familia de inferencias relacionados con la no monotonicidad.
A continuación se Add Tarpresenta un modelo más generoso de inferencia, con sus
ventajas y sus propias limitaciones y se ofrecen ejemplos.Get classification in
lo_no_di.cho
Finalmente
se presenta una formalización de las nociones tratadas, un recuento de
propiedades formales de las inferencias no-monotónicas, se mencionan líneas
abiertas de investigación y se incluye una bibliografía dividida en categorías
para facilitar la investigación personal.
I. MOTIVACIÓN
1.
Historicidad de la noción de inferencia lógica[1]
En cierto sentido la lógica no cambia; en otro
sentido lo hace continuamente. No
cambia en el sentido de que el Modus
Tollens y el silogismo disyuntivo son tan ciertos hoy como en los días de
Crisipo. Cambia en sus estilos, énfasis, descubrimientos y problemas. Los nuevos usos de los sistemas lógicos
llevan de manera natural a construir nuevos sistemas.[2]
Entre
los griegos la lógica fue la cristalización de una noción de racionalidad
argumentativa. La silogística
peripatética y la lógica proposicional estoica respondían tanto a
preocupaciones ontológicas sobre la naturaleza de las cosas, como a una
necesidad inmediata de construir y destruir argumentos. El uso retórico hizo de la lógica tanto una
teoría de la argumentación, como un arte de discurrir y dialogar. El discurso más importante en la antigüedad
clásica era el discurso legal y político, los alegatos que podían salvar o
perder propiedades y vidas. Por ejemplo,
el ciudadano ateniense que deseaba defenderse o demandar en persona (no, como
hoy día, por boca de terceros), podía pagar a un experto en técnicas
argumentativas para estructurar mejor su discurso. Y un discurso estaba bien estructurado cuando era convincente. El término “convincente” contiene una
reveladora ambigüedad: puede significar algo psicológicamente irresistible para
una persona de inteligencia normal o algo lógicamente irresistible. Estos dos sentidos son a menudo amalgamados
en la mente griega y, como sus herederos, en pensadores posteriores hasta
finales del siglo XIX en que sobreviene el gran rechazo al psicologismo en
ciencias formales. Desde los griegos,
consideramos que la persona racional debe poder defender bien sus argumentos y
atacar bien los de sus oponentes, en la doble vertiente de los Analíticos Primeros y las Refutaciones Sofísticas de Aristóteles.
En
la Edad Media el discurso paradigmático deja de ser el discurso forense. Ante la incertidumbre de salvar y proteger
socialmente propiedad y cuerpo, el medieval intenta salvar individualmente su
alma. El discurso más importante es el
discurso religioso que contiene las instrucciones reveladas para la
salvación. El deseo de esclarecer la
palabra divina ayuda a impulsar la reflexión hermenéutica. Entre los grandes lógicos medievales es
común un interés en estudios de semántica y filosofía del lenguaje con teorías
como las de los insolubilia[3]. Por supuesto que muchos de los
intereses griegos permanecen. Cada uno de estos enfoques puede convivir con los
anteriores, pero hay una variación en el énfasis y en la presencia o ausencia
de algunos temas específicos. Ahora la persona racional debe poder manejar las obligationes[4] del discurso y su análisis. El
hombre racional es lógico en el sentido de que maneja y analiza bien el
lenguaje.
La
época moderna es asombrosamente pobre en desarrollos lógicos. La reacción contra el aristotelismo
escolástico lleva a pensadores como Bacon, Descartes y sus seguidores a
menospreciar la utilidad del instrumental lógico para enfatizar los nuevos
métodos inductivos y experimentales.
Durante este hiato modernista, la persona racional era la persona que
sabía experimentar con la realidad física.
Fuera de algunos intentos de Leibniz, publicados mucho después, este
periodo tiene poco que ofrecer desde el punto de vista lógico.
Regresamos
a los estudios lógicos con el siglo XIX, que toma a la matemática como
paradigma de racionalidad lógica. Este
proceso culminó en la primera mitad del siglo XX con los grandes avances
metalógicos sobre teoría de la cuantificación y teoría de conjuntos. Ya no se considera que la disciplina filosófica más cercana a la lógica es la ontología, como
en Parménides, ni la retórica, como en Aristóteles, ni la filosofía del
lenguaje, como en Ockham, sino la filosofía de las matemáticas, como en Frege y
Russell. La persona racional debe poder
deducir conclusiones a partir de verdades seguras como si desarrollara un
sistema axiomático euclideano de geometría.
La racionalidad se identifica con las llamadas funciones recursivas,
como en la famosa “Tesis de Church”.
Hay quienes, trabajando bajo este nuevo enfoque, llegan a concebir el
fin principal de la lógica como “la comprensión precisa y adecuada de la noción
de prueba matemática”.[5] Este es el enfoque “clásico”
(para distinguirlo del “tradicional” que cubre desde Aristóteles hasta los
escolásticos) y acompaña a los presupuestos actuales sobre lógica y
racionalidad.
Explicar
usos (no las lógicas).Desde la segunda mitad del siglo XX vivimos un nuevo
cambio de enfoque. Gracias al éxito en su aplicación a las matemáticas, hemos
visto extenderse el ámbito de aplicación de la lógica con aplicaciones en los
campos más diversos. Con los nuevos usos se descubren limitaciones que antes no
eran aparentes o importantes. Esto ha
obligado a que los fines de la lógica se vuelvan más realistas y más complejos
para poder incluir consideraciones de campos muy diversos como la lingüística o
la filosofía del derecho. En las
matemáticas se hacen más rigurosas las discusiones sobre lo que constituye una
prueba gracias a las lógicas intuicionistas y constructivistas.[6] Las lógicas epistémicas[7] y modales[8] proporcionan modelos para discutir cuestiones clásicas sobre el
conocimiento y la posibilidad. La
física cuántica ha motivado el desarrollo de lógicas especiales,[9] igual que el derecho inspiró investigaciones sobre lógicas deónticas.[10] En lingüística se usan desarrollos especiales de lógica
cuantificacional para el estudio de las anáforas y la cuantificación
ramificada. Los sistemas expertos en medicina utilizan lógicas condicionales y
en ingeniería se recurre a lógicas polivalentes[11] y lógicas difusas.[12] Hay reconstrucciones del
desarrollo de la química basadas en lógicas del descubrimiento (abductivas), y
de la justificación (inductivas). En
historia es útil la consideración de lógicas contrafácticas,[13] y en pedagogía aparecen nuevas técnicas educativas de razonamiento
crítico y lógica para niños.
Pero
es en la disciplina más notoria de nuestra época, la ciencia y tecnología de la
computación, donde se ha gestado el cambio más radical de nuestra idea de la
lógica. La importancia de la lógica en
esta área es múltiple. En informática,
el cálculo proposicional auxilia en el diseño de circuitos lógicos, y el
cálculo lambda en la teoría de la programación funcional. Hay desarrollos especiales aun cuando se
utilicen elementos desarrollados inicialmente con otros objetivos en mente,
como la teoría lógica de las funciones recursivas, o la teoría matemática de la
complejidad.Explicar. Se utilizan
lógicas no monotónicas y técnicas de circunscripción para el manejo de la
hipótesis de mundo cerrado en el manejo de bancos de datos, el problema del
“frame” en robótica y el de la herencia en programación por objetos.[14] Las lógicas lineales se han
usado en la construcción de semánticas para programas,[15] y las temporales y dinámicas para control de sistemas. La informática tiene incluso su propio
estilo de “programación lógica” donde encontramos un concepto de negación como
falla, así como técnicas lógicas especiales como la resolución y la unificación.
A
los tradicionales modelos retóricos, exegéticos y matemáticos añadimos el del
cálculo mecánico y efectivo. Hoy en
día, la noción de racionalidad involucra computar bien, calcular o procesar
eficientemente la información disponible.
Como dijimos antes, cada uno de estos enfoques puede convivir con los
anteriores. En estos tiempos, interesados en la racionalidad
computacional, la teoría de funciones recursivas y la complejidad algorítmica,
vemos una recuperación de los viejos ideales de la retórica, la semántica
filosófica y la filosofía de las matemáticas.
Y a todo esto hay que añadir un desarrollo reciente[16] de la inferencia contextual no deductiva. La persona lógicamente racional ya no será sólo “la que argumenta
bien”, ni “quien habla y comprende bien”, ni “aquella que domina el álgebra del
pensamiento”, sino aquella que “procesa
bien la información, dado su contexto”.
Todo lo anterior sobrevive y se extiende; todos esos intereses continúan
y se entrelazan en distintas proporciones.
2.
Limitaciones del modelo clásico
Ser
“lógico” exige saber cuándo es adecuado ofrecer razones, cómo construirlas y
cómo evaluarlas. Pero hay muchos tipos de razones. A principios del siglo XXI
viejos modelos perviven, con mínima tolerancia hacia el error o la
revisión. En el modelo clásico para ser
lógica una persona debe: 1) inferir fuera de contexto, 2) tener recursos
ilimitados y ser logicamente omnisciente, como si razonáramos fuera del tiempo
y el espacio, y 3) ser infalible y consistente, sin necesidad de revisión. Veamos estas exigencias con más
detalle.
La
primera exigencia es que se asume el contexto límite en el que no hay
presupuestos, el contexto vacío. Por
ello es atractivo usar como unidades de análisis proposiciones entendidas como
fragmentos de lenguaje desligados de las circunstancias de emisión. No preguntamos ¿cuándo?, ¿en qué sentido?,
¿para quién? El valor de verdad de una
proposición no cambia por matices o cambios en las circunstancias, ya que las
circunstancias no se consideran. De
aquí que parezca natural asumir el compromiso específico de la bivalencia,
según el cual sólo hay dos valores de verdad normalmente llamados “verdad” y
“falsedad”. La lógica y sus inferencias
ocurren fuera del tiempo y el espacio.
Esta
primer exigencia de acontextualidad lleva a la segunda exigencia. Se supone que el agente lógico es ideal y
carece de límites en sus recursos para procesar la información. Si creemos A y de ello se sigue lógicamente
B, entonces debemos creer B también. A
esto le llamamos “Omnisciencia Lógica” pues se creen todas las consecuencias
lógicas. La persona racional, en este paradigma, no deja de reconocer, y
ciertamente nunca contradice, las consecuencias lógicas de sus creencias. Es natural que en la lógica clásica las
consecuencias lógicas están “cerradas” bajo la relación de inferencia.[17] Por ejemplo, Tarski pide que
que las consecuencias lógicas de las consecuencias lógicas no añadan nada, es
decir, Cn(Cn A) Cn(A).
Aunque
una inferencia real requiere tiempo y espacio, para muchos lógicos clásicos el
hecho de que un problema tenga en
principio solución es todo lo que necesitan para considerarlo resuelto. Sin
embargo, un problema resuelto en principio puede requerir de hecho más tiempo y
espacio que el disponible para los agentes racionales existentes. Ser lógico se vuelve una exigencia
inalcanzable para ser racional.
Esto
nos lleva a la tercera exigencia.
Además de la falta de contexto y limitantes en los recursos, se busca
modelar solamente inferencias infalibles.
Esto tiene dos ventajas: por un lado no hay necesidad de revisar
creencias pasadas y por otro hay una garantía de que no habrá contradicciones
si se parte de premisas consistentes.
Un sistema axiomático que requiriera retracciones o cayera en contradicciones
sería considerado inadecuado. En los
modelos clásicos de sistemas axiomáticos se busca empezar sin errores.[18] A partir de esto se busca
proseguir sin error, de manera deductiva.
Con este modelo se excluye de entrada el tratamiento del error y la
revisión.
Esta
exigente visión de la lógica es un hermoso ideal para alcanzar, pero un
peligroso criterio para juzgar sobre la racionalidad de un agente. Necesitamos un nuevo enfoque que considere
de manera rigurosa, y si es posible formal, la estructura de la racionalidad en
situaciones concretas, limitadas y falibles.
En
el prólogo al Begriffschrift, Frege
explica que su sistema está orientado sólo al contenido declarativo
científico. Como vimos en la primera
sección, eso se tradujo en términos de una de las ciencias más abstractas y
rigurosas, la matemática. Al no caer en
esta estrecha noción de conocimiento los
“matices” (Farben), tampoco
caían dentro del campo de aplicación de la lógica.
La
lógica clásica es adecuada para mundos ideales con recursos infinitos y sin
cambio. La racionalidad clásica habla
sobre la idealidad del agente, pero incluso un agente ideal puede vivir en
condiciones no ideales. Como mencionamos
antes, no es nuestra culpa que el mundo real cambia y los agentes crean, descubren,
intercambian nueva información. Para
ser racional puede bastar actuar no perfectamente sino tan perfectamente como
las condiciones externas lo permitan.
Esto es un cambio de óptica importante.
Responder a los constreñimientos de la situación no es un menoscabo de
la racionalidad mientras no hayan defectos internos al pensamiento. Lo ideal sólo es normativo cuando es
posible.
Al
recolectar información, corremos riesgos y enfrentamos limitaciones. La información recabada puede estar
equivocada, ser contradictoria, o ser incompleta. Necesitamos sistemas de lógica en los que se reconozca esto y nos
provean de mecanismos lógicos para manejarlo.
Creo que el requisito de ser lógico es sensato, pero la lógica debe dar
cabida a la sensatez falible. Esta
sensatez no es un permiso para dejar de ser rigurosos, sino el intento de ser
rigurosos en el contexto de nuestras limitaciones.
La
lógica, pues, debe reconocer que podemos necesitar partir de inicios
imperfectos, erróneos, contradictorios o incompletos. Y esto no es todo.
Después de obtener la información, nuestro trabajo apenas empieza. La parte más importante es el procesamiento
de los datos. Ese procesamiento, fuera de situaciones ideales, a veces exige
saltar a conclusiones por razones teóricas, como la indecidibilidad, y
prácticas, como la complejidad.Ejemplo.
Aceptar
que para ser racional se debe ser lógico no nos condena a sistemas lógicos
inaplicables fuera de unas pocas situaciones afortunadas. Se puede ser lógico sin ser infalible mientras
mantengamos inferencias que gocen de plausibilidad y sensatez. Estas nociones son vagas, pero la vaguedad
se atempera gracias a que existen casos extremos claros y paradigmáticos.Dar
ejemplo.
Esta
pérdida de la infalibilidad, reemplazándola con una modesta sensatez, no
significa renunciar al rigor. Podemos
incluso desarrollar sistemas que permiten y facilitan hacer revisiones a
nuestros cuerpos de creencias, como las lógicas no-monotónicas en que es fácil
modelar procesos de retracción de opinionesEjemplo.. Podemos tener sistemas formales paraconsistentes que acepten
inconsistencias sin por ello caer en la trivialización de concluir cualquier
cosa.[19]Ejemplo.
Para
ser lógicos no necesitamos ignorar el contexto en que razonamos ni pretender
que nuestros recursos son infinitos.
Hay lógicas tetravalentesEjemplo. para modelar la manera en que cambia
la evidencia sobre algo (ninguna, a favor, en contra, de ambos tipos). Las lógicas dinámicasEjemplo. permiten un
manejo diacrónico de la inferencia, mientras que las linealesEjemplo. toman en
cuenta que nuestra memoria y recursos similares para razonar son
limitados.
La
existencia de estos nuevos sistemas anuncia un nuevo concepto de
racionalidad. Podemos tener todo el
rigor formal de los sistemas clásicos sin sus presupuestos idealizadores. Tenemos al alcance una racionalidad para
agentes de carne y hueso. Esta labor
será larga y complicada por la variedad y complejidad de la experiencia
humana. Una vez fuera del regazo
protector de los axiomas y la deducción, tenemos que vérnosla con errores y
planear su revisión.
Se
abre el horizonte de toda una gama de tipos de razonamientos no deductivos.Ejemplos
de las 8 cosas que siguen. Aquellos en
que se concluye una explicación (abductivos), los de sentido común aceptables
para una comunidad, los default que se apoyan en lo que típicamente ocurre, los
inciertos con reglas o premisas falibles, los inductivos con que se generaliza
a partir de algunos casos, los no-monotónicos en general cuyas conclusiones son
retractables a la luz de información adicional, los simplemente plausibles por
estar altamente apoyados por la evidencia, y los prima facie a falta de información en contra. Son todos argumentos con algún grado de
probabilidad pero pueden ser bloqueados y sus conclusiones retractadas si el
contexto cambia.
En
esta nueva visión de la inferencia, aunque la lógica ideal no se aplique a todo
en nuestras vidas, podemos ser lógicos y, gracias a ello, encontrar la
racionalidad a nuestro alcance.
Contexto:
las inferencias no monotónicas utilizan una noción de inferencia no válida (en
el sentido de que las premisas no garantizan completamente la conclusión)
Pregunta:
¿podemos todavía hablar de una lógica?
Respuesta:
a)
históricamente se ha usado: entimema aristotélico, inducción, probabilidades,
estadística, abducción.
c)
inferencia correcta en el sentido de razonable, no de infalible.
3. Inferencias no deductivas.
Cotidianamente
usamos los términos generales "razonamiento", "regla,
"condicional" y "conclusión" como si fueran sinónimos. Igualmente con los adjetivos "de
sentido común", "retractable", "default"
("derrotable" o "por defecto"), "plausible",
"no-monotónico", e "incierto". Sería deseable distinguir todos estos términos, por ejemplo,
mediante la siguiente tabla:
|
Razonamiento o argumento |
Inferencia, regla o condicional |
Premisas |
Conclusión |
De sentido común |
Aceptable para la comunidad |
Funciona sin presupuestos |
Consideraas obvias |
En armonía con creencias comunes |
Retractable |
Alcanza conclusiones retractables |
Puede ser bloqueado si el contexto cambia |
Retractable si el contexto cambia |
Retractable si el contexto cambia |
Default |
Usa reglas default
|
Funciona a menos que sea inconsistente con la evidencia |
Se asume verdad si no es
inconsistente con la
evidencia |
Apoyada por una regla de default |
Plausible |
Alcanza conclusiones plausibles |
Es apoyado por el contexto o
evidencia más allá de cierto
umbral |
Es apoyado por la evidencia o contexto
disponibles |
Apoyada por reglas y premisas plausibles |
No‑monotónico[20] |
Usa reglas
no‑monotónicas |
Arroja una conclusión no‑monotónica |
No hay |
Retractable si la información aumenta |
Incierto |
Usa reglas o premisas
inciertas |
Tiene excepciones (no es deductivo) |
Falible o no confiable
|
Apoyada por reglas o premisas inciertas |
Esta tabla no refleja todas las variadas formas
en que estos términos han sido usados.
Por ejemplo, ``retractabilidad'' (defeasibility) y no‑monotonicidad
se han usado como sinónimos.[21] Aunque esta tabla no ofrece definiciones
rigurosas, refleja algunas distinciones importantes y evita que términos como razonamiento
retractable confunda toda la gama de razonamientos no‑aditivos,
partes de inferencia de sentido común, inferencias prima facie, y
razonamientos falibles en general.
También
es importante evitar definiciones como ``El razonamiento no‑monotónico es
razonamiento a partir de premisas verdaderas a conclusiones lausibles''.[22]
Por un lado, nada nos impide inferir no‑monotonicamente a partir de
afirmaciones falsas y, por otro lado, si las conclusiones plausibles no son
reversibles por evidencia adicional, el razonamiento es monotónico.
El
razonamiento no‑monotónico es retractable por un cambio en el contexto en
términos de aumento de información (es deseable extender este concepto a
argumentos con conclusiones no retractables).
La conversa no es cierta: la retractabilidad no implica no‑monotonicidad
porque puede ser causada por varios tipos de cambio en el contexto, solo uno de
los cuales es incrementarlo. Esto nos
impide extender el término ``no‑monotónico'' a toda forma de razonamiento
no deductivo.
Si
nos sentimos generosos podemos incluír el razonamiento de sentido común como un
tipo de razonamiento plausible, aunque inseguro. Nuestra decisión depende de
que tan independiente de los estándares de la comunidad es nuestra noción de
plausibilidad o apoyo evidencial. Pero sin importar lo que entendamos como
reglas plausibles, algunas de ellas preservan verdad y otras no. Así pues, pueden ser tanto monotónicas como
no‑monotónicas; ciertamente las tautologías son por lo menos
plausibles. Similarmente, aunque la
mayoría de las
reglas por default sean no‑monotónicas,
algunas no son retractables. Son los casos límite cuando las premisas implican
la conclusión independientemente de la ``justificación'', en el sentido vacuo
en que una conjunción implica ambos conyuntos ``por default''.
Hay
que notar que la mitad de los tipos de inferencia en la tabla han sido
clasificados de acuerdo a criterios formales.
La noción de inferencia por default habla sobre consistencia, la no‑monotónica
carece de la propiedad lógica de cerrazón bajo reforzamiento de las premisas o
antecedentes, y las inferencias inciertas se definen en contraste con la
deducción. Este caracter formal las
pone a un nivel distinto al de las inferencias de sentido común, plausibles o retractables
en general.
Finalmente,
podríamos tratar de subsumir al razonamiento por default, entendido como usando
casos paradigmáticos o entendido como empleando una regla que sólo se aplica si
no es contradicha por otra evidencia, en el razonamiento no‑monotónico
(razonamiento cuya conclusión puede tener que ser retractada a causa de un
aumento en la información). Este a su
vez podría ser subsumido en un razonamiento retractable en que las
retractaciones pueden ser motivadas no sólo por adición de información sino
también por cambio o pérdida.
Las
nociones de razonamiento retractable y de sentido común tienen una area de
intersección, teniendo esta última noción un fuerte componente social. La percepción de la comunidad es crucial
para decidir lo que hemos de llamar sentido común pero si restringimos esta
noción a un nivel psicológico podemos hablar de
inferencias que parecen plausibles a algunos agentes bajo condiciones
específicas.
Afortunadamente,
partes de la lógica deductiva pueden ser llamadas plausibles y algunas incluso
de sentido común. Por ende ninguna de
estas dos nociones puede ser incluída en la de razonamiento incierto aunque el
tipo de razonamiento incierto que nos interesa es por lo menos
plausible.[23]
4.
Un concepto generoso de inferencia
Las formas interesantes de retractabilidad en
razonamiento por default se deben a su contextualidad. Al cambiar el contexto la inferencia deja de
ser razonable. Los cambios en contexto cambian el grado de ``razonabilidad'' de
las inferencias por default. Lo que
hace que hace a tales inferencias retractables no es la incertidumbre de las
premisas o de la conclusión, sino el que su apoyo dependa crucialmente de su
contexto. Así pues, en vez de
representar relaciones por default sin relación a la base de creencias, debemos
representarlas como relativas a esa base.
Hay
un sentido de corregibilidad en la inferencia en el cual el razonamiento sigue
siendo correcto aun después de ser cancelado.
La retractabilidad no es falta de deducibilidad pues es posible inferir
por default algo necesario. La
implicación no‑monotónica puede ser el caso incluso cuando falla la
material (y por ende la estricta y la contrafáctica).
Un
condicional no‑monotónico no queda invalidado por la información extra
sino simplemente desactivado. La
retractabilidad de la inferencia por default significa que es bloqueada por
información adicional igual que aseveraciones condicionales. Es decir, la nueva información no implica
que la regla haya sido indebidamente aplicada sino que ya no se puede aplicar.
Un
punto a enfatizar es que la inferencia es aceptable aun después de que nos
damos cuenta que la relación inferencial puede suspenderse al añadir
información. Con el mismo cuerpo de
creencias, aceptamos que X lleva a Y, y rechazamos que (X & Z) lleve a Y. La inferencia se mantiene aunque sabemos
que depende de nuestra ignorancia.
Esto
no significa que el contexto contiene suficientes premisas implícitas para
hacer a la inferencia cierta si fueran hechas explícitas. Tal enfoque
asimilaría a las inferencias no‑monotónicas con argumentos con premisas
tácitas que hubieran hecho a la inferencia monotónica si tan sólo hubieran sido
explícitas. Esta es la interpretación
del entimema como un silogismo incompleto, con una inferencia clásica agazapada
en el silencio. Aun teniendo todos el
transfondo de supuestos, la inferencia puede no ser segura, sólo altamente
aceptable. La nueva información ni siquiera necesita contradecir al trasfondo
de creencias para bloquear la inferencia de la conclusión, ya que no había en
primer lugar ningún conjunto de supuestos que forzaban la conclusión tras
bambalinas. En una inferencia no‑monotónica
nuestras premisas pueden ser insuficientes para la conclusión incluso después
de haber tomado en cuenta los supuestos implícitos. Aun así el contexto puede hacer a la inferencia razonable aunque
la nueva evidencia puede bloquear la inferencia previa al ofrecer fuerte
evidencia para una tesis rival. Pero
nunca tuvimos, ni lógica ni psicológicamente la premisa implícita de que tal
evidencia no existiera como quieren ciertos autores.
El
razonamiento retractable no es necesariamente una regla irracional, ni requiere
conclusiones equivocadas o premisas inseguras.
Es una inferencia que depende del contexto y puede ser bloqueada. Por
otro lado no se sigue de que las reglas sean revisables (pues la mayoría de las
reglas científicas lo son), ni de que tenga premisas tácitas. No se trata de que el trasfondo sea
verdadero y callado, sino de que sea aceptado y dependa del contexto.
Tomado de "La justificación retórica de
los principios lógicos". En Helena Beristáin y Mauricio Beuchot,
Filosofía, Retórica e Interpretación, Colección "Bitácora de
Retórica", UNAM, pp. 163‑176 Desde hace muchos siglos, el ideal
del desarrollo del conocimiento ha sido deductivo. Una vez asegurado, un teorema permanece para siempre. Con esta noción de inferencia no tenemos que
preocuparnos sobre el error que sólo ocurre cuando abandonamos la segura senda
de la deducción. Pero los desarrollos recientes en Inteligencia Artificial han
enfatizado que los procesos deductivos de pensamiento son relativamente
sencillos de reproducir mientras que las inferencias diarias o de sentido común
son mucho más dificil de reconstruir, si hay poco lugar para el error y la
revisión. Desde los setentas se han
multiplicado las voces que lamentan la transferencia del ideal acumulativo de
las ciencias matemáticas.[24]
Por
supuesto, la lógica clásica ofrece algunos atisbos sobre la revisión racional
de creencias. Nos da guías para añadir
información con su noción de consecuencia lógica, e incluso para retractar
información con los principios de Reductio ad Absurdum y Modus
Tollendo Tollens. Desafortunadamente también se emfatiza un modelo
axiomático‑deductivo del cambio racional de creencias en que simplemente añadimos
creencias cuando la información aumenta, nunca las substraemos. Esta ``aditividad'' característica de la
lógica deductiva clásica hace difícil explicar por qué y cómo abandonar
creencias racionalmente ante nueva evidencia.
¿Qué podría ser tal evidencia?
¿Por qué forza una pérdida de creencias previas? ¿Cuál sería una manera sensata de manejar
tales pérdidas? No hay consenso entre
los lógicos sobre las respuestas a estas preguntas, pero una lógica del
razonamiento retractable (defeasible) podría ayudarnos.
Se
esperaría que una teoría de la racionalidad ayudara a determinar que debemos
creer sobre la base de un cuerpo de evidencia dado. Pero lo que se sigue racionalmente de un cuerpo de creencias
puede bien no ser lo que se sigue deductivamente de él. La racionalidad debe tomar en cuenta
constreñimientos de nuestra situación. Por ejemplo, si el universo físico tiene
un número finito de posibles estados, habría un infinito de proposiciones
tautológicas que podrían ser en principio inferidas pero no de hecho. En cierto sentido deberíamos inferirlas
todas, pero, si un deber epistemológico implica un poder epistemológico, no es
claro que tenemos ese deber en un sentido epistemológico. Tal vez no fuera racional siquiera
intentarlo.
Ya
que una completa certeza en los fundamentos no es el caso normal, a menudo
necesitamos saltar de nuestro conocimiento incompleto a conclusiones que
avancen nuestras indagaciones. Los
errores son un hecho de la vidad diaria, tanto para humanos como para sistemas
artificiales, para agentes aislados o para redes de ellos. Igual que lo necesitan los humanos, las
máquinas necesitar ser capaces de modificar sus interpretaciones a la luz de
nuevos datos que la máquina produce o encuentra.
Por
ejemplo, para lograr eficiencia en la
recolección de datos, las máquinas deben ``conjeturar'' el siguiente contorno o
fonema que aparecerá en su campo visual o auditivo. Ya que las máquinas necesitan algo similar a nuestras creencias
indexicales, puede ser menos costoso revisar tales creencias que generar todo
un nuevo conjunto cada vez que algo cambia internamente o en el entorno.[25]
Así
pues, un sujeto epistémico capaz de enfrentar retos mínimos en el mundo real,
sea una computadora o un humano, necesita poder manejar descripciones
incompletas y/o inconsistentes sobre que estado de cosas ocurre. Normalmente usamos reglas que, aunque llevan
a conclusiones retractables, garantizan un mínimo de racionalidad. La
posibilidad del error conlleva la necesidad de retractar creencias.
Los
humanos tenemos la capacidad de continuar operando a pesar de conflictos de
creencias. Continuamos haciendo
inferencias y tomando decisiones racionales en las áreas en que tenemos
confianza y tan sólo dejamos de sacar (algunas) conclusiones en las areas, tan
pequeñas como sea posible, en que reconocemos la presencia de conflicto.
Los
procesos racionales en situaciones de falibilidad son estudiados bajo diversos
nombres como razonamiento inseguro, inferencia inductiva o consecuencia
retractable. Hay que distinguir los casos en que nuestros datos pierden validez
con el tiempo de los casos en que la información
falta, es vaga o es poco confiable. Una medición precisa y confiable puede ser
una función del momento en que la hacemos y, en este sentido, ser retractable
porque el periodo de tiempo en el que funcionaba ha pasado. No se ha vuelto vaga o mal hecha, sino
inoperante.
El
precio de nuestra falibilidad es la necesidad ocasional de o bien recuperarnos
de tales conflictos (revisión de creencias) o bien ser capaces de
procesar datos adecuadamente en presencia de conflictos que pueden llegar a
contradicciones. Ya sea que ajustemos o
toleremos, debemos hacerlo siguiendo un mínimo de racionalidad. Creo que es
tarea de la lógica determinar esta racionalidad.
El
razonamiento retractable no sólo merece un estudio de su estructura lógica como
una parte importante de la labor cognitiva de los sujetos epistémicos normales,
sino también por razones prácticas.
Desde Aristóteles los lógicos han enfatizado la deducción a expensas de
la inducción pero hasta hoy las técnicas lógicas han sido lentas e
incompletas. Perder información o
habilidades puede incluso ser conveniente en ciertas condiciones.[26]
Al
admitir la rectratabilidad admitimos perder confiabilidad, pero esto es
razonable en algunas areas. Todavía
usamos humanos en muchas industrias no porque sean más baratos o precisos que
un robot, sino porque son más rápidos.
El tiempo disponible para responder a un ataque nuclear puede ser
demasiado pequeño para las elaboradas cadenas de inferencias usadas en nuestros
actuales provadores de teoremas.
Así
pues, tanto desde un punto de vista teórico como práctico, a menudo hay que
negociar con el error.
5. Algunos ejemplos
Consideremos los siguientes ejemplos:
Tweety. Se
le dice a usted que Tweety es un pájaro y usted concluye que Tweety vuela.[27]
Café.
Usted cree que si pone azúcar a su café tendrá buen sabor. Concluye que si pone
azúcar y aceite para auto en su café, tendrá buen sabor.[28]
Aerolínea. Se
le dice a usted que Airline Canada vuela de Vancouver a Toronto, Boston y Los
Ángeles. Cuando otra persona le
pregunta si vuela a Toulouse usted dice que no.[29]
Nixon.
Del hecho que Nixon is cuáquero usted infiere que es un pacifista. Del hecho que es un Republicano usted infiere
que no es un pacifista.[30]
Robot.
Después de dejar caer un bloque rojo, un robot asume que el color del bloque no
ha cambiado.[31]
Paracaídas. Un
hombre cayó de un avión.
Afortunadamente, llevaba puesto un paracaidas. Desafortunadamente, el paracaidas no se abrió. Afortunadamente
cayó del avión a baja altura sobre un enorme montón de heno. Desafortunadamente había un tridente en el montón de heno. Afortunadamente no cayó sobre el tridente.
Desafortunadamente tampoco cayó sobre el montón de heno... .[32]
Estos
ejemplos ilustran importantes problemas. El ejemplo de Tweety muestra que modos
perfectamente normales y sensatos de razonar son falibles o retractables. Si descubriéramos que Tweety es un pinguino
o que tiene un ala rota ya no podríamos concluír que vuela. La importancia de este ejemplo de juguete no
tiene nada que ver con la ornitología y tiene todo que ver con las intuiciónes
de que conclusiones razonables pueden ser falibles (el ejemplo
del Café), que normalmente tomamos infomación
incompleta como si fuera completa (el ejemplo de la Aerolinea), que de la misma
información podemos inferir conclusiones en conflicto (el ejemplo de Nixon), y
que nuestros ajustes de creencias se dan en el contexto de un mundo
independiente y cambiante (el ejemplo del {Robot).
Estos
problemas han recibido creciente atención desde finales de los sesenta por sus
repercusiones para ciencias de la computación, inteligencia artificial y lógica
filosófica. A veces los ejemplos dejan
ver sus orígenes en la teoría de banco de datos (el ejemplo de la Aerolínea), cibernética (el del Robot) o
contrafácticos (el ejemplo del Paracaídas).
Pero no debemos dejarnos engañar
por la novedad de la formulación; estas cuestiones han estado con nosotros
desde los comienzos mismos de la lógica.
6. Formalización
La lógica deductiva clásica reconoce que en
ocasiones llegamos a conclusiones inaceptables. La figura estoica del Modus Tollendo Tollens[33]
nos dice que la conjunción de las premisas (o el antecedente) sufre
similarmente de falsedad. Algo paralelo
hace la Reductio ad Absurdum con la falsedad necesaria. Pero en ambos
casos lo que la lógica clásica nos da para resolver un conflicto es una
negación, no una retracción. No
corregimos el error, tan sólo lo ubicamos, identificando una combinación de
creencias a evitar. En la tradición lógica, el método favorito de solución es
la abstinencia.[34]
Esta
noción de la consecuencia lógica ha sido cuidadosamente descrita. Tarski
caracteriza al conjunto de Consecuencias Lógicas de un conjunto G (simbolizado como "Cn(G)") como el conjunto de
oraciones que podemos inferir de G.[35] Esto se entiende como una noción primitiva
que podemos aplicar incluso a teorías
que carecen de una definición rigurosa
de inferencia. No hemos
especificado la teoría de prueba correspondiente a la noción de inferencia ni
hemos determinado el lenguaje en que tiene lugar. Por ejemplo, no sabemos si el
lenguaje tiene conjunciones o si contamos con una regla de simplificación. Aun
así, la noción de Consecuencia Lógica debe cumplir ciertas condiciones. Tarski
las captura en la siguiente serie de axiomas.[36]
Siendo S el conjunto de todas las oraciones,
[Axioma 1] La cardinalidad de S £ À0.
[Axioma 2] Si G Í S, entonces G Í Cn(G) Í S.
[Axioma 3] Si G Í S, entonces Cn(Cn(G)) = Cn(G).
[Axioma 4] Si G Í S, entonces Cn(G) = SD Í G & la cardinalidad
de D
< À0 Cn(D).
[Axioma 5] Hay una oración G Î S tal que Cn(G) = S.
El
axioma 1 nos dice que el número de nuestras oraciones debe ser contable, un
requisito impuesto por la primera diagonal de Cantor dada la restricción normal
a concatenaciones finitas de símbolos.
El
axioma 2 garantiza una forma plausible del principio de identidad A →
A. Llamaré a este axioma Inclusividad.[37]
El
axioma 3 nos dice que un conjunto de consecuencias es un punto fijo. Este no es un supuesto trivial pues las
inferencias ``inmediatas'' (de un paso)
o las ``obvias'' no lo respetan. Este
axioma también implica que nuestra noción de consecuencia no está limitada por
constreñimientos en nuestros recursos, como límites espaciales o temporales.
Llamo a esto la Cerrazón Lógica del operador de consecuencia.
El
axioma 5 dice que hay una oración ``total'' que implica todas las demás.
He
dejado para el final al axioma 4,
llamado usualmente Compacidad.
Me concentraré en este axioma porque de él obtenemos inmediatamente el
teorema Si G Í D Í S, entonces Cn(G) Í Cn(D). Tarski dice
explicitamente que ``la operación Cn en el dominio de los conjuntos de
oraciones es monotónica.[38]
Es
difícil argüir con el principio de monotonicidad Cn(G) Í Cn(G 4 D)
cuando D Í Cn(G). Esto ha sido llamado Monotonicidad Cauta y con el
principio de restrictividad G Í Cn(D) →Cn(G 4 D) Í Cn(D) obtenemos que las
consecuencias de G son ni más ni menos que las
consecuencias de su conjunción con cualquiera de sus consecuencias.
Combinaré
ahora las nociones tarskianas de Inclusividad, Cerrazón y Compacidad con otros
principios para obtener cuatro interesantes nociones de consecuencia y mostrar
como extender cada una en la que sigue.
Empiezo con un operador de Consecuencia Mínima que obedece dos
principios:
[Inclusividad] G Í Cn(G)
[Restrictividad] G Í Cn(D) → Cn(G 4 D) Í Cn(D)
La
Inclusividad nos dice que del cuerpo de evidencia G se sigue al menos G mismo. Por supuesto, hay sentidos en que esto no es
el caso. Después de aceptar un cuerpo
de evidencia con fuertes conflictos (tal vez internos, tal vez incluso
lógicos), podemos con buenas razones inclinarnos no a inferir la evidencia
misma sino a rechazar parte de ella.
Éste es un uso legítimo de la palabra ``consecuencia'' que excluímos con
este principio.
El
principio de Restrictividad nos dice que añadir consecuencias no incremente el
poder inferencial de una teoría. De
nuevo, hay un sentido en el que añadir como premisas ciertas consecuencias hace
posible obtener más consecuencias (tal vez en un sentido temporal o
psicológico). Incluso la lógica y las
matemáticas se apoyan en los hombros de descubrimientos previos. Tal noción de consecuencia, aunque también
razonable, no será capturada por nuestros operadores de Consecuencia Mínima.
Ahora,
un operador de consecuencia Cumulativo añade el principio:
[Cumulatividad] G Í Cn(D) → Cn(D) Í Cn(G 4 D)
Es decir, tiene Inclusividad más G Í Cn(D) → Cn(D) = Cn(G 4 D) que es Restrictividad y
Cumulatividad juntos. Nótese que sin el antecedente G Í Cn(D), el consecuente Cn(D) Í Cn(G 4 D) sería Monotonicidad.
Estamos en efecto diciendo que la consecuencia cumulativa se comporta
monotonicamente con respecto a la adición de información vieja. Esto es
una ``cauta monotonicidad''. Ya que Cn(G 4 D) no es sino Cn(D) misma, no hay un verdadero
aumento de información de que preocuparse.
Una Consecuencia Monotónica respeta los
siguientes tres principios:
[Inclusividad] G Í Cn(G)
[Cerrazón] Cn(Cn(G)) Í Cn(G)
[Monotonicidad] G Í D
→ Cn(G) Í Cn(D)
Finalmente,
un Operador de Consecuencia Tarskiano simplemente añade a los otros dos
principios de la Consecuencia Mínima lo siguiente:
[Compacidad] α Î Cn(G)
ssi para un D Í G
finito, α Î Cn(D)
En
breve,
Mínima =
Inclusividad + Restrictividad
Cumulativa =
Inclusividad + Restrictividad +
Cumulatividad
Monotónica =
Inclusividad + Cerrazón + Monotonicidad
Tarskiana =
Inclusividad + Restrictividad +
Compacidad
Substituí
Cerrazón con Restrictividad para mayor claridad. Podemos hacer esto porque, como se mostrará en un momento, dada
Inclusividad, la Restrictividad implica Cerrazón y la Restrictividad puede, a
su vez, ser derivada de las propiedades de los operadores de consecuencia
monotónicos. Hay que hacer notar que el
par de propiedades de la Consecuencia Mínima (Inclusividad y Restrictividad) no
pueden ser reemplazadas con el par de Inclusividad y Cerrazón. El segundo par es implicado por el primero
porque, como acabamos de mencionar, la Inclusividad y la Restrictividad
implican Cerrazón, pero no al revés.
Piénsese en Cn como una función sobre conjuntos de reales que arroja al
conjunto original más su promedio, su promedio más 3 y su promedio menos
3. Este operador respeta Inclusividad
porque su resultado incluye al conjunto original, y respeta Cerrazón porque el
promedio nunca cambia, pero no respeta Restrictividad: escójase
D = {
1, 9 } y G = {
8 }. Ya que Cn(D) = { 1, 2, 5, 8, 9 }
tenemos G Í Cn(D) pero Cn(G 4 D) = { 1, 3, 6, 8, 9 } no es
un subconjunto de Cn(D).
La
relación entre los cuatro operadores de consecuencia es la siguiente[39]:
Mínima ► Cumulativa ► Monotónica
► Tarskiana.
Prueba:
I. Mínima ► Cumulativa. Por
construcción.
II. Cumulativa ► Monotónica. La
Inclusividad es compartida, así es que sólo necesitamos mostrar que la Restrictividad y la Cumulatividad pueden ser
derivadas de la Inclusividad, Cerrazón y Monotonicidad. Asumimos G Í Cn(D). Para mostrar Restrictividad necesitamos Cn(G 4 D) Í Cn(D). De nuestro supuesto G Í Cn(D), y el hecho de que D Í Cn(D) (por Inclusividad),
obtenemos (G 4 D) Í Cn(D). A partir de esto
Monotonicidad arroja Cn(G 4 D) Í Cn(Cn(D)). Pero por Cerrazón esto
se simplifica como Cn(G 4 D) Í Cn(D). Para mostrar Cumulatividad necesitamos Cn(D) Í Cn(G 4 D), que se obtiene facilmente
de Monotonicidad ya que D Í (G 4 D).
III. Monotónica ► Tarskiana. Nuevamente, la Inclusividad es compartida,
así es que sólo tenemos que mostrar que Inclusividad, Restrictividad y
Compacidad implican Cerrazón y Monotonicidad. De hecho, la Inclusividad y la
Restrictividad son suficientes para la Cerrazón, mientras que la Compacidad es
suficiente para la Monotonicidad. Para
mostrar Cerrazón, empezamos con Cn(G) Í Cn(G), lo que Restrictividad
transforma en Cn(Cn(G) 4 G) Í Cn(G). Pero sabemos por
Inclusividad que (Cn(G) 4 G) = Cn(G). Por lo tanto, Cn(Cn(G)) Í Cn(G), que es Cerrazón. Ahora,
para Monotonicidad, asumimos G Í D y mostramos que Cn(G) Í Cn(D). Así pues, asumimos
también que α Î Cn(G). Por Compacidad, α Î Cn(Ξ) para algún
subconjunto finito Ξ de G. Pero Ξ Í D por
nuestro primer supuesto. Por ende, para algún subconjunto finito Ξ de D, α Î Cn(D). Por Compacidad,[40]
α Î Cn(D). QED
8. Propiedades formales de las inferencias no‑monotónicas
Una
amplia gama de fenómenos puede ser relacionados con no‑monotonicidad.
Esto ha producido diferentes enfoques, aparentemente inconexos. Afortunadamente, casi todos estos fenómenos
comparten importantes propiedades formales y el estudio de un tipo puede
iluminar el estudio de otros.
Decimos
que una función f es monotónica bajo un orden O ssi O(x,y) implica O(fx,
y). En el caso de razonamiento
monotónico, O es la relación ``implica'' y f es cualquier función que añada contenido
semántico. En otras palabras, añadir
información a las premisas debiera preservar la conclusión. E. g., (F → Y) sólo si [(F
Ù X)
→ (Y)]. (En términos de uniones
de conjuntos de piezas de información: Si G £ D entonces G 4 Ξ £ D.)
Tarski
habla de la operación monotónica Cn que arroja un conjunto de consecuencias a
partir de un conjunto de oraciones,[41]
y la lógica clásica, lo mismo que las intuicionistas y modales son llamadas
monotónicas porque la adición de información no afecta la validez de la
inferencia deductiva.[42]
Esto
es formalmente análogo a la regla de Debilitación que aparece en lógica
combinatorial como el combinador K. En
lógica algebraica corresponde al pricipio de límite inferior a ○ b £ b. En algunos sistemas de deducción natural (o
cálculos de secuencias tipo Gentzen) Debilitación aparece como
G, D d F
_______________________
G, Y, D d F
Por
otro lado, una relación de orden O no‑monotónica es aquella que
viola la regla de que si F£Y bajo O, entonces g (F) £ g (Y), para cualquier función g
que incremente contenido semántico. Por ejemplo, si substituímos g (α) por (α Ù X), tenemos que F £ Y no implica (F Ù X) £ (Y Ù X). Incrementar nuestro
conocimiento de F a F Ù X puede impedirnos inferir Y.
La
analogía entre monotonicidad y Debilitación no es perfecta, pero ha llevado a
aplicar el término no‑monotonicidad al rechazo de
Debilitación. Otra caracterización es
decir que el razonamiento monotónico ocurre cuando las inferencias se
preservan bajo aumento de premisas: las reglas de inferencia son siempre de la
forma F es un teorema si Y1 ,...,Yn son teoremas. En contraste, el razonamiento
no‑monotónico ocurre cuando las inferencias no se preservan
bajo aumento de premisas: las reglas de inferencia pueden ser de la forma F es un teorema si Y1 ,...,Yn no son teoremas. Se dice que las reglas de inferencia hacen a
los axiomas permisivos o restrictivos.[43]
Hay
que notar que hay otras operaciones no‑monotónicas que no se relacionan
directamente con incremento de información.
Por ejemplo, podemos definir una noción de consecuencia mínima como[44]
G
╞m F iff
¼ M ( [ M ╞ G Ù ¼N (N╞ G → ¾N _ M) ] → M╞ F )
Es
decir, cualquier modelo mínimo de G modela F. Si
definimos modelos como conjuntos de oraciones atómicas F, Y, ... y estipulamos que G ╞ ¬F ssi F v G,[45]
es claro que Ø ╞m ¬F, pero Ø 4 F Vm ¬ F. Esta consecuencia mínima es no‑monotónica
en el sentido de que superconjuntos de los modelos pierden consecuencias. Pero, por nuestra estipulación sobre ¬, los
superconjuntos no se producen por un mero incremento de conocimiento pues
determinan explicitamente todo lo que es el caso e implícitamente todo lo que
no. Agrandar estos modelos representa
un incremento de información
``positiva'' tanto como un decremento de la información ``negativa''. En contraste, la noción de no‑monotonicidad
que buscamos es no‑monotonicidad bajo incremento total de información,
tanto positiva como negativa.
Debemos
distinguir dos formas de debilitar una relación de consecuencia no‑monotónica
\nomodels: mediante el reforzamiento de las premisas o aligerando la
conclusión. Cada variante añade
material a la derecha o a la izquierda de \nomodels. La Debilitación a
la Izquierda[46]
F ╠ Y, G d F
→ G
╠ Y
implicaría monotonicidad (basta reemplazar G con F Ù X). Por otro lado, la Debilitación a la
Derecha es aceptable: F ╠ Y, Y d G → F ╠ G .
Es
decir, la inferencia no‑monotónica esta cerrada bajo deducibilidad
clásica. La justificación intuitiva de Debilitación a la Derecha es que si algo
es implicado infaliblemente, también es implicado faliblemente. Podemos pensar en la inferencia no‑monotónica
como una relación encima de la deducibilida clásica por lo que llamaremos a
esta propiedad Supraclasicalidad:[47]
F d Y → F ╠ Y.
Supraclasicalidad
nos dice que estamos extendiendo el sistema de inferencia clásica dándonos sólo
una versión restringida del teorema de la deducción. La relación de inferencia
╠ es derivable a partir de un condicional material válido pero no tenemos
aún un modo de iterar esto.
La
Transitividad (o Silogismo Hipotético) F
╠ Y, Y ╠ X →
F
╠ X debe ser evitada: asúmase F ╠ Y. Ya
que F Ù X ╠ F (por Supraclasicalidad), F Ù X ╠ Y por Transitividad,[48]
y hemos vuelto a Debilitación.
Los
condicionales no‑monotónicos han sido interpretados como diciendo que la
mayoría de los individuos de cierto tipo tienen cierta caracterítica. Una
ventaja de esta lectura es que el cuantificador ``la mayoría de'' no permite Contraposición
interna. Decir que todos los Fs son Ys es equivalente a decir que todos los no‑Ys son no‑Fs por contraposición: F╠ Y → ¬Y╠ ¬F. Pero la información de que
la mayoría de los Fs
son Ys no
es lo mismo que decir que la mayoría de los no‑Ys son no‑Fs. Morreau sostiene que una
situación similar ocurre con los defaults y que esta falla de contraposición
ayuda a resolver al llamada paradoja de la inducción, donde un tigre amarillo
confirma que los cuervos son negros. Cuando la ley inductiva es una regla por
default, la paradoja de la inducción no surge porque la contraposición falla.
La "paradoja" permanece para cuantificaciones universales reales.[49]
Es
dudoso que la falla de contraposición ayude a resolver la "paradoja"
de la inducción pues parece que este famoso problema no es sobre condicionales.
Simplemente subraya la importancia de elementos heurísticos que a veces se
pasan por alto al discutir en abstracto estrategias de confirmación.
Efectivamente, es una mala idea no circumscribir nuestros tests a los curevos,
que son menos numerosos que las cosas que no son negras; pero no es logicamente
incorrecto. De todos modos, Morreau tiene razón en señalar que la
contraposición debe fallar para reglas por default, cualesquiera que nuestro
análisis final de ellas sea.
La
regla de Ù‑Introducción F
╠ Y, F ╠ X →
F
╠ (Y Ù X) parece inocente a pesar de ejemplos como el de Nixon. Sabemos
que los Republicanos por default no son pacifistas, y que los Cuáqueros son por default pacifistas. Pero no nos han
dicho qué es por default un Republicano Cuáquero.
La
importante regla de Corte debe restringirse. Corte Completo
(Ω Ù Y) ╠ X, F ╠ Y → (Ω Ù F) ╠ X implicaría
Transitividad. Asúmase que F ╠ Y y Y ╠ X. Si Y es idempotente con Y Ù Y (o si Ù se entiende como unión de
conjuntos de premisas), tenemos (Y Ù Y)
╠ X y F
╠ Y a
partir de lo cual Corte Completo arroja (Y Ù F) ╠ X. Por Corte
Completo nuevamente obtenemos (F Ù F) ╠ X lo cual colapsa en F ╠ X, y tendríamos Transitividad después de todo.
Veamos
esto con calma. Otra forma de Corte, Corte Cauto F ╠ Y, (F Ù Y) ╠ X → F ╠ X dice que si X es
implicado por una proposición F en conjunción con un F implicado de todas maneras, entonces X es implicado por F solo. Creo que esto es
aceptable porque una proposición está implicitamente conjuntada con todo
aquello que implica.[50]
Corte Completo dice algo completamente diferente: si algo implicado por F implica X con la ayuda de
Ω, entonces F
debe ser capaz de usar Ω para implicar lo mismo. Tal principio no funciona
para la inferencia no‑monotónica. Lo que algo implicado por F puede implicar a solas podría no ser implicado más cuando el resto del
poder de F es
invocado. ¿Quiere esto decir que nunca
es kosher reforzar premisas? No. Monotonicidad
Cauta F ╠ Y, F ╠ X → (F Ù Y)╠ X nos dice que añadir información implícita es
monotónico.
Compacidad
es un caso interesante. La entenderé
como compacidad de una consecuencia lógica (``Si F es una consecuencia de G, es también una
consecuencia de algún subconjunto finito de G''), lo cual en el caso clásico
(de primer orden) coincide con compacidad de la satisfacibilidad (``Si cada
subconjunto finito de G es satisfacible, lo es G'').[51] Hay también
una noción de Compacidad Débil que simplemente dice que nuestra noción
de prueba es finitista:
G ╠ F → ½ D (D Í G Ù Cardinalidad de D
< À0 Ù D ╠ F). Podemos aceptar, de
momento, que todas las implicaciones no‑monotónicas surgen de un conjunto
finito de premisas. Lo que no podemos
aceptar es que eso es todo lo la implicación representa, como en Compacidad
Fuerte:
G ╠ F ↔ ½D (D Í G Ù Cardinalidad de D < À0 Ù D ╠ F). Es fácil ver que la
Compacidad Fuerte produciría monotonicidad, ya que cualquier subconjunto finito
de G es
también un subconjunto finito de todos los superconjuntos de G.[52]
Para
sumarizar, podemos esperar que una relación binaria no‑monotónica╠
carezca de las siguientes propiedades:
Debilitar F ╠ Y → (F Ù X) ╠ Y
Debilitar Izquierda F ╠ Y, G d Y →
G
╠ Y
Monotonicidad F ╠ Y → (F Ù X) ╠ (Y
Ù X)
Transitividad F ╠ Y, Y ╠ X → F
╠ X
Corte Completo F ╠ Y, (Ω Ù Y) ╠ X → (F Ù Ω) ╠ X
Compacidad Fuerte G ╠ F ↔ ½D (D Í G Ù Cardinalidad de D < À0 Ù D ╠ F)
pero que tenga al menos las siguientes
propiedades:
Debilitar Derecha F ╠ Y, Y d G → F ╠ G
Supraclasicalidad F d Y →
F
╠ Y
Ù‑Introducción
F ╠ Y, F ╠ X → F ╠ (Y Ù X)
Corte Cauto F ╠ Y, (F Ù Y) ╠ X → F╠ X
Monotonicidad Cauta F ╠ Y, F ╠ X → (F Ù Y)╠ X
Compacidad Débil G ╠ F → ½ D (D Í G Ù Cardinalidad de D < À0 Ù D╠ F)
9.
Problemas abiertos.
Quedan a tratar problemas filosóficos importantes sobre los formalismos no-monotónicos. Mencionaré algunos sobre los que se está trabajando actualmente: ¿En qué sentido podemos hablar de lógicas sin validez perfecta; cuáles son los compromisos filosóficos de estas nuevas nociones de consecuencia lógica?, ¿Cuál es el estatus en esos formalismos de reglas como el Modus Ponens; se le rechaza verdaderamente? ¿Hasta qué punto es legítimo introducir consideraciones prácticas sobre las limitaciones de agentes finitos en la construcción de una teoría de la inferencia lógica? ¿Deben ser los sistemas no-monotónicos declarativos, formales, simbólicos? ¿Cuáles son las unidades adecuadas de análisis en estas lógicas: creencias, conocimientos, oraciones, aseveraciones? ¿Debe la conclusión de una inferencia no-monotónica aparecer en todo el rango de extensiones consideradas, o hasta qué punto se legitima la conclusión por aparecer al menos en una extensión razonable? ¿Cuáles son los requisitos para una formalización aceptable de la noción de contexto para los fines de una teoría general de la inferencia? ¿Cuál es el mentalenguaje adecuado para estos formalismos, y como integrar el uso de nuevas reglas y nuevos axiomas con el efecto de los cambios de contexto? ¿Cuál es la relación exacta entre inactivación de reglas y supuestos y su negación?
10. Bibliografía
BECK, Andreas. 1996. "Paradojas clásicas en el contexto de la Lógica no
monótona". Agora, vol. 15, no. 2, pp. 145--152.
CARNOTA, Raúl J. (1995). "Lógica e Inteligencia
Artificial". Enciclopedia Iberoamericana de Filosofía, vol. 7. Madrid: Editorial Trotta, pp. 143-183.
CASABAN, Enric, 1989. "Lógica y razonamiento no
monotónicos". Quaderns de
Filosofía de la Ciencia, vol. 15-16, pp. 19-25.
FARIÑAS
DEL CERRO, Luis, FRÍAS DELGADO, Antonio.
"Razonamiento no monótono: Un breve panorama", Theoría,
S. E., vol. X, no. 23, 1995, pp.
7-26.
MORADO,
Raymundo, 1992. "Models for belief revision". En
Enrique Villanueva (ed.), Rationality in Epistemology. Ridgeview, Atascadero,
pp. 227-247.
MORADO, Raymundo (2000a). "Nuevos paradigmas de la inferencia
racional". En Carmen Trueba
(comp.), Racionalidad: Lenguaje, Argumentación y Acción, UAM-I/Plaza y Valdés, México, pp 89‑99.
MORADO, Raymundo (2000b). "La
justificación retórica de los principios lógicos". En Helena Beristáin y
Mauricio Beuchot, Filosofía, Retórica e
Interpretación, colección “Bitácora de Retórica”, UNAM, pp. 163-176.
NUÑEZ,
Gustavo, CORTES, Ulises. "Implicaciones del conocimiento de respaldo en el
aprendizaje SBL y su relación con el razonamiento no monótono", pp. 237-261
GABBAY, Dov M.
(1985). "Theoretical foundations
for non-monotonic reasoning in expert systems''. En Krzysztof, R. Apt (ed.)
1985. Logics and Models of Concurrent Systems;
Proceedings of the NATO Advanced Study Institute on Logics and Models
of Concur-rent Systems held at La
Colle-sur-Loup, France, 8-19 October 1984. NATO ASI series. Series F, Computer
and System Sciences; vol. 13. Berlin:Springer-Verlag, pp. 439-457.
GÄRDENFORS, Peter, 1988.
Knowledge in Flux, MIT Press, Cambridge.
GÄRDENFORS, Peter, 1991. ``Belief revision and nonmonotonic logic:
Two sides of the same coin?
Abstract.''. In JELIA (1991), pp. 52-54.
GUHA, RamanathanV., 1990.
"The representation of defaults in Cyc". En
AAAI (1990), pp. 608-614.
GUHA, Ramanathan
V., 1991. Contexts: A formalization and some applications. Stanford Ph. D.
Thesis.
KONOLIGE, Kurt. (1986). A
Deduction Model of Belief. Morgan Kaufmann.
KONOLIGE, Kurt. (1987) On the
relation between default and autoepistemic logic. CSLI Report no. CSLI-87-105. También en
IJCAI (1987), en Artificial Intelligence, vol. 35, issue 3, pp. 343--382,
(1988) y en Ginsberg (1987), pp. 195--226.
KONOLIGE, Kurt.
(1989) "On the relation between circumscription and autoepistemic
logic". En
IJCAI (1989), pp. 1213--1218.
KONOLIGE, Kurt.
(1989) "Errata to: On the relation between circumscription and
autoepistemic logic". Artificial Intelligence, vol. 41, p. 115.
KRAUS, S.,
LEHMANN, D., MAGIDOR, M. (1990) "Nonmonotonic Reasoning, Preferential
Models and Cumulative Logics", Artificial Intelligence, 44, 167--207.
McCARTHY, John, 1977.
``Epistemological problems of artificial intelligence''. En IJCAI, pp. 1038-1044.
MCCARTHY, John.
(1980) "Circumscription: A form of non-monotonic reasoning",
Artificial Intelligence, 13, pp.
27--39. Reimpreso en Ginsberg (1987), pp. 145-151.
McCARTHY, John,
1980b. ``Addendum: circumscription and other non-monotonic formalisms''. Artificial Intelligence, vol. 13(1-2), pp. 171-172. Reimpreso en
Ginsberg (1987), pp. 151-152.
McCARTHY, John,
1984. ``Applications of circumscription
to formalizing common sense knowledge''. En
NMRIW (1984), pp. 295--324. Versión revisada en Artificial Intelligence, 28(1),
pp. 89-116, 1986, reimpresa en Ginsberg (1987), pp. 153-166.
McCARTHY, John,
1993. ``Notes on formalizing context''.
En IJCAI (1993), pp. 555 -560.
McCARTHY, John,
HAYES, P., 1969. ``Some philosophical
problems from the standpoint of artificial intelligence''. En B. Meltzer y Michie (eds.), Machine Intelligence, vol. 4, Edinburgh
University Press, Edinburgh, American Elsevier, New York, pp. 463--502.
Reimpreso en B. L. Webber y N. J. Nilsson (eds.), Readings in Artificial
Intelligence, Tioga, Palo Alto, California, pp. 431-450, (1981) y en McCarthy
(1990), Formalization of Common Sense: Papers by John
McCarthy editado por V. Lifschitz, Norwood, N.
J.: Ablex. Un resumen apareció en el ejemplar de febrero de 1969 (No. 14) de la
ACM SIGART Newsletter. Reimpreso en Ginsberg (1987), pp. 26-52.
MCDERMOTT, Drew
V., DOYLE, Jon, 1978.
"Non-monotonic logic I".
MIT Technical Report Memo 486. También Artificial Intelligence, vol. 13(1-2), pp. 41--72, 1980. Un resumen amplio apareción en el Fourth
Workshop on Automated Deduction}, Austin, Texas, 1979. Reimpreso en Ginsberg (1987), pp. 111-126.
MCDERMOTT, Drew V., 1982. ``Non monotonic logic II:
Non monotonic modal theories''. Journal of the Association for Computing
Machinery, vol. 29, num. 1, pp. 33-57.
MINSKY, Marvin Lee. 1974. A
framework for representing knowledge. Artificial
Intelligence Memo 306, MIT AI Lab. Reimpreso sin el apéndice en The Psychology
of Human Vision, Patrick H. Winston
(ed), McGraw Hill, NY, (1975), pp. 211-277.
Otros fragmentos fueron reimpresos como ``Frame-system theory'' en R. C.
Schank y B. L. Webber (eds.), Proceedings of the 1975 TINLAP (Theoretical
Issues in Natural Language Processing) Conference, Cambridge,
Massachusetts, 1975, reimpreso en P.N. Johnson-Laird y P. C. Wason
(eds.), Thinking: Readings in Cognitive
Science, Cambridge University Press. Hay extractos distintos en J. Haugeland
(ed.), Mind Design: Philosophy, Psychology, Artificial Intelligence, Montgomery VT, Bradford Books, pp.
95-128.
MOORE, Robert C. (1985)
"Semantical considerations on nonmonotonic logic". Artificial Intelligence, vol. 25, no. 1, pp. 75-94. Reimpreso en
Ginsberg (1987), pp. 127-136. Una versión más breve apareció en IJCAI (1983),
pp. 272--279. Véase también SRI AI Center
Technical Note 284 (1983).
REITER, Raymond. (1980) "A
logic for default reasoning". Artificial Intelligence, vol. 13, no. 1-2, pp. 81-132. Reimpreso en
Ginsberg (1987), pp. 68-93.
SHOAM, Yoav.
(1986), "Chronological ignorance: An experiment in nonmonotonic temporal
reasoning". AAAI (1986), pp. 389--393 y en Ginsberg (1987),
pp. 396-409.
SHOAM, Yoav.
(1987), "A semantical approach to nonmonotonic logic". IJCAI (1987), pp. 388-392 y Ginsberg (1987), pp. 227-250. Resumen
extenso en LICS (1987), pp. 275-279.
SHOAM, Yoav.
(1987) "Nonmonotonic logics: Meaning and utility". En IJCAI (1987), pp.
388-393.
SHOAM, Yoav.
(1988) Reasoning About Change: Time and Causation from the Standpoint of
Artificial Intelligence. Cambridge, MA:
MIT Press. Básicamente
su tesis de Yale.
ANTONIOU,
Grigoris, 1997, Nonmonotonic Reasoning. MIT Press, Cambridge, Mass.
BESNARD, Philippe, 1989, An Introduction to Default Logic. Springer Verlag, Alemania.
(Especialmente pp. 1-5 y 31-36).
BESNARD, Philippe, BREWKA,
Gerhard, FROIDEVAUX, Ch., GREGOIRE, E., SIEGEL, P., 1991,
"Nonmonotonicity", Journal of Applied Non-Classical Logics, vol. 1,
no. 2, pp. 267-310.
BREWKA, Gerhard, 1989, ``Nonmonotonic logics -a brief overview''. AI
Communications, vol. 2, no. 2, pp. 88--97.
BREWKA, Gerhard, 1991a, Nonmonotonic Reasoning: Logical Foundations
of Commonsense. Cambridge Tracts in Theoretical Computer Science 12.
Cambridge University Press, New York, NY.
BREWKA, Gerhard, DIX, Jürgen,
KONOLIGE, Kurt, 1991, ``A tutorial on
nonmonotonic reasoning''. En Nonmonotonic and Inductive Logic: Second
International Workshop. Reinhardsbrunn Castle, Germany, December 2-6, 1991.
Gerhard Brewka, Klaus P. Jantke y Peter H. Schmitt (eds.). Berlin, New York,
Springer-Verlag, Lecture notes in computer science, 659, Lecture notes in
artificial intelligence. 1993, pp. 1--88.
BREWKA, Gerhard, DIX, Jürgen,
KONOLIGE, Kurt, 1997. Nonmonotonic Reasoning: An Overview. Stanford,
California:Center for the Study of Language and Information. Lecture Notes,
Number 73.
DONINI, F. M., LENZERINI, M.
NARDI, D., Pirri, F., SCHAERF, M., 1990, ``Nonmono-tonic Reasoning''. The Artificial Intelligence Review, vol. 4,
no. 3, pp. 163-210.
ETHERINGTON, David W.,
1988, Reasoning With Incomplete
Information. Morgan Kaufmann Publishers, Londres. (Especialmente pp. 1-73 y 157-163.)
GEFFNER, Hector
Alberto, 1992, Default Reasoning:
Causal And Conditional Theories. MIT Press.
(Especialmente pp. 1-22.)
GINSBERG, Matthew L., 1987,
Readings in Nonmonotonic Reasoning, Morgan Kaufmann Publishers, Los Altos,
California.
LUKASCEWICZ, Witold, 1985, Non-Monotonic Reasoning: Formalization of
Common-sense Reasoning. Ellis Horwood, Chichester, Inglaterra. (Especialmente
pp. 77-88.)
MAREK, V. Wiktor, TRUSZCZYNSKI,
Miroslaw, 1993. Nonmonotonic Logic:
Context-Dependent Reasoning. Berlin:
Springer-Verlag.
McCARTHY, John, 1995. CS323: Nonmonotonic Reasoning. Disponible por FTP en
www-formal.stanford.edu/jmc/. Sobre
todo los capítulos 6, 8 y 10.
MINKER, Jack,
1993, ``An overview of nonmonotonic
reasoning and logic programming''. Por FTP en
ftp.cs.umd.edu:pub/prism/lpnmr.overview.jlp.ps. También en The Journal of Logic Programming, vol. 17, no. 2/3/4,
p. 95 y como Technical Report UMIACS-TR-91-112, CS-TR-2736, U. of Maryland at
College Park, MD, 1991.
PERLIS, Donald, 1987, ``Reasoning, nonmonotonic''. En SHAPIRO,
Stuart C. (ed.), 1987, Encyclopedia of
Artificial Intelligence. Wiley, New
York, pp. 848--853.
SOMBE, Léa (Phillipe Besnard,
Marie-Odile Cordier, Didier Dubois, Luis Fariñas del Cerro, Christine
Froidevaux, Yves Moinard, Henri Prade, Camilla Schwind y Pierre Siegel),
1990, Reasoning Under Incomplete
Information in Artificial Intelligence: A Comparison of Formalisms Using a
Single Example. Special Issue of the International Journal of Intelligent
Systems, vol. 5, no. 4, pp. 323--472.
Adams, Ernest W. (1975). The
Logic of Conditionals. Reidel.
Arnauld, Antoine, Nicole, Pierre 1662. La Logique ou L'Art de Penser. Paris, Ch.
Savreux. Internet available digitized version in ARTFL [LogAP].
Barwise, Jon (1977).
``An
introduction to first‑order logic''. En Jon Barwise (ed.), Handbook of
Mathematical Logic, pp. 5‑‑46.
Cito de la séptima impresión, 1991.
Bochenski,
Innocentius Maria (1962).
Formale Logik. Segunda
Edición, Freiburg: K. Alber. Traducción
de Millán Bravo Lozano, Historia de la
Lógica Formal. Gredos, Madrid,
1966.
Bradwardine (1981). "Insolubilia and Bradwardine's Theory
of Signification". Editado por Paul Vincent Spade, Medioevo VII, pp. 115‑134.
Carnota, Raúl J. (1995). "Lógica e Inteligencia
Artificial". Enciclopedia Iberoamericana de Filosofía, vol. 7. Madrid: Editorial Trotta, pp. 143-183.
Chang, Chen Chung, Keisler, H. J. (1973) Model Theory. North‑Holland
Publishing Company.
Chellas,
Brian F., Modal Logic, London,
Cambridge University Press, 1980.
da Costa, Newton C. A. (1974). “On the theory of
inconsistent formal systems”, Notre Dame Journal of Formal Logic, vol.
XV. No. 4, octubre, pp. 497‑510.
da Costa, Newton C. A. (1982). “The
Philosophical Import of Paraconsistent Logic'”, The Journal of Non‑Classical
Logic, vol. I, no. 1, pp. 1‑19.
Doyle, Jon, London, Philip
(1980). ``A selected descriptor‑indexed bibliography to the literature on
belief revision''. SIGART Newsletter, no. 71, pp. 7‑‑23.
Dumitriu,
Anton (1977). History of Logic. Volumes
I, II. Abacus Press, Tunbridge Wells,
Kent. Traducción
revisada, actualizada y aumentada de la segunda edición de Istoria Logicii, Editura Didactic , Bucarest, 1975. Traducido por Duiliu Zamfirescu, Dinu Giurc
neanu y Doina Doneaud.
Dunlop,
Charles E. M., Fetzer, James H., 1993, Glossary of Cognitive Science. New York:
Paragon House.
Fland,
Robert (1976). "Robert Fland's Consequentiae:
An Edition". Editado por Paul Vincent Spade, Mediaeval
Studies 38,, pp. 54‑84.
Fland,
Robert (1980). "Robert Fland's Obligationes:
An Edition". Editado por Paul Vincent Spade, Mediaeval Studies, vol. XLII, pp. 41‑60.
Girard, J-Y. (1987) “Linear Logic”. Theoretical
Computer Science 50, 1-102.
Glymour, Clark,
Thomason, Richmond H. (1984). ``Default
reasoning and the logic of theory perturbation''. En Non‑Monotonic Reasoning Workshop. Organizado por la American Association for Artificial Intelligence. 17‑19 de
Octubre, 1984. Mohonk Mountain House, New Paltz, NY, pp. 93‑‑102.
Hintikka,
Jaako. (1989) The Logic of Epistemology
and the Epistemology of Logic.
Kluwer, Dordrecht.
Hughes,
George Edward, A companion to Modal
Logics, London, Methuen, 1984.
Hughes, George Edward y Cresswell, M. J. Introducción a la lógica modal. Madrid,
Tecnos, 1973. Original: (1972) An
Introduction to Modal Logic, Methuen, Londres. (Primera edición 1968).
Jauch, Josef Maria. (1968)
Foundations of Quantum Mechanics,
Addison Weley.
Kneale,
William Calvert; Kneale, Martha (1986). The development of logic. Reimpresión con
correcciones. Oxford: Clarendon.
Traducida la 3a edición por J. Muguerza como El Desarrollo de la Lógica.
Tecnos, Madrid, 1980.
Lesgold, A., Glaser,
R., Rubinson, H., Klopfer, D., Feltovich, P., Wang, Y. (1988), ``Expertise in a complex skill: Diagnosing x‑ray
pictures''. En M. T. H. Chi, R. Glaser
y M. J. Farr (eds.), The Nature of Expertise. Hillsdale, N. J.: Lawrence Erlbaum Associates.
Lewis,
C. I. y Langford, C. H.: (1959) Symbolic Logic, Dover, Nueva York, )
Primera ed. 1932.
Lukasiewics,
Jan. ``I. On the Notion of Possibility. II. On Three‑Valued Logic''
(1920), en Storrs McCall (Comp.)
(1967), Polish Logic. 1920‑1939, Oxford U. P., Gran Bretaña, pp. 40‑65.
En esa misma compilación, (1930) ``Philosophical Remarks on Many‑Valued
Systems of Propositional Logic'', pp. 15‑18 y “On Determinism'', pp. 19‑39.
Marconi,
Diego (1981) “Types of Non‑Scotian Logic”', Logique et Analyse
(NS), año XXIV, No. 95‑96, sep‑dic., pp. 407‑414.
Mendelson, Elliott (1987). Introduction to Mathematical
Logic, tercera edición, Wadsworth & Brooks/Cole.
Morado, Raymundo y Beuchot, Mauricio. “Las paradojas de la implicación material y de
la implicación estricta en el siglo XX”.
Analogía, vol. 3, no. 1, 1989,
pp. 63-74.
Nute, Donald 1990. “Review of Matthew L.
Ginsberg, Readings in Nonmonotonic
Reasoning”, pp. 351‑‑355.
Orayen, Raúl (1995).
“Lógica Modal”. Enciclopedia Iberoamericana de Filosofía,
vol. 7. Madrid: Editorial Trotta, pp.
289-322.
Papalaskari, Mary‑Angela (1988) Minimal Consequence: A Semantic Approach To Reasoning With Incomplete Information. University of Edinburgh PhD Dissertation.
Papalaskari,
Mary‑Angela, Weinstein, Scott (1990) ``Minimal consequence in sentential
logic''. Journal of Logic Programming, 9, pp. 19‑‑31. Una
versión ligeramente revisada del Reporte Técnico del mismo título, MS‑CIS‑87‑43, LINC
LAB 66, Department of Computer and Information
Science, School of Engineering and Applied Science, University of Pennsylvania, Mayo 1987.
Quesada, Daniel (1995). "Lógica Clásica de Primer Orden". Enciclopedia
Iberoamericana de Filosofía, vol. 7.
Madrid: Editorial Trotta, pp. 71-104.
Reiter, Raymond
1978. “On closed world data bases”. En Gallaire, Hervé y Minker, Jack, (eds.)
1978, Logic and Databases. Plenum
Press, New York., pp. 55‑76. Reimpreso en Ginsberg
(1987), pp. 300‑‑310.
Reiter,
Raymond, Criscuolo, G. 1981. “On interacting defaults”. En Proceedings of the Seventh International Joint Conference on Artificial
Intelligence, IJCAI‑81, 24‑28 August 1981, University of
British Columbia, Vancouver, B. C., Canada. Ann
Drinan (ed.), AAAI, Morgan Kaufmann., pp. 270‑‑276. Reimpreso in
Ginsberg (1987), pp. 94‑‑100.
Robles, José Antonio (1995). “Historia de la Lógica”. Enciclopedia Iberoamericana de Filosofía,
vol. 7, Editorial Trotta, Madrid, 1995, pp. 49-69.
Senger,
Charles John (1989). Learning Legal Reasoning In Law School: The Differences
Between First And Third Year Students. Disertación doctoral, Michigan State
University.
Spade,
Paul Vincent (1981). "Three Theories of Obligationes: Burley, Kilvington,
and Swyneshed on Counterfactual Reasoning". History and Philosophy of Logic, 3, pp. 1‑32.
Stein,
Lynn Andrea (1990). Resolving Ambiguity in Nonmonotonic Reasoning. Brown University Ph. D. Thesis, entregada en Mayo de 1991. CS‑90‑18.
Swyneshed,
Roger (1979). "Roger Swyneshed's Insolubilia:
Edition and Comments". Editado por
Paul Vincent Spade, Archives D'Histoire Doctrinale et Littéraire
du Moyen Age, 46, pp. 177‑220.
TARSKI,
Alfred (1930a). ``On some fundamental concepts of metamathematics''. En Tarski (1983), pp. 30‑‑37.
TARSKI,
Alfred (1930b). ``Fundamental concepts of the methodology of the deductive sciences''. En Tarski (1983), pp. 60‑‑109.
Tarski,
Alfred. ``Foundations of the calculus of systems'', 1935. Pp. 342‑‑383
de Logic, Semantics, Metamathematics:
Papers from 1923 to 1938 by Alfred Tarski, 1983, John Corcoran (ed.),
Hackett Publishing Company, segunda edición.
TARSKI, Alfred
(1983. Logic, Semantics, Metamathematics: Papers from 1923 to 1938 byAlfred
Tarski. John Corcoran (ed.),
Hackett Publishing Company, segunda edición.
ter
MEULEN, Alice 1986. “Generic information, conditional contexts and constraints”.
In Traugott, ter Meulen, Reilly and Ferguson (1986), pp. 123‑‑145.
Troelstra, Anne Sjerp. (1991) Lectures in Linear Logic. CSLI, California.
von Wright, G. H. An Essay in Modal Logic. Amsterdam., (1951).
von Wright, G. H. Norm
and Action. Londres (1963).
Zadeh,
Lofti, “Fuzzy Sets” en Information and Control. 8, 338-353 (1965).
[1] Esta parte está basada en Morado
(2000a).
[2] Para una historia general de la
lógica se pueden consultar los trabajos de Bochenski (1962), Dumitriu (1977),
los Kneale (1986) y Robles (1995) mencionados en la bibliografía.
[3] Sobre las aparentemente insolubles
paradojas lógicas. Por ejemplo, con
Alberto de Sajonia.
[4]
Es decir, las “obligaciones” lógicas que contraemos cuando aceptamos
considerar un caso hipotético, por mor del argumento, aunque asuma un supuesto
contrario a los hechos. Para una discusión de la naturaleza y características
de las obligationes, pueden verse,
entre otros, los textos de Bradwardine (1981), Fland (1976) (1980), Spade
(1981) y Swyneshed (1979).
[5] “a precise and adequate understanding of the notion of mathematical proof”. Mendelson (1987), p. 1.
[6]
Dos clásicos sobre este tema son Brouwer y Heyting.
[7] Véase el libro de Hintikka
mencionado en la bibliografía.
[8]
Buenas referencias para lógica modal son Lewis y Langford, así como Hughes y Cresswell. También puede verse Hughes, Chellas, Morado
y Beuchot, y Orayen.
[9] Véase Jauch.
[10] Son lectura obligada los libros de
G. H. von Wright.
[11]Su creador fue Jan Lukasiewics, en los trabajos mencionados
en la bibliografía.
[12]
Creadas por Lofti Zadeh en su artículo de 1965.
[13] Son sobre todo conocidas por el
trabajo de David Lewis.
[14] La bibliografía para estas lógicas
es muy vasta. Los textos seminales son
los de Reiter, McCarthy, McDermott, Moore, Shoam, Kraus, Lehmann y Magidor.
[15] Véase, por ejemplo, Girard y
Troelstra.
[16] Sobre todo desde principios de los
80´s. Veremos esto con más detalle en
la tercera parte.
[17] En
Alfred Tarski,1935, p. 344.
[18] El que la realidad sea otra, como
con la famosa ley V de Frege, es visto como un desafortunado accidente.
[19] Sobre
los cálculos paraconsistentes, véase da Costa y Marconi.
[20] Hablo
de "monotonicidad" y sus derivados en vez de "monotonía"
para no confundir esta noción con la cercana (pero no idéntica) noción de
monotonía matemática. Esa es la práctica común en inglés, dónde se originaron
estos estudios, e incluso autores en español que prefieren hablar
"monótonamente" de vez en cuando hablan "monotónicamente"
(e. g., Carnota 1995, p. 163).
[21] Véase,
por ejemplo, Dunlop and Fetzer (1993, p. 40).
[22] ``Nonmonotonic reasoning is reasoning from true premises to likely conclusions'', Stein (1990, p. 1).
[23] Algunos
autores reservan el término ``incertidumbre'' para hablar sobre errores
numéricos.
[24] Un
ataque muy influyente contra la monotonicidad en los sistemas lógicos apareció
en Minsky (1974, p. 125).
[25] Estos
puntos son argüidos en Doyle y London (1980, p. 7).
[26] Lesgold,
Glaser, Rubinson, Klopfer, Feltovich y Wang (1988) reportan que en ciertos
contextos de aprendizaje (el andar de un bebé, la actuación de un radiologista)
se pierde parte de una habilidad para desarrollar otra más tarde. Senger (1989, pp. 88‑89) hace la
hipótesis que algo similar puede ocurrir con el desarrollo del razonamiento
legal en estudiantes de Derecho.
[27] Reiter (1980, p. 68).
[28] En ter Meulen (1986, p.
138).
[29] Reiter (1978, p. 301).
[30] De
Reiter and Criscuolo (1981, p. 98). El sujeto del ejemplo fue llamado ``John''
ahí.
[31] Un
ejemplo más complejo de este tipo es analizado en McCarthy y Hayes (1969, pp.
36‑37).
[32] Contado
en Nute (1990, p. 351).
[33] Estoica
por ser uno de los cinco ``modos indemostrables'' de Crisipo; véase William Kneale and Martha Kneale, The
Development of Logic, Oxford University Press, 1984, p. 162‑‑163.
[34] Arnauld
and Nicole (1662) expresan esta actitud:
il y a une infinité d' esprits grossiers et stupides que l' on ne peut
reformer en leur donnant l' intelligence de la verité, mais en les retenant
dans les choses qui sont `a leur portée, et les empeschant de iuger de ce
qu'ils ne sont pas capables de connoitre.
[35] Tarski
(1930a). En sentido estricto, Tarski
habla en partes del artículo sobre tipos de oraciones, pero ignora esta
sutileza no esencial en este contexto, cosa que yo también haré. Posteriormente favoreció la definición de sistemas
deductivos en términos del conjunto de todas las oraciones válidas (como
noción primitiva) en vez de Cn. Véase
Tarski (1935, p. 344).
[36] A
estos axiomas generales podemos añadir
otros especiales para la negación y el condicional material, pero éstos se
aplican sólo cuando deseamos presuponer el cálculo de oraciones bivalente
clásico, así es que no los consideraré.
[37] Tomo el término Inclusividad
(inclusiveness) de Wojcicki (1988). Wojcicki define una operación de
consecuencia como aquella que satisface Inclusividad más la
propiedad G Í Cn(D) → Cn(D 4 G) Í Cn(D) que él llama Restrictividad
(restrictiveness). La intuición
parece ser que añadir consecuencias lógicas no incrementa el poder inferencial
(véase el axioma 3). La noción tarskiana (y la monotonicidad) aparecen al
añadir el axioma 4.
[38] ``The operation Cn in the domain of sets of sentences is monotonic'',
Tarski (1930b, p. 65), y menciona otras dos formas equivalentes: ΣG Î Â Cn(G) Í Cn(Σ G Î Â G) y Cn(ΠG Î Â G) Í ΠG Î Â Cn(G). Es decir, la unión de las
consecuencias está en las consecuencias de la unión, y las consecuencias de la
intersección están en la intersección de las consecuencias.
[39] "A
► B'' significa que cualquier operador de consecuencia de tipo B es un
operador de consecuencia de tipo A. La
prueba de que ninguno de estos ►s puede ser contrapuesto se deja al
legendario lector interesado.
[40] Como
veremos en un momento, este último y crucial paso ha usado una noción fuerte de
Compacidad.
[41] Tarski (1930b, p. 65).
[42] Véase Gabbay (1985, p.
439).
[43] Minsky
(1974, p. 125) se quejaba: En cualquier sistema de lógica, todos los axiomas
son necesariamente ``permisivos''; todos contribuyen a permitir que se obtengan
nuevas inferencias. (In any logistic system, all the axioms are
necessarily ``permissive'' ‑‑they all help to permit new inferences
to be drawn). Véase también Moore (1985).
[44] Papalaskari y Weinstein
(1987, p. 3). Véase también Papalaskari (1988).
[45] Como
hacen, por ejemplo, Chang and Keisler (1973, pp. 4‑5).
[46] Llamada
Restricción del Antecedente (Antecedent Restriction) en Adams (1975, p.
17).
[47] Otra
relación que exhibe Supraclasicalidad, es el condicional material.
[48] Aparentemente
el principio de Transitividad está tan internalizado que Glymour y Thomason
(1984, p. 96) completamente lo perdieron de vista y culparon en su lugar al
Modus Ponens por esta inferencia.
[49] Morreau (1988, p. 339).
[50] Nótese
la similitud con Transitividad. Adams
(1975, p. 22), rechaza que Transitividad sea probabilisticamente aceptable,
pero acepta esta forma como universalmente probabilisticamente aceptable y la
llama Silogismo Hipotético Restringido (Restricted Hypothetical
Syllogism).
[51] Estas
son dos versiones comunes de Teorema de Compacidad de Gödel‑Malcev; véase
Barwise (1977, p. 10).
[52] Un
hecho mentionado en Tarski (1930b, p. 64).