CAPÍTULO VIII[1]
La formalización del sentido común
Raymundo Morado
Desde su creación la lógica fue vista, tanto por los peripatéticos como por los estoicos, como la descripción rigurosa de los patrones aceptables de razonamiento. Pero a lo largo de los siglos han cambiado nuestras ideas de lo que cuenta como “riguroso” y de lo que cuenta como “aceptable”. Hoy día el paradigma de rigor es la formalización mientras que el paradigma de aceptabilidad ha dejado de ser el razonamiento deductivo. Consideramos aceptables algunas formas de pensamiento probabilístico, inductivo, estadístico y de sentido común. El reto es señalar cuáles son esas formas aceptables y hacerlo de manera rigurosa, si es posible con la ayuda de una formalización.
Pero, ¿podemos construir algún sistema formal que capture el sentido común? Una primera objeción a este proyecto es señalar que a menudo el razonamiento de sentido común utiliza términos y conceptos vagos y por lo tanto no puede ser formalizado. Pero esta es una idea excesiva de la formalización. Para ella no necesitamos precisión en los conceptos. Basta que sean simbolizables (y continuamente simbolizamos cosas vagas), y que algunas de sus propiedades sean formalizables. No tienen que serlo todas, lo que permite que haya vaguedad e imprecisión. ¿Qué otros sentidos hay de formalizar? Por ejemplo, que tenga un sistema. Y la objeción de que las nociones no son suficientemente precisas, que son demasiado vagas, puede ser en el sentido de que no podemos encontrar un sistema, una estructura que podamos abstraer e identificar para poder hacer un sistema formal de ello. Pero las cosas vagas también pueden ser sistemáticas como prueban las lógicas borrosas.
Una segunda objeción es decir que no se puede formalizar el sentido común porque no es deductivo. Efectivamente, nuestra noción de validez tiene que ser modificada y será una noción de validez no deductiva como las que ya tenemos en probabilidad, razonamiento estadístico, inducción.
Una tercera objeción es decir que no se puede formalizar el sentido común porque es irreductiblemente intensional. Pero tenemos casos de nociones irreductiblemente intensionales que han sido formalizadas exitosamente. Por ejemplo, algunas de las nociones de necesidad, obligatoriedad y creencia. El que una noción sea intensional no significa que no podamos manejarla sintácticamente y en ese sentido formalizarla.
Una cuarta objeción es decir que no se puede formalizar el sentido común porque no es cuantificable. En parte sí lo es. Por ejemplo, hay cuantificación a través de las teorías matemáticas de las teorías de probabilidades y de las lógicas difusas. Pero la cuantificación no es una condición necesaria para la formalización. También hay lógicas meramente cualitativas como las de Reiter, McDermott y Doyle, Moore y Konolige. Podemos tener jerarquías preferenciales en las cuales haya órdenes que permitan hacer inferencias y rescatar propiedades estructurales sin necesidad de tener una métrica para ese orden.
Parece que no hay objeciones de principio al proyecto de formalizar el razonamiento de sentido común y sí muchas ventajas para el estudio del manejo de la información.
En el discurso de sentido común, igual que en el científico y el
tecnológico, la racionalidad de una inferencia y su estatus lógico deben ser
juzgados con respecto a su contexto. Esto exige un estudio riguroso de los
contextos de razonamiento científico y tecnológico, desde el contexto mínimo en
que florece la inferencia deductiva, hasta los complejos contextos inductivos y
abductivos.
Fuera de algunas ciencias formales como la matemática y la lógica, la
mayor parte de los razonamientos se justifican por referencia a contextos no
mínimos. Al cambiar el contexto, las inferencias deben ser retractadas por
completo o en parte. Esto nos enlaza con el estudio de la inferencia
no-monotónica. Los razonamientos no-monotónicos son aquellos cuyas conclusiones
son retractables a la luz de información adicional. En general, son argumentos
plausibles pero que pueden ser bloqueados y sus conclusiones retractadas si el
contexto cambia.
El caso paradigmático de inferencia no-monotónica es aquella en la que interviene crucialmente el contexto. En estos casos la inferencia no es no-monotónica por la presencia de premisas implícitas sino por la presencia de un contexto que legítima la inferencia. Al cambiar el contexto (que puede ser toda la información que hemos acumulado hasta ese momento) la inferencia puede tener puede ser bloqueada. ¿Cuáles son los requisitos de una representación aceptable del contexto para los fines de una teoría general de la inferencia? ¿Cómo podemos representar el auditorio, los presupuestos, el entrar o salir de contextos, las inferencias deductivas y no deductivas?
En la mayoría de los formalismos tenemos una idea estática de contexto y
las variaciones en el contexto quedan representadas por las premisas base.
Diferentes grupos de premisas representan diferentes contextos pero no tenemos
manera de representar, por ejemplo, el cambio en las premisas, que una premisa
deje de ser verdadera, que otra premisa sea añadida o modificada, etc. Nuestra
representación de la inferencia no-monotónica se beneficiará de que podamos
representar los cambios de contexto, entradas a, y salidas de, ellos. Aunque el
contexto sea representado simplemente como el conjunto de las oraciones que en
ese contexto son aceptadas, necesitamos también una manera de poder localizar
bajo qué contexto una determinada inferencia es aceptado para poder después
asignar crédito y responsabilidad a conclusiones que tengan que ser retractadas
al momento que su soporte desaparece. Esta estrategia fue utilizada por Jon
Doyle a mediados de los setenta para los mal llamados Truth Maintenance
Systems, que más que preservar la verdad en el sistema intentan preservar la consistencia.
Desgraciadamente, no tenemos todavía un tratamiento formal satisfactorio de la estructura lógica de los contextos y su efecto en la argumentación. En este trabajo pasaremos revista a algunas herramientas formales recientes para manejar con más rigor los factores contextuales. Examinaremos varios enfoques y propondremos una manera de tratar lógicamente a un rango amplio de contextos de inferencia. Revisaremos las formalizaciones de seis autores y concluiremos que son todas insuficientes. Surav y Akman extienden el formalismo de la Teoría de Situaciones de Barwise y Perry, y lo complementan con el Cálculo de Situaciones de McCarthy y Guha, pero falta extenderlo para que pueda incluir inferencias de sentido común en las que las excepciones no puedan ser especificables de antemano.
Fuera de algunas ciencias formales como la matemática y
la lógica, la mayor parte de los razonamientos se justifican por referencia a
contextos no vacíos. Al cambiar el contexto, las inferencias deben ser
retractadas por completo o en parte. Esto se enlaza con el estudio de la
inferencia no-monotónica. Como dijimos antes, los razonamientos no-monotónicos
son aquellos cuyas conclusiones son retractables a la luz de información adicional
y, en general, son argumentos plausibles pero que pueden ser bloqueados y sus
conclusiones retractadas si el contexto cambia. Curiosamente, algunas ideas
básicas de este desarrollo formal parecen recuperar ciertas intuiciones que ya
Aristóteles había expresado informalmente con respecto al llamado entimema
retórico.
La lógica se ocupa de
la inferencia aceptable y, en su forma extrema, de la inferencia necesaria.
Pero el que una conclusión sea necesaria, o por lo menos sensata, puede
depender del contexto. Al preguntar si una conclusión A se sigue de cierto
grupo P de premisas, es natural preguntar por el contexto de evaluación.
La usanza en lógica es tratar al contexto como premisas implícitas y a la inferencia contextual como una inferencia con premisas elididas, es decir, como un entimema en su sentido más común.[2] Su formalización es entonces como sigue:
1) El contexto es un grupo de afirmaciones.
2) Las afirmaciones se modelan con meras oraciones, trozos sintácticos de un lenguaje formal L.
3) Los grupos de oraciones se modelan mediante conjuntos.
Gracias a estas convenciones podemos modelar el que una conclusión A se
sigue de las premisas P en el contexto C, diciendo que {A} c P c
C f L, y que P c C Ö A.
La relación conjuntista AÖ@ se define de la manera habitual como inclusión del segundo término en la clausura lógica del primero. La lectura normal es decir que de P se sigue A en el contexto C justo cuando el contexto contiene información que unida a las premisas permite inferir A fuera de todo contexto. El resultado de este tratamiento es formalizar a la inferencia contextual como una inferencia acontextual entimemática.
Esta manera de
formalizar el contexto tiene varios problemas. Por ejemplo, si usamos las
reglas lógicas normales, el uso de la clausura lógica impone una noción de
omnisciencia lógica que impide modelar la inferencia cotidiana. Pero el mayor
problema es que un contexto es más que una colección de creencias. Dejando de
lado la cuestión de si nuestro conocimiento de un contexto puede ser recogido
por un conjunto de creencias, hay el riesgo de pensar que el contexto mismo
consiste simplemente de afirmaciones.
Para dramatizar el problema, considérese el caso en que el contexto legitima conclusiones contradictorias. Es común en la vida diaria, y la norma en los contextos jurídicos, tener evidencias tanto en favor como en contra de una conclusión. Eso no nos lleva a creer tanto A como 5A, sino a suspender nuestro juicio o a concluir una de las dos opciones con cierto grado de certeza, confiabilidad o probabilidad.
El contexto, pues, contiene además de creencias básicas jerarquías y grados de seguridad sobre creencias. Esto puede ser modelado como meta-creencias, o incorporado en una estructura más compleja y perspicua que un conjunto simple de oraciones representando creencias básicas. Y hay información sobre el contexto mismo, no sobre las creencias que contiene, que determina la aceptabilidad de una conclusión. Por ejemplo, una consideración contextual es la tractabilidad del problema y las limitaciones en recursos computacionales.
Al hablar sobre contextos hay el peligro de incluir la historia completa del universo. Por ello usaremos una noción que se restringe a los aspectos que afectan nuestra evaluación lógica de la inferencia. Nótese que puede ser el caso de que ni A ni B solas afecten si podemos inferir o refutar algo, y sin embargo la conjunción (A & B) sí afecte.
Una manera de entender
el contexto de una inferencia es como aquellos presupuestos y reglas que
constituyen el trasfondo epistémico de la deliberación. Un presupuesto es el de normalidad: todos
los objetos son normales. El atributo de normalidad recoge el contexto de la
deliberación y especifica cuáles son los objetos esperados, cuáles son sus
propiedades típicas, y cuáles son sus relaciones habituales. Esta información
puede ser heurística y retractable si el presupuesto de normalidad es violado.
Otro elemento del contexto de normalidad es el presupuesto de minimalidad
ontológica. A falta de información en contra, suponemos que no hay más
entidades que aquellas de las que tenemos noticias directas o indirectas.
Suponemos que no hay fantasmas ni flogisto ni magnetismo animal ni ether,
cuando nuestras teorías pueden ser modeladas sin necesidad de suponer esas
entidades. Este tipo de navaja de Ockham está plasmado en los axiomas de
circunscripción estudiados a principios de los ochenta por John McCarthy.
¿Pero, qué son los contextos?
Hay una comprensible reticencia a decir demasiado sobre el aspecto ontológico de los contextos. Guha menciona, antes de entrar a su disertación doctoral, que todos sus asesores le recomendaron no añadir nada a los debates “filosóficos y metafísicos” sobre el tema. A la larga coincidió con ellos en que era mucho mejor limitarse a asuntos puramente técnicos. Después de todo, su disertación era para un departamento de informática, comprensiblemente más interesado en las aplicaciones que en los fundamentos.
Es bien sabido que la ciencia de la computación tiene tanto que ver con la tecnología de las computadoras como la ciencia astronómica tiene que ver con la tecnología de los telescopios. La ciencia de la computación es una ciencia básica, pero tiene un énfasis computacional que a menudo separa sus temas, y delimita sus enfoques. A un filósofo no le parece prioritario que su noción de contexto pueda ser especificada al grado de ser utilizable por el aparato inferencial de una base de datos. A un computólogo no le es prioritario explicar la ontología de los objetos representados. Ambas actitudes se traducen en generalidades sobre los contextos cuando falta la presión de ofrecer algo que pueda traducirse en sistemas concretos, o de distinguir a los contextos de objetos similares como estados epistémicos, conjuntos de presupuestos o situaciones.
Empecemos aclarando que los contextos de los que hablaremos aquí son estructuras que incluyen sólo aquellos aspectos relevantes para la evaluación lógica de nuestras inferencias. Por ello no pueden coincidir con los contextos en el sentido psicológico, lingüístico, social o histórico. De igual modo no pueden coincidir con los muy amplios “contextos de descubrimiento”, aunque tienen mucho que ver con los llamados “contextos de justificación”. Lo que hay que recordar es que de momento omitiremos todos los elementos que no toquen el problema de la evaluación lógica de las inferencias. Hay inferencias reprochables desde un punto de vista estético o moral, pero nuestra noción de contexto será ciega a tales distinciones. Por supuesto, nada impide construir nociones que incluyan o se intersecten con la nuestra, pero el tema presente se circunscribe a los contextos inferenciales.
¿Cómo están estructurados los
contextos?
Es común interpretar a los contextos como estados epistémicos, y éstos a su vez como
(1) conjuntos consistentes y
(2) cerrados bajo clausura lógica de
(3) fórmulas que modelan grupos de creencias.
Este modelo funciona, por ejemplo, para modelar la práctica medieval de las obligationes como ejercicios de dialéctica contrafáctica. Sin embargo, tiene serias limitaciones.
El requisito (1) de consistencia excluye el desacuerdo explícito. Pero en una discusión entre varios agentes, no podemos limitar el contexto a las creencias consistentemente compartidas entre todos los proponentes y recipientes de las inferencias. Si lo hacemos no podremos explicar las polémicas, las tesis incompatibles y todas aquellas prácticas dialógicas en que intentamos hacer que la otra persona cambie de opinión. La representación del contexto debe permitir conjuntos inconsistentes de creencias. Y esto no sólo por la contradicción entre las opiniones de varios agentes, sino también por la posibilidad de la autocontradicción; de otra manera no podríamos modelar una inferencia tan común en filosofía como la reducción al absurdo.
El requisito (2) de clausura lógica significa que no distinguimos entre nuestras creencias y todas sus consecuencias lógicas. Pero esta distinción es importante para hablar de grados de racionalidad. No es lo mismo chocar con creencias explícitas que con sus, a veces recónditas, consecuencias lógicas.
Otra limitación es la restricción (3) a creencias. Hay factores lógicos en la estructura de los contextos que no son proposicionales. Por ejemplo, las reglas o disposiciones inferenciales no deben ser confundidas con los condicionales correspondientes. Aunque utilicemos condicionales para representar las reglas, su interpretación debe ser imperativa y no declarativa. No significan que el sistema incluya entre sus datos esas proposiciones hipotéticas, sino que ante la presencia de la prótasis el sistema tiene la opción de insertar la apódosis dentro de su grupo de aseveraciones. Puede ser visto como una disposición o como una licencia, pero no como una creencia más.
Por todo esto, una primera aproximación a la
representación de contextos inferenciales es como pares ordenados de conjuntos:
<{fórmulas}, {reglas}>. El primer conjunto son fórmulas bien
formadas de un sistema suficientemente expresivo, y el segundo es un conjunto
de reglas. Esta es
una representación popular pero necesita ser afinada tanto al interior como al
exterior. Externamente necesitamos añadir operadores para manejar las
relaciones entre contextos y entre contextos y sus contenidos. Internamente
debemos especificar las fórmulas que autorizaremos y especialmente las reglas
que tanto influyen en la naturaleza característica de los contextos.
¿Qué propiedades tienen los
contextos?
El contexto de una
inferencia cambia con el añadido o supresión de creencias o métodos, es decir,
de fórmulas o reglas. Por ello, tenemos al menos cuatro operadores de cambio de
contexto.
El primer operador es un
operador de “contracción” para proposiciones. No es una función pues puede
haber más de una manera de eliminar una proposición de manera que el resto del
sistema no permita derivarla nuevamente. Por ejemplo, si deseamos sustraer la
tesis C de un contexto <{A, B, [(A v B) ® C]}, F>, donde F es la lógica clásica, podemos hacerlo
eliminando cualquiera de las tres fórmulas generadoras del contexto, A, B o [(A v B) ® C]. Al menos una debe eliminarse pero si no
tenemos información adicional puede ser cualquiera de ellas.
El segundo es un
operador de “contracción” que toma como argumento a una regla y la sustrae del
contexto inferencial. Aquí podemos ver sólo las reglas explícitas y por ello
este operador es funcional. Aunque puede haber muchas reglas derivables, las
contracciones normales operan sobre las explícitas. Nada impide tener
operadores no funcionales sobre las reglas igual que los de contracción de
proposiciones.
Los siguientes dos operadores añaden respectivamente proposiciones y reglas y son funciones. Pueden ser definidos como la unión de los conjuntos originales con el conjunto unitario que contiene a la proposición o la regla a incluir, produciendo “extensiones” del contexto.
En términos de estos operadores podemos definir otros. Por ejemplo, es usual definir un operador de revisión de proposiciones en términos de contracción y adición. Para revisar el sistema con la proposición X, simplemente la añadimos después de haber sustraído la negación de X.
Además de los operadores y funciones de cambio de contexto, necesitamos operadores para describir las interacciones entre los contextos y las reglas y fórmulas que contienen. A continuación pasaremos revista a varias maneras de hacer esto.
La formalización de contextos en
inteligencia artificial
La necesidad práctica de
representar los contextos para procesar información mecánicamente, ha llevado
al campo de la inteligencia artificial a proponer formalizaciones de esta
noción. Con el manejo de contextos un programa de computación puede utilizar
conocimiento implícito sobre situaciones comunes. Eso permite un comportamiento
más de “sentido común” que facilita la interfase con los usuarios, y nos acerca
a poder satisfacer las exigencias de la prueba de Turing. Además, los supuestos
del contexto pueden ser abandonados cambiando de contexto sin tocar el núcleo
firme de datos explícitos.
Para McCarthy y para su alumno Guha, el contexto es un objeto primitivo sin definición, demasiado “rico” para ser completamente especificado. Por ser un objeto de nuestro dominio, podemos aplicarle predicados y functores normales, transformarlo en otros objetos, y hablar de él desde otros contextos. Ontológicamente hablando, esta formalización del contexto pasa por su completa “reificación”.
Para decir desde nuestro
contexto c0 que la proposición p es verdadera (“is true”) en el
contexto c1, escribimos c0: ist(c1, p).[3] Alternativamente, podemos “entrar”
al contexto c1 y decir que c0: c1: p.
Podemos
definir un orden parcial entre los contextos de acuerdo a su generalidad y
decir que c2 es más general que c1 (c1 £ c2). Este orden permite “elevar”
(“lift”) un hecho de un contexto c1 a otro más general c2 o
al revés. Por supuesto, yendo al contexto más general esta elevación es
no-monotónica, y presupone que todo es normal. Formalmente,
c0: "c1 "c2 "p {[(c1 £ c2) & ist(c1, p) & Øab(c1, c2, p)]
® ist(c2, p) }.
Por ejemplo, si algo es
verdad hablando sobre la natación, también lo será hablando sobre los deportes, a menos que lo que
decimos sea extraño. Al revés, si algo se aplica a los deportes también se
aplicará a la natación, a menos que la natación sea abnormal en ese aspecto
entre los deportes:
c0: "c1 "c2 "p {[(c1 £ c2) & ist(c2, p) & Øab(c1, c2, p)]
® ist(c1, p) }.
Hay otras maneras de obtener el efecto de no-monotonicidad. Cuando vamos hacia un supercontexto estamos generalizando, y cuando vamos hacia un subcontexto estamos instanciando. El supuesto de normalidad puede formalizarse en la generalización mediante un axioma de circunscripción que asume que no hay más elementos que aquellos de los que hemos hablado implícita o explícitamente. En cambio, el supuesto de normalidad puede formalizarse en la instanciación mediante una regla default que puede desactivarse en caso de excepciones.
Debido a la falta de monotonicidad, no podemos decir que un contexto que contenga todas las fórmulas y reglas que otro, tendrá también todas sus conclusiones. A menudo el contexto más rico bloqueará conclusiones que se tomaron en el más parco a falta de información en contra.
Otra ventaja de esta
formalización es que los contextos contienen parámetros que permiten
“especializarlos”. Por ejemplo, podemos especializar un contexto de discusión a
cierto tiempo o lugar. Al cambiar el valor del parámetro estamos cambiando de
contexto y nuestras reglas inferenciales pueden ser explícitamente sensibles a
tales cambios.
Esta
formalización también ayuda con el problema del cambio de significado de los
términos. Es común que un término cambie de referencias al cambiar el contexto.
Términos como “país” o “proposición científica” cambian de referentes de año en
año. Podemos ahora afirmar explícitamente que esto no ocurre, escribiendo que
un concepto C mantiene su extensión en dos contextos diferentes. Basta usar la
noción de que de uno de los contextos al otro se preserva el dominio de
aplicación del predicado P escogido para representar al concepto C:
c0: "x {ist(c1, P(x)) ® ist(c2, P(x)) }.[4]
Nada nos impide tener reglas arbitrarias entre contextos como:
c0: "x {ist(c1, P(x)) ® ist(c2, Q(x)) }.
Eso significa que podemos hacer cosas como cambiar el nombre de un predicado al cambiar de contexto.
Además de cambiar la referencia y el nombre de los conceptos, el cambio de contexto nos permite manejar rigurosamente las ambigüedades sistemáticas. Usaremos como ejemplo un fenómeno común en la literatura sobre programación lógica, pero raro en filosofía, el del cambio de aridad de predicados. Puede haber una ambigüedad sistemática en la que la aridad cambie de acuerdo al contexto de aplicación. Por ejemplo, hay verbos como “despertar”, que pueden ser monádicos (“Juan despertó”) en ciertos contextos y diádicos (“Juan despertó a su público”) en otros, rigiendo acusativos. Un sistema de Prolog puede estar diseñado para detectar automáticamente el número de argumentos que recibe un predicado y asignar el concepto adecuado. Despertó(juan) se lee automáticamente como “Juan se despertó”, mientras que Despertó(juan, pedro) se lee como “Juan despertó a Pedro”. De hecho, el contexto puede cambiar de acuerdo a la naturaleza del segundo argumento: Despertó(juan, sospechas) cambia el sentido de la relación. Por ello el contexto en el que se evalúa Despertó(juan, y) puede ser una función f(y):
c0: "x "y {ist(c1, P(x)) ® ist(f(y), P(x, y)) }.
En sistemas donde hay un lazo más estrecho entre concepto y representación, se rechaza la ambigüedad sistemática (aunque no es realmente ambigüedad), y se usan diferentes nombres para señalar que el cambio de aridad implica un cambio en el concepto (por ejemplo, “Despertose”, “Despertó-A-Alguien” y “Despertó-Algo”). El esquema de individuación de Barwise y Perry da diferentes nombres al cambiar la aridad, y el sistema de Giunchiglia llega a asignar un lenguaje diferente a cada contexto. Esto previene confusiones pero al tratar de eliminar la ambigüedad impide mostrar la ambigüedad sistemática dentro del sistema mismo.
Para entrar a un contexto podemos asignar dinámicamente “asumiendo(c)”. Por ejemplo, en un sistema de deducción natural esa aserción produciría una subprueba dentro de la cual pueden usarse todas las reglas y creencias de c. En un programa lógico produciría un punto de elección del que se desprende una rama en el árbol de búsqueda. Con un comando simétrico podemos cerrar la subprueba o podar la rama. Y las reglas entre contextos nos señalarían cuales resultados pueden ser exportados fuera del contexto en que se obtuvieron.
Pero, nuevamente, ¿qué son los contextos?
Un contexto puede ser
visto como un tipo o clase de situaciones. En 1969 John McCarthy introdujo un Cálculo de situaciones en Inteligencia Artificial y en 1983 Jon Barwise
y John Perry presentaron una Teoría de
Situaciones. Aunque tenían puntos en común, tanto las nociones básicas como
sus desarrollos fueron diferentes. En 1995 Mehmet Surav y Varol
Akman de Turquía presentaron un panorama de formalizaciones de la noción de
contexto y específicamente relacionaron el Cálculo de Situaciones de
McCarthy con la Teoría de Situaciones de Barwise y Perry.
Aunque el contexto para
McCarthy es un objeto no especificado, podemos verlo como un tipo de
situaciones específicas, es decir, un tipo de partes de la realidad y esto es
cercano a lo que Barwise y Perry entienden por situación. De hecho, una
situación en el sentido de McCarthy parece cercana a lo que Barwise llama
“situaciones fundamentales (grounding)”. A grandes rasgos, una situación
en el sentido de McCarthy puede ser vista como un contexto de una situación en
el sentido de Barwise y Perry.
Surav y Akman proponen
entender un contexto como una amalgama de situaciones y las reglas que
gobiernan sus relaciones en ese contexto. Sin entrar en detalles innecesarios
en este momento, una situación S es un grupo parcial de hechos que se modelan
con un conjunto de unidades de información I verdaderas para S: {I | S ╞
I}. Un tipo de situación se abstrae parametrizando una unidad de información.
Así podemos hablar del tipo T de situación S en que el hecho H ocurre: T = [S | S╞ H].
Estos tipos de situaciones pueden considerarse contextos de los que pueden
obtenerse tanto relaciones condicionales como información que describe, así sea
incompletamente, hechos categóricos.
Veamos un ejemplo, adaptado de Surav y Akman. Supongamos que queremos formalizar el que, al menos en el contexto U de la UNAM, los exámenes de doctorado en filosofía cuentan con el asesor de la tesis como parte del jurado.[5] Esto quiere decir que en el contexto U, el tipo de situaciones Sa donde es verdad (“1”) que el asesor es x, involucra al tipo de situaciones Sj en que x es un miembro del jurado, al menos en las situaciones F donde el examen es de filosofía. Formalizado,
Sa
╞ << asesor, x, 1 >>
Sj
╞ <<jurado, x, 1 >>
U
╞ << involucra, Sa, Sj, F >>
o, más sintéticamente,
U Î [Sa Þ Sj | F ] .
Si queremos generalizar el contexto a cualquier universidad que sea como la UNAM, basta decir
U = [Sa Þ Sj | F ] .
Por supuesto, el trasfondo F puede ser asimilado en la especificación de la situación Sa; la ventaja de tenerlo por separado es facilitar la manipulación de supuestos que inducen no-monotonicidad.
Insuficiencias de la representación
Un problema importante en la formalización de Surav y Akman es su manejo de las
inferencias no-monotónicas. Recordemos algunos hechos básicos sobre este tipo
de inferencias.
Los
desarrollos recientes en Inteligencia Artificial han enfatizado que los
procesos deductivos de pensamiento son relativamente sencillos de reproducir
mientras que las inferencias diarias o de sentido común son mucho más difícil
de reconstruir, si hay poco lugar para el error y la revisión. Ya que una
completa certeza en los fundamentos no es el caso normal, a menudo necesitamos
saltar de nuestro conocimiento incompleto a conclusiones que avancen nuestras
indagaciones. Así pues, un sujeto epistémico capaz de enfrentar retos mínimos en
el mundo real, sea una computadora o un humano, necesita poder manejar
descripciones incompletas y/o inconsistentes sobre qué estado de cosas ocurre.
Normalmente usamos reglas que, aunque llevan a conclusiones retractables,
garantizan un mínimo de racionalidad. La posibilidad del error conlleva la
necesidad de retractar creencias.
Una
amplia gama de fenómenos puede ser relacionada con la no-monotonicidad. Esto ha
producido diferentes enfoques, aparentemente inconexos. Afortunadamente, casi
todos estos fenómenos comparten importantes propiedades formales y el estudio
de un tipo puede iluminar el estudio de otros.
Decimos que una función f es monotónica bajo un orden O ssi O(x,y) implica O(fx, y).
En el caso de razonamiento monotónico, O
es la relación “implica” y f es
cualquier función que añada contenido semántico. En otras palabras, añadir
información a las premisas debiera preservar la conclusión. E. g., (F Þ Y) sólo si (Fi Ù X) Þ (Y). (En términos de uniones de conjuntos de
piezas de información: Si G
≤ D
entonces G È X
≤ D.)
Tarski
habla de la operación monotónica Cn que arroja un conjunto de consecuencias a
partir de un conjunto de oraciones,[6]
y la lógica clásica, lo mismo que las intuicionistas y modales son llamadas
monotónicas porque la adición de información no afecta la validez de la
inferencia deductiva.[7]
Esto es formalmente análogo a la
regla de Debilitamiento que aparece en lógica combinatorial como el
combinador K. En lógica algebraica corresponde al pricipio de límite inferior a°b
≤ b. En algunos sistemas de deducción natural (o cálculos de secuencias
tipo Gentzen) Debilitamiento aparece como G, D ├ F / G, Y, D ├ F.
Por
otro lado, una relación de orden O no-monotónica es aquella que viola la
regla de que si F≤Y bajo O, entonces g(F) ≤ g(Y), para cualquier función g que
incremente contenido semántico. Por ejemplo, si substituimos g(a) por (a Ù X), tenemos que F
≤ Y no
implica (F Ù X) ≤ (Y Ù X). Incrementar nuestro conocimiento de F a F Ù X puede impedirnos inferir Y.
La analogía entre monotonicidad y
Debilitamiento no es perfecta, pero ha llevado a aplicar el término no-monotonicidad
al rechazo de Debilitamiento. Otra caracterización es decir que el razonamiento
monotónico ocurre cuando las inferencias se preservan bajo aumento de premisas:
las reglas de inferencia son siempre de la forma “F es un teorema si Y_1 ,...,Y_n son teoremas”. En contraste,
el razonamiento no-monotónico ocurre cuando las inferencias no se preservan
bajo aumento de premisas: las reglas de inferencia pueden ser de la forma “F es un teorema si Y_1 ,...,Y_n no son teoremas”. Se dice
que las reglas de inferencia hacen a los axiomas permisivos o restrictivos.[8]
Hay que notar que hay otras
operaciones no-monotónicas que no se relacionan directamente con incremento de
información. Por ejemplo, podemos definir una noción de consecuencia mínima[9]
como G ╞m F iff "M ( [
M╞ G Ù "N
(N╞ G Þ N Ë M) ] Þ
M╞ F ). Es decir, cualquier modelo mínimo de G modela F. Si definimos modelos como
conjuntos de oraciones atómicas F, Y, ... y estipulamos que G ╞ ØF ssi F Ï G,[10]
es claro que Ø╞m ØF, pero no Ø È F
╞m ØF. Esta consecuencia
mínima es no-monotónica en el sentido de que ampliaciones de los modelos
pierden consecuencias. Pero, por nuestra estipulación sobre Ø, las
ampliaciones no se producen por un mero incremento de conocimiento pues
determinan explícitamente todo lo que es el caso e implícitamente todo lo que
no. Agrandar estos modelos representa un incremento de información ``positiva''
tanto como un decremento de la información ``negativa''. En contraste, la
noción de no-monotonicidad que buscamos es no-monotonicidad bajo incremento
total de información, tanto positiva como negativa.
Veamos ahora cómo
manejarían Surav y Akman el ejemplo clásico de una regla “Los A son
generalmente B, aunque a, b, g... son raros casos en que un A no
es B”. Llamaremos al tipo de situación en que x es un A, SA, cuando
x es un B, SB, y cuando todo es normal N. La formalización arroja
SA
= [S | S ╞ <<A, x, 1>>]
SB
= [S | S ╞ <<B, x, 1>>]
Podemos ahora decir que en el contexto C los A son B, bajo el supuesto de normalidad N:
C = [SA Þ SB | N ] .
Desgraciadamente, esta
formalización tiene el defecto, ya notado por McCarthy y Hayes en 1969, de que
es prácticamente imposible especificar en situaciones interesantes todos los
casos a, b, g, etcétera que bloquean la
conclusión. Aunque N recoge a, b y g, lo interesante de las reglas
no-monotónicas es la falta de especificación del “etcétera”. El formalismo debe
ser ampliado con reglas no-monotónicas en vez de tratar a las inferencias
no-monotónicas como si simplemente tuvieran premisas escondidas. Explicaré eso
un poco más recordando algunos aspectos de las inferencias entimemáticas.
Una vez
que hemos separado racionalidad de deducibilidad podemos expandir nuestra
noción de inferencia. Una noción de razonamiento no-monotónico se puede hallar
ya en la noción aristotélica del silogismo retórico o entimema. Las formas
interesantes de retractabilidad en razonamiento por defecto se deben a su
contextualidad. Si hay, como yo sospecho, una referencia implícita a un
contexto, al cambiar éste la inferencia deja de ser razonable. Los cambios en contexto
cambian el grado de ``razonabilidad'' de las inferencias por defecto. Lo que hace a tales inferencias
retractables no es la incertidumbre de las premisas o de la conclusión, sino el
que su apoyo dependa crucialmente de su contexto. Así pues, en vez de
representar relaciones por default sin relación a la base de creencias, debemos
representarlas como relativas
a esa
base.
El entimema aristotélico, como
varias otras formas de razonamiento, incluye un sentido de corregibilidad en la
inferencia en el cual el razonamiento sigue siendo correcto aun después de ser
cancelado. La retractabilidad no es falta de deducibilidad pues es posible
inferir por defecto algo necesario. La implicación no-monotónica puede ser el
caso incluso cuando falla la material (y por ende la estricta y la
contrafáctica).
Un condicional no-monotónico no
queda invalidado por la información extra sino simplemente desactivado. La
retractabilidad de la inferencia por default significa que es bloqueada por
información adicional igual que aseveraciones condicionales. Es decir, la nueva
información no implica que la regla haya sido indebidamente aplicada sino que
ya no se puede aplicar.
Un punto a enfatizar es que la
inferencia es aceptable aun después de que nos damos cuenta que la relación
inferencial puede suspenderse al añadir información. Con el mismo cuerpo de
creencias, aceptamos F lleva
a Y y rechazamos que (F Ù X) lleva a Y. La
inferencia
se mantiene aunque sabemos que depende de nuestra ignorancia.
Esto no
significa que el contexto contiene suficientes premisas implícitas para hacer a
la inferencia cierta si fueran hechas explícitas. Tal enfoque asimilaría a las
inferencias no-monotónicas con argumentos con premisas tácitas que hubieran
hecho a la inferencia
monotónica
si tan sólo hubieran sido explícitas. Esta es la interpretación del entimema
como un silogismo incompleto, con una inferencia clásica agazapada en el
silencio. Claro que esto puede ocurrir, pero si toda la fuente de la
falibilidad es el silencio, la única manera de forzar la retracción de una
inferencia sería contradiciendo uno de los supuestos callados, y sacándolo a la
luz.
El
razonamiento no-monotónico es más que razonamiento clásico à clef. Aun teniendo todo el trasfondo de
supuestos, la inferencia puede no ser segura, sólo altamente aceptable. La
nueva información ni siquiera necesita contradecir al trasfondo de creencias
para bloquear la inferencia de la conclusión, ya que no había en primer lugar
ningún conjunto de supuestos que forzaban la conclusión tras bambalinas. En una
inferencia no-monotónica nuestras premisas pueden ser insuficientes para la
conclusión incluso después de haber tomado en cuenta los supuestos implícitos.
Aun así el contexto puede hacer a la inferencia razonable aunque la nueva
evidencia puede bloquear la inferencia previa al ofrecer fuerte evidencia para
una tesis rival. (Pero
nunca tuvimos, ni lógica ni psicológicamente la premisa implícita de que tal
evidencia no existiera como quieren ciertos autores.) No se trata de que el
trasfondo sea verdadero y callado, sino de que sea aceptado y dependa del
contexto.
Ejemplo
de aplicación
Veamos, para finalizar, un ejemplo.
Darmstadter ofrece un ejemplo útil de tres oraciones creídas por un joven
llamado Archie:
(A1) Un auto no enciende
si la batería está descargada.
(A2) Un auto con una
batería descargada enciende si se le empuja.[11]
(A3) Se ha empujado
autos con baterías descargadas.
A3 dice que hubo una instancia de
auto que cumplió la condición para A1 y por lo tanto no debió encender. Pero A3
también dice que el auto cumplió las condiciones para A2, así es que debió
encender. Estas tres oraciones son conjuntamente inconsistentes. ¿Por qué
tendemos a aceptar esas tres aseveraciones? En el contexto de explicar que un
auto no encienda, nos dice Darmstadter, (A1) es aceptable. Pero una vez
diagnosticado el problema, pasamos a tratar de solucionarlo, empujando el auto.
Una vez que la explicación es dada, el contexto cambia y, en el nuevo contexto
de predecir como reaccionará el auto al empujón (A1) ya no es aceptable. Aunque
las creencias de Archie hayan sido inconsistentes, esa inconsistencia careció
de importancia y posiblemente ni siquiera fue notada; la razón es que no hubo
un único contexto en el cual fueran aceptables tanto (A1) como (A2) y (A3).
Bibliografía
ADAMS, Ernest W. (1975) The Logic of Conditionals.
Reidel.
APT,
Krzysztof, R. (ed.) (1985) Logics and Models of Concurrent
Systems;Proceedings of the NATO Advanced Study Institute on Logics and Models
of Concurrent Systems held at La Colle-sur-Loup, France, 8-19 October 1984.
NATO ASI series. Series
F, Computer and System Sciences; vol. 13. Berlin, Springer-Verlag.
BARWISE,
Jon (1977) ``An introduction to first-order logic''. En Jon Barwise (ed.), Handbook
of Mathematical Logic, pp. 5-46. Cito de la séptima impresión,
1991.
CHANG,
Chen Chung, KEISLER, H. J. (1973) Model Theory. North-Holland Publishing
Company.
DOYLE,
Jon, LONDON, Philip (1980) ``A selected descriptor-indexed bibliography to the
literature on belief revision''. SIGART Newsletter, no. 71, pp. 7-23.
DUNLOP,
Charles E. M., FETZER, James H. (1993) Glossary of Cognitive Science.
New York: Paragon House.
GABBAY,
Dov M. (1985) ``Theoretical foundations for non-monotonic reasoning in expert
systems''. En Apt (1985),
pp. 439-457.
GINSBERG,
Matthew L. (1987) Readings in Nonmonotonic Reasoning, Morgan Kaufmann
Publishers, Los Altos, California.
GLYMOUR,
Clark, THOMASON, Richmond H. (1984) ``Default reasoning and the logic of theory
perturbation''. En Non-Monotonic Reasoning Workshop. Organizado
por la American Association for Artificial Intelligence. 17-19 de Octubre, 1984. Mohonk Mountain House, New Paltz, NY, pp. 93-102.
KANDEL,
Stephen, GERROLD, David (writers) (1967) I, Mudd. Episodio
con número de producción 41 de la serie de televisión Star Trek.
Transmitido el 3 de noviembre de 1967. Producido por Desilu Studios (Paramount)
en asociación con Norway Corp. para
la National Broadcasting Company.
LESGOLD,
A., GLASER, R., RUBINSON, H., KLOPFER, D., FELTOVICH, P., WANG, Y. (1988)
``Expertise in a complex skill: Diagnosing x-ray pictures''. En M. T. H. Chi,
R. Glaser y M. J. Farr (eds.), The Nature of Expertise. Hillsdale, N.
J.: Lawrence Erlbaum Associates.
McCARTHY,
John, HAYES, P. (1969) ``Some philosophical problems from the standpoint of
artificial intelligence''. En B. Meltzer y D. Michie (eds.),Machine
Intelligence, vol. 4, Edinburgh University Press, Edinburgh, American
Elsevier, New York, pp. 463-502. Reimpreso en B. L. Webber y N. J. Nilsson
(eds.), Readings in Artificial Intelligence, Tioga, Palo Alto,
California, pp. 431-450, (1981). Tambié reimpreso en McCarthy
(1990). Un resumen aparece en el número de febrero de 1969 (No. 14) de la ACM SIGART Newsletter. Cito de la reimpresión en
Ginsberg (1987), pp. 26-52.
MINSKY,
Marvin Lee (1974) A framework for representing knowledge. Artificial
Intelligence Memo 306, MIT AI Lab. Reimpreso sin el apéndice en The
Psychology of Human Vision, Patrick H. Winston (ed), McGraw Hill, NY,
(1975), pp. 211-277. Otros fragmentos fueron reimpresos como ``Frame-system
theory'' en R. C. Schank y B. L. Webber (eds.), Proceedings of the 1975
TINLAP (Theoretical Issues in Natural Language Processing) Conference,
Cambridge, Massachusetts, 1975, reimpreso en P.N. Johnson-Laird y P. C. Wason
(eds.), Thinking: Readings in Cognitive Science, Cambridge, England:
Cambridge University Press. Cito de los fragmentos (diferentes) en J. Haugeland
(ed.), Mind Design: Philosophy, Psychology, Artificial Intelligence,
Montgomery VT, Bradford Books, pp. 95-128.
MOORE,
Robert C. (1985) ``Semantical considerations on nonmonotonic logic''. Artificial
Intelligence, Vol. 25, no. 1, pp. 75-94. Una versión más breve apareció en
IJCAI (1983), pp. 272-279. Véase también SRI AI Center Technical Note 284
(1983). Cito de la reimpresión en Ginsberg (1987), pp. 127-136.
MORADO, Raymundo (2007). “El entimema
retórico y la inferencia no monotónica”. En Martínez Contreras, Jorge y Aura
Ponce de León, eds., El saber filosófico. México: Siglo XXI, Asociación
Filosófica de México, vol. II, pp. 321-332.
NUTE,
Donald (1990) ``Review of Matthew L. Ginsberg, Readings in Nonmonotonic
Reasoning''. Pp. 351-355.
PAPALASKARI,
Mary-Angela (1988) Minimal Consequence: A Semantic Approach To Reasoning
With Incomplete Information. University of Edinburgh PhD Dissertation.
PAPALASKARI,
Mary-Angela, WEINSTEIN, Scott (1990) ``Minimal consequence in sentential
logic''. Journal of Logic Programming, 9, pp. 19-31. Una versión
ligeramente revisada del Reporte Técnico del mismo título, MS-CIS-87-43, LINC
LAB 66, Department of Computer and Information Science, School of Engineering
and Applied Science, University of Pennsylvania, Mayo 1987.
REITER,
Raymond (1978) ``On closed world data bases''. En Gallaire and Minker (1978),
pp. 55-76. Cito de la reimpresión en Ginsberg (1987), pp. 300-310.
REITER,
Raymond (1980) ``A logic for default reasoning''. En Artificial
Intelligence, vol. 13, no. 1-2, pp. 81-132. Cito de la reimpresión en
Ginsberg (1987), pp. 68-93.
REITER,
Raymond, CRISCUOLO, G. (1981) ``On interacting defaults''. En Proceedings of
the Seventh International Joint Conference on Artificial Intelligence. IJCAI-81, 24-28 de agosto de 1981,
University of British Columbia, Vancouver, B. C., Canada. Ann Drinan (ed.),
AAAI, Morgan Kaufmann, pp. 270-276. Cito de la reimpresión en
Ginsberg (1987), pp. 94-100.
SENGER,
Charles John (1989) Learning Legal Reasoning In Law School: The Differences
Between First And Third Year Students. Disertación doctoral, Michigan State
University.
STEIN,
Lynn Andrea (1990) Resolving Ambiguity in Nonmonotonic Reasoning. Brown
University Ph. D. Thesis, entregada en Mayo de 1991. CS-90-18.
SURAV,
Mehmet, AKMAN, Varol (1995). Reporte Técnico LAFORIA 95/11 “Modelling Context
with Situations”. En Brezillon, Patrick y Abu-Hakima, Suhayya (eds.), Proceedings
of the IJCAI-95 (Fourteenth International Joint Conference on Artificial
Intelligence) Workshop on Modelling Context in Knowledge Representation and
Reasoning, Montreal, Canadá, 20-25 de agosto de 1995. Páginas 145-156.
TARSKI,
Alfred (1930a) ``On some fundamental concepts of metamathematics''. En Tarski (1983), pp. 30-37.
TARSKI,
Alfred (1930b) ``Fundamental concepts of the methodology of the deductive
sciences''. En Tarski (1983),
pp. 60-109.
TARSKI,
Alfred (1935) ``Foundations of the calculus of systems''. En Tarski (1983), pp. 342-383.
TARSKI,
Alfred (1983) Logic, Semantics, Metamathematics: Papers from 1923 to 1938 by
Alfred Tarski. John Corcoran (ed.), Hackett Publishing Company, segunda
edición.
ter
MEULEN, Alice (1986) ``Generic information, conditional contexts and
constraints''. En Elizabeth Closs Traugott, Alice ter Meulen, Judy Snitzer
Reilly y Charles A. Ferguson On Conditionals, pp. 123-145. Cambridge:
Cambridge University Press.
[1] En María José Frápolli Sanz (coord.) Filosofía de la Lógica. Madrid, España: Editorial Tecnos, pp. 233-253, 2007.
[2] Hay otros sentidos, más cercanos a la intención original de Aristóteles, pero la interpretación del entimema como un razonamiento con premisas omitidas es la más común. Cfr. Morado (2007).
[3] Repetiremos esta referencia al contexto externo para evitar las paradojas que Attardi y Simi señalaron a McCarthy.
[4] Por mor de la generalidad, x es un vector de variables.
[5] Creo que esto indica menos el deseo del asesor de ser juez y parte que el hecho de que sólo se trata de una defensa nominal de la tesis de doctorado.
[6] Tarski (1930b, p. 65).
[7] Véase Gabbay (1985, p. 439).
[8] Minsky (1974, p. 125) se quejaba: En cualquier sistema de lógica, todos los axiomas son necesariamente “permisivos”; todos contribuyen a permitir que se obtengan nuevas inferencias. (“In any logistic system, all the axioms are necessarily “permissive” –they all help to permit new inferences to be drawn”). Véase también Moore (1985).
[9] Papalaskari y Weinstein (1987, p. 3). Véase también Papalaskari (1988).
[10] Como hacen, por ejemplo, Chang and Keisler (1973, pp. 4-5).
[11] Es claro en este contexto que se piensa sólo en autos de tipo “estándar”.