Por: Rina Familia, docente de la Escuela de Ingeniería en Tecnologías de la Información y la Comunicación (TIC)
|
La lógica como paradigma de la programación en inteligencia artificial
Una de las tareas más colosales a la que se ha enfrentado el ser humano en los dos últimos siglos, es a la creación de Máquinas Pensantes. Así, mientras en siglos anteriores se afanaba en crear dispositivos, instrumentos, y maquinarias, capaces de multiplicar su fuerza física y su capacidad de desplazamiento, el nuevo reto se caracteriza por la búsqueda de elementos que le permitan ampliar enormemente su capacidad intelectiva. De ahí, que una de sus hazañas más prodigiosas ha sido la creación del Computador Electrónico, y lo que es más, la aparición de la Inteligencia Artificial como disciplina científica cuyas hipótesis de trabajo sustentan la posibilidad de crear PENSAMIENTO ARTIFICIAL.
Muchas de las metas que los fundadores de esta disciplina se trazaron como objetivo en 1956, fecha de su nacimiento, no se han conseguido, pero no obstante, en la consecución de las mismas se han obtenido grandes logros en el esclarecimiento de los mecanismos del “Razonamiento” y de la “Resolución Humana de Problemas”, los altos niveles de abstracción de la “Demostración de Teoremas”, “el almacenamiento y recuperación de conocimientos”, el funcionamiento de las “Redes Neuronales” que conforman el cerebro, la comunicación en “Lenguaje Natural”, los elementos más importantes de la “Percepción Visual” y el “ Reconocimiento de Voz”, en fin, las facetas más relevantes del Comportamiento Inteligente.
A pesar de que estos éxitos parciales son vistos con suspicacia por gran parte de la humanidad, los investigadores en IA han llegado a la conclusión de que para lograr máquinas que exhiban “inteligencia artificial”, se deben separar los mecanismos de razonamiento y manipulación de grandes cantidades de conocimientos, de los asociados con la voluntad, los sentimientos y el libre albedrío. Por tal razón se ha acudido al formalismo de la Lógica y su tratamiento del pensamiento y los procesos mentales, en busca de los modelos que servirían a los programas computacionales para que las computadoras “exhiban” un comportamiento inteligente.
La Lógica es el estudio de los principios y métodos utilizados para distinguir el razonamiento correcto del incorrecto; lo cual se constituye en el problema central de esta disciplina. Por tanto, los métodos y las técnicas del lógico han sido desarrollados esencialmente con el propósito de aclarar esta distinción.
El lógico se interesa por todos los razonamientos, sin tomar en cuenta su contenido, pero solamente desde este especial punto de vista. De igual modo, se interesa por la Inferencia como el proceso mediante el cual se llega a una proposición y se la afirma o niega sobre la base de otra u otras proposiciones aceptadas como punto de partida del proceso. Aunque el proceso de inferencia no concierne al estudioso de la Lógica, para cada inferencia posible hay un razonamiento correspondiente, y son estos razonamientos los que caen dentro del ámbito de la Lógica.
El campo de cuestiones que investiga la Lógica ha variado constantemente y en tal sentido, en el apartado que sigue describiremos cómo dicha evolución ha conducido a la materialización de dispositivos, máquinas y sistemas que concretizan los objetivos presentes de la Inteligencia Artificial. Para ello, reconstruiremos dicha vinculación histórica a través de la división en dos períodos claramente diferenciados: el Período Pre-Informático y el Período Informático.
1.- Período Pre-Informático
- Lógica Aristótelica
Las investigaciones en el campo de la Lógica fueron iniciadas por el filósofo griego Demócrito (460-370 ane), quien fue el primero en formular la Ley de la Razón Suficiente cuyo contenido está basado en que para que un conocimiento sea considerado como verdadero es menester que existan suficientes fundamentos para tenerlo como tal. El gran maestro Sócrates (469-399 ane) y su discípulo Platón (427-347 ane) también investigaron los problemas de la Lógica; pero fue Aristóteles (362-324 ane) el primero en estudiar de manera profunda y cabal los problemas esenciales de la Lógica al descubrir las tres leyes que se constituyen en los cimientos mismos de la tecnología actual.
La primera es la Ley de la Identidad, la cual expresa que una idea o concepto es idéntico a sí mismo; siempre que dicha idea o concepto permanezca invariable mientras sea usado o que por lo menos se puede hacer abstracción de los cambios que se pueden producir en él. Como ley se expresa mediante la fórmula “A es A”, significando con ello que en lugar de la idea o concepto “A” se puede colocar en su lugar cualquier pensamiento de contenido concreto y siempre se tendrá un juicio que se ajuste a la verdad.
La segunda ley, esto es, la Ley de Contradicción, era considerada por Aristóteles como la más fundamental de todas las leyes de la Lógica ya que las demás, bien sea directa o indirectamente, guardaban una relación con ella. Así, su enunciado plantea que si de dos juicios uno afirma algo respecto al objeto del pensamiento y otro lo niega, ambos no pueden ser verdaderos a la vez, por lo tanto, si uno es verdadero, el otro es falso. De este planteamiento se derivan las tres condiciones siguientes: 1) que los dos juicios contradictorios se refieren al mismo objeto del pensamiento; 2) que ambos juicios están enmarcados dentro del mismo tiempo; y 3) que lo que se niegue y se afirme estén considerados dentro de una misma relación.
Por último, la Ley del Tercero Excluido, la cual afirma que en presencia de dos juicios que se nieguen mutuamente, uno de los dos tiene necesariamente que ser verdadero. En este caso no habrá la posibilidad de una tercera solución, ya que siempre será uno falso y el otro verdadero: nunca podrán ser los dos falsos o los dos verdaderos; de ahí que toda tercera solución queda excluida. Es importante observar que esta ley de la lógica no determina cuál de los dos juicios es verdadero, ya que su única función es determinar que entre dos juicios opuestos, los dos no pueden ser verdaderos o falsos al mismo tiempo.
Además de estas tres leyes, Aristóteles también afirmó que el razonamiento correcto se derivaba de la aplicación de reglas estrictas de inferencia, llamadas silogismos; éstos son razonamientos deductivos mediante los cuales se infiere una conclusión a partir de premisas.
-
Mecanización de la actividad pensante
Después del período de oscurantismo que primó durante la Edad Media, en los siglos XVI y XVII se produjo una renovación en la mentalidad humana, producto del debilitamiento de la fe y del espíritu crítico y racionalista del Renacimiento que no admitía el principio de autoridad religiosa y que se lanzó a una libre interpretación de la Biblia, la sociedad y los fenómenos naturales. Así, los nuevos métodos de observación y experimentación, y el racionalismo como cosmovisión filosófica que pretende explicar todo en base a la razón, producen notables progresos en el terreno científico y preparan el campo para la aparición de las “Ciencias de lo Artificial”.
En esta etapa destacan tres pensadores que por sus trabajos precursores no pueden dejar de ser mencionados: Pascal, Leibnitz y Descartes. Los primeros intentos de reproducir con ayuda de medios mecánicos las facultades intelectivas del hombre, datan de 1641 cuando el matemático y filósofo francés, Pascal Blaise, construyó la primera sumadora mecánica.
Este hombre de ciencia expresó el siguiente punto de vista con respecto a la importancia de la máquina de calcular que creó para ayudar a su padre, contable de la corte, a realizar sus tediosos cálculos: “Esta calculadora realiza acciones que se aproximan más al pensamiento que todo lo que hacen los animales. Pero no lleva a cabo nada que permita afirmar que las máquinas, al igual que los animales, poseen deseos”.
Al igual que Pascal Blaise, el matemático Gottfried Leibnitz invirtió gran cantidad de tiempo en la construcción del primer mecanismo de multiplicar, entre los años 1673 y 1674. Es importante destacar, que a pesar de que Leibnitz no hizo grandes aportes a la Lógica, como si lo hizo con el Cálculo Infinitesimal que desarrolló simultáneamente con Isaac Newton, fe el primero en proponer un “Cálculo Universal para el Razonamiento”, al plantear la posibilidad de desarrollar métodos formales para representar el conocimiento y para resolver las disputas, calculando las respuestas a partir de esas representaciones.
Leibnitz se atrevió a afirmar que: “en el caso de que surgieran controversias tan poco necesario sería que disputasen los filósofos como que lo hicieran los contables, pues bastaría con que tomando un lápiz cada uno, y sentándose en frente de una pizarra, se dijeran uno a otro (con un amigo por testigo si lo deseasen), CALCULEMOS”.
Por otro lado, René Descartes fue un filósofo y matemático francés que con su importante obra, “El discurso del método”, inicia el racionalismo y hace de la duda metódica el punto de partida para la certeza. En otro de sus trabajos, “El tratado del hombre”, René Descartes consideraba al hombre como una “máquina viviente”. Argumentaba que todas las funciones propias de semejante máquina tales como la digestión, la circulación sanguínea, la alimentación, el crecimiento y la respiración, son consecuencias naturales de la distribución de los órganos en esta “máquina”, lo mismo que los movimientos de un reloj o de un autómata, son el resultado de la acción de contrapesos o ruedas.
Lo más importante de la obra intelectual de Descartes desde el punto de vista de este trabajo, fueron las insinuaciones que se derivaron de sus ideas sobre la creación de una “mente mecánica”. René Descartes estuvo interesado en la producción de autómatas capaces de simular el cuerpo humano, aunque era escéptico con respecto a la posibilidad de simular la mente humana. No obstante ello, otros pensadores franceses que se inspiraron en las ideas de Descartes, pueden ser considerados como los primeros en imaginar máquinas dotadas de la capacidad de razonamiento.
Tal es el caso del médico francés Julian Offray de la Mettrie quien consideraba al cuerpo humano como “una máquina que da cuerda a sus propios resortes”, en el libro titulado “L´Homme Machina” publicado por él en París en 1747. Pero lo que es más, La Mettrie consideraba que el cerebro era un órgano de pensamiento, factible de estudiarse y reproducirse por medios artificiales. También Jacques de Vaucanson, como artesano, fabricó autómatas mecánicos que fueron la admiración de Europa, a inicios del siglo XVIII, tales como patos, flautistas, etc. Vaucanson sostenía que cada una de las partes de sus autómatas eran modeladas en conformidad con los elementos similares del cuerpo humano.
Más adelante, en la Inglaterra del siglo XIX, también aparecieron hombres de ciencia que se interesaron grandemente por la mecanización del pensamiento, pero ya con una visión más cercana a la de la segunda mitad del siglo XX. Entre estos personajes se destacó Charles Babbage, matemático visionario de la Universidad de Cambridge, quien dedicó gran parte de su vida a inventar una calculadora automática capaz de llevar a cabo las complicadas operaciones aritméticas que eran necesarias para la navegación y la balística. Lamentablemente esta máquina se quedó en los planos, pues exigía la fabricación de miles de piezas de precisión y el gobierno británico le retiró su respaldo, después de haber invertido más de 17,000 libras esterlinas en su materialización.
No obstante ello y motivado por las ideas que le sugirió Ada Augusta Byron (conocida también como la Condesa de Lovelace), y quien era su más cercana colaboradora, Babbage concibió proyectos aún más ambiciosos, como el de la “Máquina de Diferencias”, la cual sería capaz de tabular cualquier función matemática y, en principio, jugar al Ajedrez. Esta máquina debería ser capaz de abordar cualquier problema aritmético, y dar la respuesta correcta siempre y cuando se moviesen las perillas apropiadas, como proyectaba su creador.
Aquí debemos puntualizar que Ada Byron fue una mujer excepcional dentro de la historia de la computación, no sólo porque corrigió errores de la obra de Charles Babbage, sino porque además de proponer el código binario en lugar del decimal empleado por Babbage, escribió descripciones de sus planes para usar un sistema de tarjetas perforadas para entrada, salida y programación de las máquinas de cálculo. Por tal razón se le conoce como la “primera programadora de computadoras” y se nombró un lenguaje de programación, ADA, en su honor.
-
Matematización de la Lógica
En otra línea de pensamiento se encontraban investigadores como George Boole quien en 1854 publicó el trabajo titulado “Investigaciones sobre las Leyes del Pensamiento”, donde éste presentó un primer esfuerzo para eliminar las ambigüedades propias del lenguaje natural que habían dominado la lógica desde la época en que Aristóteles enunció sus tres famosas leyes. Este matemático inglés del Queens College Cork, empleó un conjunto de símbolos arbitrarios para representar los juicios, como unidades básicas que componen el pensamiento. Boole afirmó que: “Si lográramos éxito en expresar las proposiciones lógicas mediante símbolos, de modo tal que las leyes de sus combinaciones se fundaran en las leyes de los procesos mentales que dichos símbolos representan, daríamos un paso adelante hacia el lenguaje filosófico”[1].
En ese notable trabajo, además, propuso que estos elementos simbólicos podían combinarse o disociarse mediante operaciones para formar expresiones, constituyéndose en una auténtica “álgebra mental”, por medio de la cual era posible llevar a cabo el razonamiento en términos abstractos, independientemente de cualquier asociación con contenidos específicos de la realidad. Boole llamó a estas operaciones como “las leyes del pensamiento”.
Por otra parte, el primer intento serio de reducción de los enunciados matemáticos a enunciados de la Lógica Formal fue iniciado por el matemático alemán Gottlob Frege, quien con la publicación de su Begriffschrift (“La notación de los conceptos”) en 1879, planteó esta posibilidad. Así, este matemático propugnaba por la búsqueda de un método para determinar la veracidad o falsedad de cualquier enunciado matemático, no importa cuán complejo éste sea. Frege trabajó en los fundamentos de las matemáticas, preparando las bases de la Lógica Simbólica llamada Cálculo de Predicados; propuso reglas de inferencia en este formalismo y justificó que se podía reemplazar la inferencia lógica mediante manipulación simbólica.
Otro hito importante para esta investigación tuvo lugar durante los primeros decenios del siglo XX, cuando se produjeron en la lógica dos importantes acontecimientos, que desorganizaron y echaron a pique gran parte de los planteamientos de David Hilbert sobre la búsqueda de un método general que determinara si una fórmula de la lógica formal podría o no declararse verdadera.
En 1901 Bertrand Russell descubrió en la teoría elemental de conjuntos una paradoja irrefutable, teoría elemental que desempeñaba un papel fundamental en el programa de reducción de la matemática a la lógica propuesto por G. Frege. Así, el problema planteado por Hilbert tenía trascendencia inmediata para los matemáticos si el esquema de Frege podía llevarse a conclusión. Si pudiera darse con un método para determinar la veracidad o falsedad de un enunciado cualquiera de la lógica formal, y de ser correctas las ideas de Frege, con tal método se podría determinar la veracidad o falsedad de un enunciado cualquiera de la matemática, sin importar su complejidad. Por tanto, si el osado reto lanzado por Hilbert tuviera respuesta afirmativa, toda la matemática hubiese sido reducida a un cálculo mecánico.
La solución definitiva a las paradojas la encontró Russell en 1906 con el desarrollo de la teoría de los tipos. Así, el resultado del trabajo de este filósofo con tales cuestiones, constituye los tres gruesos volúmenes de su libro Principia Matemática, publicados entre 1910 y 1913 junto a Alfred North Whitehead, y que pretenden llevar a cabo de modo completo y detallado, el programa logicista, reduciendo la matemática entera –y en especial la aritmética- a los principios de la lógica.
Tal ideal quedó pulverizado para siempre al aparecer en 1931 el revolucionario artículo de Kurt Gödel titulado: “Sobre sentencias formalmente indecidibles en Principia Matemática y sistemas afines”. Gödel, con apenas 25 años, demostró en esta obra que los Principia Matemática, el sistema deductivo de Alfred North Whitehead y Bertrand Russell (y lo mismo es extendido a otros sistemas relacionados con aquel, como la teoría de conjuntos ordinaria), contienen proposiciones indecidibles, es decir, proposiciones que son ciertas, pero cuya veracidad no puede ser establecida dentro del sistema. Esta es la esencia del llamado Teorema de Incompletitud.
Con mayor precisión, Gödel demostró que si un sistema como el de los Principia Matemática satisface ciertas condiciones razonables, como la de ser coherente (libre de contradicciones) entonces permite construir proposiciones que son indecidibles. Al mismo tiempo, probó que si tal sistema es coherente, no existe forma de demostrar la coherencia del sistema dentro del sistema. Con estas geniales conclusiones sentó las bases de la Metamatemática.
Los resultados anteriores son válidos para todo sistema deductivo lo suficientemente rico y complejo como para contener la aritmética. Incluso, en la aritmética ordinaria hay proposiciones que son verdaderas, pero indemostrables. No es posible, además, demostrar la coherencia de la aritmética por medio puramente aritméticos.
A pesar de esto, se puede inferir que los enunciados indecidibles en el sentido de Gödel, solamente son indecidibles en el seno de un sistema dado. En 1936, en trabajos publicados por Alan M. Turing (considerado como el padre de la Inteligencia Artificial) y Alonzo Church, quedó establecida la existencia de problemas indecidibles en un sentido más radical y profundo en la Computación Matemática.
Turing y Church demostraron la existencia de problemas para los que no hay algoritmos finitos, esto es, procedimientos descritos paso a paso, que puedan resolverlos. Entre los ejemplos de tales indecidibles absolutos se encuentra el famoso Problema de la Detención (Halting Problem) de la Máquina de Turing, de importancia fundamental en las investigaciones de Programación Automática.
Otro matemático, A. Church, alegaba que si una función matemática es computable, pudiendo calcularse su valor para todo número perteneciente a su dominio de definición, entonces la función es definible en el Lambda Cálculo. El trabajo de Church mostraba que de haber tal cosa como una función matemática expresable en el Lambda Cálculo, pero no computable, no habría método alguno para determinar si un enunciado matemático dado es o no demostrable. Turing, en cambio, comprendió que sí existía una relación técnica entre el problema de Hilbert y la noción de función computable. Al rebatir el problema de Hilbert y la noción de función computable, lo hizo de manera más directa y concreta que Church, planteando que lo que se requería, era un modelo preciso y sencillo del proceso de computación.
Según la tesis Church-Turing, una función es computable, si y sólo si, puede ser computada por una máquina de Turing o una construcción de potencia equivalente. Church, para definir algoritmo empleó el sistema matemático formal que denominó Cálculo Lambda, mientras que A. Turing usó una máquina hipotética conocida como Máquina de Turing, y por consiguiente, definió un algoritmo como un conjunto preciso de instrucciones que pueden ser ejecutado mecánicamente por su máquina simple.
En otra vertiente del pensamiento, en 1930, un teorema muy importante fue probado por J. Herbrand, quien propuso un método mecánico para probar teoremas, esto es, un método o procedimiento de decisión (tal como el planteado por Hilbert) para probar teoremas. Desafortunadamente, su método era muy difícil de aplicar, pues consumía mucho tiempo para ser llevado a cabo de manera manual.
-
Período informático
Con la invención de los computadores digitales entre los años 1945-1950, se revivió el interés por la prueba automática de teoremas, pues el computador hace posible la manipulación de la información simbólica y la mecanización de los procedimientos de prueba de teoremas. Así, en 1960, el procedimiento de Herbrand fue implementado por G. Gilmore en un computador, seguido tiempo después por un procedimiento más eficiente, el cual fue propuesto por M. Davis y R. Putnam.
Un hito de importancia trascendental en la automatización de la prueba de teoremas fue logrado por J. A. Robinson en 1965, quien propuso el Principio de Resolución, una regla de inferencia simple, altamente eficiente y fácil de implementar en programas computarizados. A partir de entonces, a este principio se le han hecho muchas mejoras.
Tiempo después, en la Universidad de Marsella, un grupo de investigación dirigido por A. Colmerauer se interesó en el método de Resolución Lineal ideado por A. Kowalski y Kuehner como una estrategia de búsqueda para encontrar pruebas de teoremas, la cual pudo ser estructurada en forma de un sistema lógico que podría ser usado como un lenguaje de programación: PROLOG (acrónimo de PROgramación en LOGica).
La idea de la Programación en Lógica tuvo su principal representante en A. Kowalski, quien en 1974 presentó un trabajo original: El Cálculo de Predicados como Lenguaje de Programación. En el mismo defiende la tesis de que la deducción puede ser usada para simular la computación, esto es, la idea fundamental de la programación en lógica: la computación es deducción.
Las mismas técnicas usadas para probar un teorema, cuando son aplicadas a áreas no matemáticas, originan sistemas deductivos de preguntas-respuestas. El siguiente paso consistió en representar el conocimiento necesario para resolver problemas en campos muy especializados, en términos de un contenido no-algorítimico y hacer que los programas trabajen en base a deducción como forma de razonamiento, en vez de computación, lo que se conoce como Sistemas Basados en el Conocimiento, de los que los Sistemas Expertos son una particularidad.
2.1 Conferencia de Darmouth
En otra vertiente del pensamiento, John McCarthy (creador del lenguaje LISP) y Marvin Minsky organizaron lo que se conoce históricamente como la Conferencia de Dartmouth en el verano de 1956, donde nació la Inteligencia Artificial (IA) como disciplina científica. Dos años antes, en 1954, moría en circunstancias trágicas Alan Turing, matemático británico cuyos trabajos en Lógica y Computabilidad Matemática, así como en la definición de Inteligencia Maquinal, fueron de trascendental importancia para la aparición de esta rama de las Ciencias Computacionales, pues propuso su famosa prueba para contestar a la pregunta: ¿Pueden las Máquinas Pensar?
Se reconoce históricamente al 1956 como el año en que nace la Inteligencia Artificial (IA) como disciplina de alta rigurosidad científica que tiene como meta fundamental el desarrollo de una teoría que explique el comportamiento en seres naturalmente inteligentes y que guíe la creación de entidades artificiales capaces de mostrar comportamiento inteligente. A esa reunión del Darmouth College también asistieron Alex Bernstein, programador de la International Business Machines (IBM) de la ciudad de New York, quien hizo referencia a un programa para jugar Ajedrez que había creado; Arthur Samuel, también de IBM, quien analizó un programa para jugar a las damas; Nathan Rochester, de la filial de IBM en Poughkeepsie, quien expuso su programación de un modelo de redes neuronales, y los precursores Herbert Simon y Allen Newell, quienes trabajaban en la Rand Corporation en Santa Mónica y en el Instituto Carnegie de Tecnología (lo que más tarde se convertiría en la Universidad Carnegie-Mellon).
A pesar de que todos los participantes en el seminario del Darmouth College reflexionaban sobre la posibilidad de crear máquinas de pensamiento artificial, sólo el equipo formado por Allen Newell y Herbert Simon habían conseguido concretar en parte sus ideas a través de su primer programa computacional: el Teórico Lógico (LT, del inglés Logic Theorist), con el cual pudieron demostar efectivamente teoremas tomados de los volúmenes de Principia Mathematica escritos por Russell y Whitehead.
A principios de 1952, conoció Newell a Simon en la Rand Corporation. Ambos estaban interesados en que las computadoras electrónicas fuesen algo más que simples “masticadoras de símbolos”. Junto a Cliff Shaw, quien también trabajaba en la RAND Corporation, Simon y Newell empezaron a estudiar otras tareas de manipulación de símbolos que podía ejecutar el computador, tales como el juego de Ajedrez y la resolución de problemas geométricos; como consecuencia de ello, llegaron a la demostración de teoremas lógicos. En 1955, equipo dirigido por Newell comenzó a diseñar el lenguaje IPL para lograr las tareas que se habían puesto como meta. El 15 de diciembre de ese mismo año, Simon simuló “a mano” la demostración de uno de los teoremas de Russell y Whitehead; dicha simulación fue hecha con tanto detalle, que todos sus colaboradores coincidieron en que el procedimiento podía ejecutarse en la Johnniac, una de las primeras computadoras cuyo nombre le fue dado en honor a John von Newmann.
La demostración de que el LT era capaz de probar teoremas fue en sí misma notable, pues logró demostrar 8 de los primeros 52 teoremas del Capítulo 2 de los Principia Mathematica. La mitad de las demostraciones, más o menos, fueron entre uno y cinco minutos; sólo unas pocas tardaron de 15 a 45 minutos; demostrando de esta manera, que había una estrecha relación entre la cantidad de elementos que abarcaba la expresión lógica y la duración de la demostración. Y lo más sorprendente, una de las demostraciones resultó ser más elegante (desde el punto de vista matemático) que la ofrecida por Russell y Whitehead medio siglo atrás.
Por otra parte, otro de los científicos pioneros de la IA, John McCarthy, planteaba ideas muy convincentes acerca de los objetivos de la IA y el modo de alcanzarlos; sostenía que el camino para obtener la inteligencia maquinal pasaba por un enfoque formal riguroso, en el cual los actos que componen la inteligencia son reducidos a una serie de relaciones o de axiomas lógicos que pueden expresarse en forma precisa en términos matemáticos. Junto con Patrick Hayes de la Universidad de Edimburgo, McCarthy escribió un artículo[2] fundamental para dicha disciplina en 1969, en el cual abogaba por el uso de un sustrato del Cálculo de Predicados, inserto dentro de un sistema destinado a comprender el lenguaje natural. Exigía allí la formalización de conceptos como causalidad, capacidad y conocimiento. En caso de adoptar un enfoque tal, sería factible emplear técnicas para la demostración de teoremas que no dependerían de los detalles de dominios particulares del saber.
La concepción de McCarthy se basaba en la coherencia interna de todo sistema de creencias, y en que todo conocimiento es concebible en términos puramente lógicos. Estas premisas tuvieron relativamente pocos seguidores, pero a pesar de ello, McCarthy siguió adherido al programa general, y procuró modificar la lógica corriente de una manera no convencional a fin de establecer un modelo para el razonamiento de sentido común. Paralelamente a esta búsqueda de McCarthy en los mecanismos de inferencia de la Lógica Clásica, otros pensadores veían en el Intuicionismo y la Lógica Intuicionista el potencial para emplearla en la construcción de entidades simbólicas artificiales que emularan la actividad pensante del ser humano.
[1] Hilston, A.M. (1963). “Logic, Computing Machines and Automation”, New York, World Publishing, pág. 163.
[2] McCarthy, J. y Hayes, P.J. “Some philosophical problem from standpoint of Artificial Intelligence”, en B. Meltzer y D. Michie comps., Machine Intelligence 4, Edimburgo, Edinburgh University Press, 1969.
Datos de la docente
- Fundadora del Instituto Virtual de Programación Avanzada (INVIPROA)
- Directora de Educación a Distancia y Virtual
- Ministerio de Educación Superior, Ciencia y Tecnología (MESCYT)
- Docente de la Escuela de TIC de UNIBE
0 responses on "La lógica como paradigma de la programación en inteligencia artificial"