La Realidad Virtual en la Educación

Escrito por: Raisa Hidalgo, docente escuela Ingeniería en Tic

 

La Realidad Virtual en la Educación




Evalúe el Diseño y la Usabilidad de su sitio web como si fuera un experto

Escrito por: Ing. Willis E. Polanco Caraballo, MSc, docente de la escuela de Ingeniería de TIC

 

Evalúe el Diseño y la Usabilidad de su sitio web como si fuera un experto




Las TIC como herramienta transversal

Por: Leipzig Guzmán Mena, Directora de la Escuela de Ingeniería TIC

Las TIC como herramienta transversal

Las Tecnologías de la Información y Comunicación (TIC) han jugado un papel trascendental en el desarrollo de la humanidad, lo cual ha motivado que hoy muchos le llamen Era Digital, Sociedad de la Información (término acuñado por el sociólogo Japonés Yoneji Masuda |1905-1995)  y del Conocimiento, Sociedad Red (Manuel Castells Oliván, sociólogo y profesor universitario español |1945- ), entre otros.

 

El uso intensivo de las TIC en la cotidianidad, productividad y desarrollo continuo tanto a nivel personal, profesional, gubernamental y corporativo hace que sean consideradas una herramienta transversal, ya que toca las diversas áreas del saber a diferentes niveles.  Por ejemplo,  a las TIC aplicadas al control de los hogares, se le llama Domótica;  Cuando se trata del uso eficiente y eficaz de las TIC en la industria y producción, es denominada Inmótica.

 

Las TIC han venido a complementar las soluciones que ofrecen las diferentes áreas del saber a las necesidades humanas, que en un momento podían ser complejas y extensas pero que hoy pueden llegar a ser tan simples que resultaría casi imposible visualizarnos sin el soporte de la tecnología en nuestra vida diaria y en nuestra cultura.

 

Estas soluciones tecnológicas nos han facilitado el diario vivir, entregándonos en muchas ocasiones mejor calidad de vida, ahorro de tiempo y recursos, incluso comodidades que han sido posible gracias al desarrollo sostenido y continuo de las TIC. Podemos señalar entonces la importancia de Las Tecnologías de la Información y Comunicación como herramienta transversal en el desarrollo sostenido de los sectores productivos de nuestra innovadora sociedad.

 

Al hablar de transversalidad de las TIC nos referimos a la colaboración de la tecnología  con las diversas ramas del conocimiento, de forma tal que sea posible aportar soluciones y propuestas de valor a través de esta cooperación cruzada.  En este sentido, las TIC como herramienta transversal han creado una plataforma de creación de proyectos innovadores que nos han beneficiado en gran manera en la vida moderna rodeada de tecnología como redes sociales y conectividad global.

 

Algunos ejemplos que podemos citar:

 

  • Las TIC en la Educación.

Es común escuchar el término “tecnología educativa”, refiriéndose al uso de herramientas tecnológicas  con fines pedagógicos, integrándolas a la enseñanza en las aulas con la finalidad de lograr dinamismo, colaboración, interacción y mejor asimilación del aprendizaje.

El uso de aulas virtuales, semi-presencialidad, redes sociales, entre otros, relacionados con innovación educativa, es cada día más frecuente en la educación moderna.

Es así que ha ido cambiando paulatinamente el ambiente de trabajos en papel por trabajos electrónicos, la pizarra convencional por pizarras digitales  y/o  proyecciones, interacciones de corto tiempo por interacciones virtuales prácticamente en tiempo real.

  • Las TIC y la Arquitectura.

En este punto mencionaremos como uno de múltiples ejemplos el logro de una buena interacción entre el ser humano, la tecnología y los espacios interiores, a través de sistemas automatizados que permiten controlar entornos de forma virtual. Es decir, lograr mediante la tecnología, controlar espacios cerrados con la finalidad de ahorrar energía, comodidad, seguridad y tener acceso en todo momento al lugar para gestionar los elementos permisibles dentro del sistema tales como calefacción, acondicionadores de aire, luces, ventanas, puertas, energía eléctrica en general, entre otros.

  • Las TIC y la Salud.

El uso de las Tecnologías de la Información y Comunicación iniciando con el diagnóstico y  seguimiento del paciente, gestión administrativa y equipos de última generación.  En este sentido se trabaja desde el historial del paciente, telemedicina (asistencia remota de médicos), como con sistemas de gestión de estos centros de salud.

  • Las TIC y la justicia.

La justicia también da respuesta a los nuevos retos de la sociedad y la modernidad mediante el uso de las TIC, tales como la cibercultura judicial, seguimientos de casos, asesoría virtual, sistemas biométricos, herramientas para detección y seguimiento de crímenes y delitos de alta tecnología, entre otros.

En conclusión, las TIC juegan un papel determinante en el desarrollo de nuevas modalidades de enseñanza, formas hacer negocios, seguridad, comunicación, medicina, administración de justicia, leyes, gobierno, entre muchas otras, permitiendo acceso a la experticia colectiva a nivel global a través de la Internet, impactando de manera positiva nuestras vidas y la forma en que interactuamos.

 


Breve perfil profesional de la autora:

Directora Escuela Ingeniería TICs.  Egresada de Ingeniería en Telemática y de la Maestría en Administración de Empresas de la Pontificia Universidad Católica Madre y Maestra PUCMM. Con más de 18 años en el área de tecnología, formó parte de varias empresas en el área telefónica, tales como All America Cables and Radio, TRICOM ocupando la posición de Gerente de Sistemas y Soporte de Gestión y Calidad de la Red. Actualmente es copropietaria y Gerente de Mercadeo y Ventas para TeknowLogic Dominicana, posición que manejará paralelamente con nuestra institución. 




La lógica como paradigma de la programación en inteligencia artificial

Por: Rina Familia, docente de la Escuela de Ingeniería en Tecnologías de la Información y la Comunicación (TIC)

 


La lógica como paradigma de la programación en inteligencia artificial

Una de las tareas más colosales a la que se ha enfrentado el ser humano en los dos últimos siglos, es a la creación de Máquinas Pensantes.  Así, mientras en siglos anteriores se afanaba en crear dispositivos, instrumentos, y maquinarias, capaces de multiplicar su fuerza física  y su capacidad de desplazamiento, el nuevo reto se caracteriza por la búsqueda de elementos que le permitan ampliar enormemente su capacidad intelectiva.  De ahí, que una de sus hazañas más prodigiosas ha sido la creación del Computador Electrónico, y lo que es más, la aparición de la Inteligencia Artificial como disciplina científica cuyas hipótesis de trabajo sustentan la posibilidad de crear PENSAMIENTO ARTIFICIAL.

Muchas de las metas que los fundadores de esta disciplina se trazaron como objetivo en 1956, fecha de su nacimiento, no se han conseguido, pero no obstante, en la consecución de las mismas se han obtenido grandes logros en el esclarecimiento de los mecanismos del “Razonamiento” y de la “Resolución Humana de Problemas”, los altos niveles de abstracción de la “Demostración de Teoremas”, “el almacenamiento y recuperación de conocimientos”,  el funcionamiento de las “Redes Neuronales” que conforman el cerebro, la comunicación en “Lenguaje Natural”, los elementos más importantes de la “Percepción Visual” y el “ Reconocimiento de Voz”, en fin, las facetas más relevantes del Comportamiento Inteligente.

A pesar de que estos éxitos parciales son vistos con suspicacia por gran parte de la humanidad, los investigadores en IA han llegado a la conclusión de que para lograr máquinas que exhiban “inteligencia artificial”, se deben separar los mecanismos de razonamiento y manipulación de grandes cantidades de conocimientos, de los asociados con la voluntad, los sentimientos y el libre albedrío.  Por tal razón se ha acudido al formalismo de la Lógica y su tratamiento del pensamiento y los procesos mentales, en busca de los modelos que servirían a los programas  computacionales  para que las computadoras  “exhiban” un comportamiento inteligente.

La Lógica es el estudio de los principios y métodos utilizados para distinguir el razonamiento correcto del incorrecto; lo cual se constituye en el problema central de esta disciplina. Por tanto, los métodos y las técnicas del lógico han sido desarrollados esencialmente con el propósito de aclarar esta distinción.

El lógico se interesa por todos los razonamientos, sin tomar en cuenta su contenido, pero solamente desde este especial punto de vista. De igual modo, se interesa por la Inferencia como el proceso mediante el cual se llega a una proposición y se la afirma o niega sobre la base de otra  u otras proposiciones aceptadas como punto de partida del proceso. Aunque el proceso de inferencia no concierne al estudioso de la Lógica, para cada inferencia posible hay un razonamiento correspondiente, y son estos razonamientos los que caen dentro del ámbito de la Lógica.

El campo de cuestiones que investiga la Lógica ha variado constantemente y en tal sentido, en el apartado que sigue describiremos cómo dicha evolución ha conducido a la materialización de dispositivos, máquinas y sistemas que concretizan los objetivos presentes de la Inteligencia Artificial.  Para ello, reconstruiremos dicha vinculación histórica a través de la división en dos períodos claramente diferenciados:  el Período Pre-Informático y el Período Informático.

1.-  Período Pre-Informático

  • Lógica Aristótelica

Las investigaciones en el campo de la Lógica fueron iniciadas por el filósofo griego Demócrito (460-370 ane), quien fue el primero en formular la Ley de la Razón Suficiente cuyo contenido está basado en que  para que un conocimiento sea considerado como verdadero es menester que existan suficientes fundamentos para tenerlo como tal.      El gran maestro Sócrates (469-399 ane) y su discípulo Platón (427-347 ane) también investigaron los problemas de la Lógica; pero fue Aristóteles (362-324 ane) el primero en estudiar de manera profunda y cabal los problemas esenciales de la Lógica al descubrir las tres leyes que se constituyen en los cimientos mismos de la tecnología actual.

La primera es la Ley de la Identidad, la cual expresa que una idea o concepto es idéntico a sí mismo;    siempre que dicha idea o concepto permanezca invariable mientras sea usado o que por lo menos se puede hacer abstracción de los cambios que se pueden producir en él.   Como ley se expresa mediante la fórmula “A es A”, significando con ello que en lugar de la idea o concepto “A” se puede colocar en su lugar cualquier pensamiento de contenido concreto y siempre se tendrá un juicio que se ajuste a la  verdad.   

La segunda ley, esto es, la Ley de Contradicción, era considerada por Aristóteles como la más fundamental de todas las leyes de la Lógica ya que las demás, bien sea directa o indirectamente, guardaban una relación con ella.   Así, su enunciado plantea que si de dos juicios uno afirma algo respecto al objeto del pensamiento y otro lo niega, ambos no pueden ser verdaderos a la vez, por lo tanto, si uno es verdadero, el otro es falso.   De este  planteamiento se derivan las tres condiciones siguientes:   1) que los dos juicios contradictorios se refieren al mismo objeto del pensamiento; 2) que ambos juicios están enmarcados dentro del mismo tiempo; y 3)  que lo que se niegue y se afirme estén considerados dentro de una misma relación.

Por último, la Ley del Tercero Excluido, la cual afirma que en presencia de dos juicios que se nieguen mutuamente, uno de los dos tiene necesariamente que ser verdadero.   En este caso no habrá la posibilidad de una tercera solución, ya que siempre será uno falso y el otro verdadero:   nunca podrán ser los dos falsos o los dos verdaderos; de ahí que toda tercera solución queda excluida.    Es importante observar que esta ley de la lógica no determina cuál de los dos juicios es verdadero, ya que su única función es determinar que entre dos juicios opuestos, los dos no pueden ser verdaderos o falsos al mismo tiempo.

Además de estas tres leyes,  Aristóteles también afirmó que el razonamiento correcto se derivaba de la aplicación de reglas estrictas de inferencia, llamadas silogismos; éstos son razonamientos deductivos mediante los cuales se infiere una conclusión a partir de premisas.

 

  • Mecanización de la actividad pensante

Después del período de oscurantismo que primó durante la Edad Media, en los siglos XVI y XVII se produjo una renovación en la mentalidad humana, producto del debilitamiento de la fe y  del espíritu crítico y racionalista del Renacimiento que no admitía el principio de autoridad religiosa y que se lanzó a una libre interpretación de la Biblia, la sociedad y los fenómenos naturales.    Así, los nuevos métodos de  observación y experimentación, y el racionalismo como cosmovisión filosófica que pretende explicar todo en base a la razón, producen notables progresos en el terreno científico y preparan el campo para la aparición de las “Ciencias de lo Artificial”.

En esta etapa destacan tres pensadores que  por sus trabajos precursores no pueden dejar de ser mencionados:   Pascal, Leibnitz y Descartes.   Los primeros intentos de reproducir con ayuda de medios mecánicos las facultades intelectivas del hombre, datan de 1641 cuando el matemático y filósofo francés, Pascal Blaise, construyó la primera sumadora mecánica.  

Este hombre de ciencia expresó el siguiente punto de vista con respecto a la importancia de la máquina de calcular que creó para ayudar a su padre, contable de la corte, a realizar sus tediosos cálculos:   “Esta calculadora realiza acciones que se aproximan más al pensamiento que todo lo que hacen los animales.   Pero no lleva a cabo nada que permita afirmar que las máquinas, al igual que los animales, poseen deseos”.  

Al igual que Pascal Blaise, el matemático Gottfried Leibnitz invirtió gran cantidad de tiempo en la construcción del primer mecanismo de multiplicar, entre los años 1673 y 1674.    Es importante destacar, que a pesar de que Leibnitz no hizo grandes aportes a la Lógica, como si lo hizo con el Cálculo Infinitesimal que desarrolló simultáneamente con Isaac Newton, fe el primero en proponer un “Cálculo Universal para el Razonamiento”, al plantear la posibilidad de desarrollar métodos formales para representar el conocimiento y para resolver las disputas, calculando las respuestas a partir de esas representaciones.

Leibnitz se atrevió a afirmar que:   “en el caso de que surgieran controversias tan poco necesario sería que disputasen los filósofos como que lo hicieran los contables, pues bastaría con que tomando un lápiz cada uno, y sentándose en frente de una pizarra, se dijeran uno a otro (con un amigo por testigo si lo deseasen), CALCULEMOS”.

Por otro lado, René Descartes fue un filósofo y matemático francés que con su importante obra, “El discurso del método”, inicia el racionalismo y hace de la duda metódica el punto de partida para la certeza.    En otro de sus trabajos,  “El tratado del hombre”, René Descartes consideraba al hombre como una  “máquina viviente”.   Argumentaba que todas las funciones propias de semejante máquina tales como la digestión, la circulación  sanguínea, la alimentación, el crecimiento y la respiración, son consecuencias naturales de la distribución de los órganos en esta “máquina”, lo mismo que los movimientos de un reloj o de un autómata, son el resultado de la acción de contrapesos o ruedas.

Lo más importante de la obra intelectual de Descartes desde el punto de vista de este trabajo, fueron las insinuaciones que se derivaron de sus ideas sobre la creación de una “mente mecánica”. René Descartes estuvo interesado en la producción de autómatas capaces de simular el cuerpo humano, aunque era escéptico con respecto a la posibilidad de simular la mente humana. No obstante ello, otros pensadores franceses que se inspiraron en las ideas de Descartes, pueden ser considerados como los primeros en imaginar máquinas dotadas de la capacidad de razonamiento.

  

Tal es el caso del médico francés Julian Offray de la Mettrie quien consideraba al cuerpo humano como “una máquina que da cuerda a sus propios resortes”, en el libro titulado “L´Homme Machina” publicado por él en París en 1747.    Pero lo que es más, La Mettrie consideraba que el cerebro era un órgano de pensamiento, factible de estudiarse y reproducirse por medios artificiales.  También Jacques de Vaucanson, como artesano, fabricó autómatas mecánicos que fueron la admiración de Europa, a inicios del siglo XVIII, tales como patos, flautistas, etc.   Vaucanson sostenía que cada una de las partes de sus autómatas eran modeladas en conformidad con los elementos similares del cuerpo humano.

Más adelante, en la Inglaterra del siglo XIX, también aparecieron hombres de ciencia que se interesaron grandemente por la mecanización del pensamiento, pero ya con una visión más cercana a la de la segunda mitad del siglo XX.    Entre estos personajes se destacó Charles Babbage, matemático visionario de la Universidad de Cambridge, quien   dedicó gran parte de su vida a inventar una calculadora automática capaz de llevar a cabo las complicadas operaciones aritméticas que eran necesarias para la navegación y la balística.    Lamentablemente esta máquina se quedó en los planos, pues exigía la fabricación de miles de piezas de precisión y el gobierno británico le retiró su respaldo, después de haber invertido más de 17,000 libras esterlinas en su materialización.

No obstante ello y motivado por las ideas que le sugirió Ada Augusta Byron (conocida también  como la Condesa de Lovelace), y quien era su más cercana colaboradora, Babbage concibió proyectos aún más ambiciosos, como el de la “Máquina de Diferencias”, la cual sería capaz de tabular cualquier función matemática y, en principio, jugar al Ajedrez.   Esta máquina debería ser capaz de abordar cualquier problema aritmético, y dar la respuesta correcta siempre y cuando se moviesen las perillas apropiadas, como proyectaba su creador.

Aquí debemos puntualizar que Ada Byron fue una mujer excepcional dentro de la historia de la computación, no sólo porque corrigió errores de la obra de Charles Babbage, sino porque además de proponer el código binario en lugar del decimal  empleado por Babbage, escribió descripciones de sus planes para usar un sistema de tarjetas perforadas para entrada, salida y programación de las máquinas de cálculo.   Por tal razón se le conoce como la “primera programadora de computadoras” y se nombró un lenguaje de programación, ADA, en su honor.

 

  • Matematización de la Lógica

 

En otra línea de pensamiento se encontraban investigadores como George Boole quien en 1854 publicó el trabajo titulado “Investigaciones sobre las Leyes del Pensamiento”, donde éste presentó un primer esfuerzo para eliminar las ambigüedades propias del lenguaje natural que habían dominado la lógica desde la época en que Aristóteles enunció sus tres famosas leyes.    Este matemático inglés del  Queens College Cork, empleó un conjunto de símbolos arbitrarios  para representar los juicios, como unidades  básicas que componen el pensamiento.   Boole afirmó que:  “Si lográramos éxito en expresar las proposiciones lógicas mediante símbolos, de modo tal que las leyes de sus combinaciones se fundaran  en las leyes de los procesos mentales que dichos símbolos representan, daríamos un paso adelante hacia el lenguaje filosófico”[1].

En ese notable trabajo, además, propuso que estos elementos simbólicos podían combinarse o disociarse mediante operaciones para formar expresiones, constituyéndose en una auténtica “álgebra mental”, por medio de la cual era posible llevar a cabo el razonamiento en términos abstractos, independientemente de cualquier asociación con contenidos específicos de la realidad.    Boole llamó a estas operaciones como “las leyes del pensamiento”.

Por otra parte, el primer intento serio de reducción de los enunciados matemáticos a enunciados de la Lógica Formal fue iniciado por el matemático alemán Gottlob Frege, quien con la publicación de su Begriffschrift (“La notación de los conceptos”) en 1879, planteó esta posibilidad.   Así, este matemático propugnaba por la búsqueda de un método para determinar la veracidad o falsedad de cualquier enunciado matemático, no importa cuán complejo éste sea.   Frege trabajó en los fundamentos de las matemáticas, preparando las bases de la Lógica Simbólica llamada Cálculo de Predicados; propuso reglas de inferencia en este formalismo y justificó que se podía reemplazar la inferencia lógica mediante manipulación simbólica.

Otro hito importante para esta investigación tuvo lugar durante los primeros decenios del siglo XX, cuando  se produjeron en la lógica dos importantes acontecimientos, que desorganizaron y echaron a pique gran parte de los planteamientos de David  Hilbert sobre la búsqueda de un método general que determinara si una fórmula de la lógica formal podría o no declararse verdadera.

En 1901 Bertrand  Russell descubrió en la teoría elemental de conjuntos una paradoja irrefutable, teoría elemental que desempeñaba un papel fundamental en el programa de reducción de la matemática a la lógica propuesto por G. Frege.    Así, el problema planteado por Hilbert tenía trascendencia inmediata para los matemáticos si el esquema de Frege podía llevarse a conclusión.   Si pudiera darse con un método para determinar la veracidad o falsedad de un enunciado cualquiera de la lógica formal, y de ser correctas las ideas de Frege, con tal método se podría determinar la veracidad o falsedad de un enunciado cualquiera de la matemática, sin importar su complejidad.   Por tanto, si el osado reto lanzado por Hilbert tuviera respuesta afirmativa, toda la matemática hubiese sido reducida a un cálculo mecánico.

La solución definitiva a las paradojas la encontró Russell en 1906 con el desarrollo de la teoría de los tipos.   Así, el resultado del trabajo de este filósofo con tales cuestiones, constituye los tres gruesos volúmenes de su libro Principia Matemática, publicados entre 1910 y 1913 junto a Alfred North Whitehead, y que pretenden llevar a cabo de modo completo y detallado, el programa logicista, reduciendo la matemática entera –y en especial la aritmética-   a los principios de la lógica.

Tal ideal quedó  pulverizado para siempre al aparecer en 1931 el revolucionario artículo de Kurt Gödel titulado:   “Sobre sentencias formalmente indecidibles en Principia Matemática y sistemas afines”.   Gödel, con apenas 25 años, demostró en esta obra que los Principia Matemática, el sistema deductivo de Alfred North Whitehead y Bertrand Russell (y lo mismo es extendido a otros sistemas relacionados con aquel, como la teoría de conjuntos ordinaria), contienen proposiciones indecidibles, es decir, proposiciones que son ciertas, pero cuya veracidad no puede ser establecida dentro del sistema.   Esta es la esencia del llamado Teorema de Incompletitud.

Con mayor precisión, Gödel demostró que si un sistema como el de los Principia Matemática satisface ciertas condiciones razonables, como la de ser coherente (libre de contradicciones) entonces permite construir proposiciones que son indecidibles.   Al mismo tiempo, probó que si tal sistema es coherente, no existe forma de demostrar la coherencia del sistema dentro del sistema.   Con estas geniales conclusiones sentó las bases de la Metamatemática.

Los resultados anteriores son válidos para todo sistema deductivo lo suficientemente rico y complejo como para contener la aritmética.   Incluso, en la aritmética ordinaria hay proposiciones que son verdaderas, pero indemostrables.   No es posible, además, demostrar la coherencia de la aritmética por medio puramente aritméticos.

A pesar de esto, se puede inferir que los enunciados indecidibles en el sentido de Gödel, solamente son indecidibles en el seno de un sistema dado.   En 1936, en trabajos publicados por Alan M. Turing (considerado como el padre de la Inteligencia Artificial) y Alonzo Church, quedó establecida la existencia de problemas indecidibles en un sentido más radical y profundo en la Computación Matemática.

Turing y Church demostraron la existencia de problemas para los que no hay algoritmos finitos, esto es, procedimientos descritos paso a paso, que puedan resolverlos.   Entre los ejemplos de tales indecidibles absolutos se encuentra el famoso Problema de la Detención  (Halting Problem) de la Máquina de Turing, de importancia fundamental en las investigaciones de Programación Automática.

Otro matemático, A. Church, alegaba que si una función matemática es computable, pudiendo calcularse su valor para todo número perteneciente a su dominio de definición, entonces la función es definible en el Lambda Cálculo.    El trabajo de Church mostraba que de haber tal cosa como una función matemática expresable en el Lambda Cálculo, pero no computable, no habría método alguno para determinar si un enunciado matemático dado es o no demostrable. Turing, en cambio, comprendió que sí existía una relación técnica entre el problema de Hilbert y la noción de función computable. Al rebatir el problema de Hilbert y la noción de función computable, lo hizo de manera más directa y concreta que Church, planteando que lo que se requería, era un modelo preciso y sencillo del proceso de computación.

 

Según la tesis Church-Turing, una función es computable, si y sólo si, puede ser computada por una máquina de Turing o una construcción de potencia equivalente.   Church, para definir algoritmo empleó el sistema matemático formal que denominó Cálculo Lambda, mientras que A. Turing usó una máquina hipotética conocida como Máquina de Turing, y por consiguiente, definió un algoritmo como un conjunto preciso de instrucciones que pueden ser ejecutado mecánicamente por su máquina simple.

En otra vertiente del pensamiento, en 1930, un teorema muy importante fue probado por J. Herbrand, quien propuso un método mecánico para probar teoremas, esto es, un método o procedimiento de decisión (tal como el planteado por Hilbert) para probar teoremas.   Desafortunadamente, su método era muy difícil de aplicar, pues consumía mucho tiempo para ser llevado a cabo de manera manual.

 

  1. Período informático

 

Con la invención de los computadores digitales entre los años 1945-1950, se revivió el interés por la prueba automática de teoremas, pues el computador hace posible la manipulación de la información simbólica  y la mecanización de los procedimientos de prueba de teoremas.   Así, en 1960, el procedimiento de Herbrand fue implementado por G. Gilmore en un computador, seguido tiempo después por un procedimiento más eficiente, el cual fue propuesto por M. Davis y R. Putnam.

Un hito de importancia trascendental en la automatización de la prueba de teoremas fue logrado por J. A. Robinson en 1965, quien propuso el Principio de Resolución, una regla de inferencia simple, altamente eficiente y fácil de implementar en programas computarizados.   A partir de entonces, a este principio se le han hecho muchas mejoras.

Tiempo después, en la Universidad de Marsella, un grupo de investigación dirigido por A. Colmerauer se interesó en el método de Resolución Lineal ideado por A. Kowalski y Kuehner como una estrategia de búsqueda para encontrar pruebas de teoremas, la cual pudo ser estructurada en forma de un sistema lógico que podría ser usado como un lenguaje de programación:   PROLOG (acrónimo de PROgramación en LOGica).

La idea de la Programación en Lógica tuvo su principal representante en A. Kowalski, quien en 1974 presentó un trabajo original:   El Cálculo de Predicados como Lenguaje de Programación.   En el mismo defiende la tesis de que la deducción puede ser usada para simular la computación, esto es, la idea fundamental de la programación en lógica:   la computación es deducción.

Las mismas técnicas usadas para probar un teorema, cuando son aplicadas a áreas no matemáticas, originan sistemas deductivos de preguntas-respuestas.   El siguiente paso consistió en representar el conocimiento necesario para resolver problemas en campos muy especializados, en términos de un contenido no-algorítimico y hacer que los programas trabajen en base a deducción como forma de razonamiento, en vez de computación, lo que se conoce como Sistemas Basados en el Conocimiento, de los que los Sistemas Expertos son una particularidad.

2.1  Conferencia de Darmouth

 

En otra vertiente del pensamiento,  John  McCarthy (creador del lenguaje LISP) y Marvin Minsky organizaron lo que se conoce históricamente como la Conferencia de Dartmouth en el verano de 1956, donde nació la Inteligencia Artificial (IA) como disciplina científica.   Dos años antes, en 1954, moría en circunstancias trágicas Alan Turing, matemático británico cuyos trabajos en Lógica y Computabilidad Matemática, así como en la definición de Inteligencia Maquinal, fueron de trascendental importancia para la aparición de esta rama de las Ciencias Computacionales, pues propuso su famosa prueba para contestar a la pregunta:  ¿Pueden las Máquinas Pensar?   

Se reconoce históricamente al 1956 como el año en que nace la Inteligencia Artificial (IA) como disciplina de alta rigurosidad científica que tiene como meta fundamental el desarrollo de una teoría que explique el comportamiento en seres naturalmente inteligentes y que guíe la creación de entidades artificiales capaces de mostrar comportamiento inteligente.     A esa reunión del Darmouth College también asistieron Alex Bernstein, programador de la International Business Machines (IBM) de la ciudad de New York,  quien hizo referencia a un programa para jugar Ajedrez que había creado;   Arthur Samuel, también de IBM, quien analizó un programa para jugar a las damas;  Nathan Rochester, de la filial de IBM en Poughkeepsie, quien expuso su programación de un modelo de redes neuronales,  y los precursores Herbert Simon y Allen Newell, quienes trabajaban en la Rand Corporation en Santa Mónica y en el Instituto Carnegie de Tecnología (lo que más tarde se convertiría en la Universidad Carnegie-Mellon).

A pesar de que todos los participantes en el seminario del Darmouth College reflexionaban sobre la posibilidad de crear máquinas de pensamiento artificial, sólo el equipo formado por Allen Newell y Herbert Simon habían conseguido concretar en parte sus ideas a través de su primer programa computacional:   el Teórico Lógico (LT, del  inglés Logic Theorist), con el cual pudieron demostar efectivamente teoremas tomados de los volúmenes de Principia Mathematica escritos por Russell y Whitehead.

A principios de 1952, conoció Newell a Simon en la Rand Corporation.   Ambos estaban interesados en que las computadoras electrónicas fuesen algo más que simples “masticadoras de símbolos”.   Junto a Cliff Shaw, quien también trabajaba en la RAND Corporation, Simon y Newell empezaron a estudiar otras tareas de manipulación de símbolos que podía ejecutar el computador, tales como el juego de Ajedrez y la resolución de problemas geométricos; como consecuencia de ello, llegaron a la demostración de teoremas lógicos.    En 1955, equipo dirigido por Newell comenzó a diseñar el lenguaje IPL para lograr las tareas que se habían puesto como meta.     El 15 de diciembre de ese mismo año, Simon simuló  “a mano” la demostración de uno de los teoremas de Russell y Whitehead; dicha simulación fue hecha con tanto detalle, que todos sus colaboradores coincidieron en que el procedimiento podía ejecutarse en la Johnniac, una de las primeras computadoras cuyo nombre le fue dado en honor a John von Newmann.

La demostración de que el LT era capaz de probar teoremas fue en sí misma notable, pues logró demostrar 8 de los primeros 52 teoremas del Capítulo 2 de los Principia Mathematica.    La mitad de las demostraciones, más o menos, fueron entre uno y cinco minutos; sólo unas pocas tardaron de 15 a 45 minutos;  demostrando de esta manera, que había una estrecha relación entre la cantidad de elementos que abarcaba la expresión lógica y la duración de la demostración.  Y lo más sorprendente, una de las demostraciones resultó ser más elegante (desde el punto de vista matemático) que la ofrecida por Russell y Whitehead medio siglo atrás.

Por otra parte, otro de los  científicos pioneros de la IA,  John McCarthy, planteaba ideas muy convincentes acerca de los objetivos de  la IA y el modo de alcanzarlos;   sostenía que el camino para obtener la inteligencia maquinal pasaba por un enfoque formal riguroso, en el cual los actos que componen la inteligencia son reducidos a una serie de relaciones o de axiomas lógicos que pueden expresarse en forma precisa en términos matemáticos.    Junto con Patrick Hayes de la Universidad de Edimburgo, McCarthy escribió un artículo[2] fundamental para dicha disciplina en 1969, en el cual abogaba por el uso de un sustrato del Cálculo de Predicados, inserto dentro de un sistema destinado a comprender el lenguaje natural.   Exigía allí la formalización de conceptos como causalidad, capacidad y conocimiento.   En caso de adoptar un enfoque tal, sería factible emplear técnicas para la demostración de teoremas que no dependerían de los detalles de dominios particulares del saber.           

La concepción de McCarthy se basaba en la coherencia interna de todo sistema de creencias, y en que todo conocimiento es concebible en términos puramente lógicos.    Estas premisas tuvieron relativamente pocos seguidores, pero a pesar de ello, McCarthy siguió adherido al programa general, y procuró modificar la lógica corriente de una manera no convencional a fin de establecer un modelo para el razonamiento de sentido común.     Paralelamente a esta búsqueda de McCarthy en los mecanismos de inferencia de la Lógica Clásica, otros pensadores veían en el Intuicionismo y la Lógica Intuicionista el potencial para emplearla en la construcción de entidades simbólicas  artificiales que emularan la actividad pensante del ser humano.

[1] Hilston, A.M.  (1963). “Logic, Computing Machines and Automation”, New York, World Publishing, pág. 163.

[2] McCarthy, J. y Hayes, P.J.  “Some philosophical problem from standpoint of Artificial Intelligence”, en B. Meltzer y D. Michie comps., Machine Intelligence 4, Edimburgo, Edinburgh University Press, 1969.


Datos de la docente

  • Fundadora del Instituto Virtual de Programación Avanzada (INVIPROA)
  • Directora de Educación a Distancia y Virtual
  • Ministerio de Educación Superior, Ciencia y Tecnología (MESCYT)
  • Docente de la Escuela de TIC de UNIBE

 




Sociedad Digital – Tecnologías Digitales

Artículo “Sociedad Digital – Tecnologías Digitales”
 
Por: Rina Familia, docente de la Escuela de Ingeniería en Tecnologías de la Información y la Comunicación (TIC)

Sociedad Digital – Tecnología Digitales

La industria de las computadoras/comunicaciones está sufriendo uno de los cambios más intensos y drásticos de su corta historia.

Uyless Black

 

Poco a poco nuestra sociedad se va convirtiendo en una Sociedad Digital.   Tal parece que si a una máquina o dispositivo no se le añade ese adjetivo, pierde su característica de modernidad; pero para bien nuestro, cuando se digitaliza cualquier máquina o dispositivo, ésta o éste se hace más exacto, ergonómico y cómodo de usar.

 La Sociedad Digital se sustenta en las tecnologías digitales, y éstas a su vez, en la Lógica Digital.   Dentro del campo de la Electrónica, la Lógica Digital es relativamente reciente, pues mientras los tubos al vacío y los primitivos dispositivos electrónicos como diodos y transistores se remontan a principios del siglo XX, los conceptos de Lógica Digital no se desarrollaron como técnica independiente hasta finales de 1940, cuando se consigue construir el primer computador electrónico verdaderamente operacional.

 Al principio, los avances de esta rama fueron muy lentos debido a que sus componentes básicos eran construidos en base a tubos al vacío que debido a su gran volumen, aunado a la complejidad y altos precios de los circuitos anexos a los mismos, resultaban prohibitivos cuando se requería una cantidad considerable de compuertas basadas en los mismos.

Esto condujo a una actividad de investigación intensiva que culminó en la sustitución de estos tubos al vacío por el Transistor en 1950.   Los transistores redujeron grandemente el tamaño de los sistemas basados en los mismos, aunque el precio continuó siendo muy alto.

El mayor impulso a la Electrónica Digital, sustento fundamental de la Lógica Digital, lo trajo la creación del primer Circuito Integrado (CI) en 1960.   Estos circuitos, con un tamaño inferior a un cuadrado de 3 mm de lado, al producirse en grandes cantidades redujeron grandemente el precio y el tamaño de los sistemas construidos en base a  éstos.

A pesar de ello, tuvo que esperarse hasta 1975, cuando la unidad de procesamiento de un equipo computacional pudo construirse en base a los CI, lo que se conoce hoy como un Microprocesador (mP), sustento de una de las industrias más dinámicas del siglo XXI:   la Computación Personal.

 Un microprocesador es el cerebro de todo equipo de computación y/o comunicación, que organiza el flujo de datos hacia fuera y hacia adentro del sistema, así como también se encarga del procesamiento de dichos datos.  Este circuito integrado hace las funciones del equivalente a miles (hoy millones) de transistores o fet microscópicos, en un solo encapsulado que contiene una pastilla de silicio que no pasa de un octavo de pulgada cuadrada. El equivalente funcional a los transistores está organizado en la pastilla de silicio formando registros, contadores de programa, decodificadores y contadores de secuencia. Por consiguiente, el mP es el tipo de circuito integrado más complejo que se ha podido encapsular en un chip hasta la fecha. Los microprocesadores más característicos y los cuales han marcado el estado del arte, son la familia 80X86 de la compañía INTEL.


Fundamentos científicos de la Sociedad Digital

 Las tecnologías digitales que son el sostén de una Sociedad Digital, son tecnologías basasas en grandes avances científicos, por consiguiente, son el resultado de las aplicaciones que el conocimiento científico ha producido en diversas disciplinas. Sus orígenes se remontan a disciplinas tales como:  el Álgebra de Boole, la Teoría de la Información, la Física Cuántica y la Física del Estado Sólido, la Teoría de Autómatas y Lenguajes Formales, entre otras.   La Figura 1 muestra las interrelaciones entre los campos científicos que fundamentan el desarrollo de las tecnologías digitales.

 En este punto es importante resaltar que las tecnologías digitales engloban  aplicaciones derivadas de investigaciones y descubrimientos científicos que están un poco alejados de la cotidianidad del ciudadano común; sin embargo, el uso y la difusión de dichas tecnologías a nivel global no tienen similares en otras tecnologías que han aparecido en la evolución de la sociedad humana.

Variables analógicas y digitales

Como vimos anteriormente, en la Sociedad Digital adquieren preeminencia esencial los Sistemas Digitales; un Sistema Digital es un conjunto de elementos diseñados para trabajar con magnitudes digitales.   Dicho sistema está en el lado opuesto de los Sistemas Analógicos, los cuales son diseñados para trabajar con magnitudes analógicas.   Los conceptos de digital y analógico son opuestos, pues mientras el primero se refiere a un objeto o proceso que varía de manera incremental, el segundo se refiere a algo que varía de manera continua, sin sobresaltos.

 Por tanto, una magnitud digital es aquella que varía en intervalos discretos, esto es, varía entre valores que se hallan separados por incrementos fijos.   Esta clase de magnitud puede ser multivaluada, cuando admite diversos valores; y bivaluada o binaria cuando sólo admite dos valores (un máximo y un mínimo). Un ejemplo ilustrativo de estos tipos de magnitudes lo tenemos en los relojes de cuerda y los relojes digitales; en los primeros, las agujas se mueven en un movimento continuo; en los segundos, las agujas se mueven en pequeños saltos, muchas veces imperceptibles para la vista.

A pesar de que la mayoría de las magnitudes físicas de la realidad son de carácter analógico (velocidad, presión, temperatura, iluminación natural, distancia, aceleración, etc.), los ingenieros y técnicos han creado múltiples dispositivos, máquinas y sistemas para controlar dichas variables de manera digital.  Esto se debe a las siguientes ventajas que tiene el manejo de dispositivos, máquinas y sistemas digitales:

  • Son más sencillos y económicos que los analógicos, pues manejan pocos valores.
  • Son más seguros y precisos.
  • La información que generan es más fácil de almacenar.
  • Los elementos circuitales que los conforman son más resistentes a las interferencias y a ruidos ambientales.

 

Pero también tienen ciertas desventajas, como son:

  • Incrementan la complejidad de los diseños.
  • Son menos intuitivos para el manejo por parte de los humanos.
  • Necesitan elementos de traducción o interfases especiales para su manejo.

 

Electrónica y lógica digitales

Cuando se hace alusión al término ELECTRÓNICA DIGITAL, nos referimos al conjunto de circuitos electrónicos que ejecutan las operaciones requeridas para llevar a cabo decisiones lógicas; en tal sentido, se desea contraponer este término al de ELECTRÓNICA ANALÓGICA, base de sistemas tales como los receptores de Televisión y Radio. Asociado al término Lógica Digital está todo el proceso lógico que sirve de base teórica a los computadores, calculadoras, relojes digitales y otros aparatos; así como al circuito electrónico con el cual se materializan dichos aparatos.

Por su parte, los circuitos electrónicos que maneja la Lógica Digital son más sencillos que los dirigidos a trabajar con la Electrónica Analógica, pues los primeros sólo trabajan en base a dos valores, mientras que los últimos tienen un rango amplísimo de valores.

 

Bibliografía Consultada

  • Barry, B. (2001).  Los Microprocesadores Intel. Quinta Edición. México: Prentice Hall.
  • Floyd, T. (2012).  Fundamentos de Sistemas Digitales. Séptima Edición. México:  Prentice-Hall.
  • Mano, M.  (2003).  Diseño Digital.  Tercera Edición. México:  Pearson Educación.
  • McCALLA, T. R. (2004).  Lógica Digital y Diseño de Computadoras.  México:  Megabyte Noriega Editores.

 


 Datos de la docente

  • Fundadora del Instituto Virtual de Programación Avanzada (INVIPROA)
  • Directora de Educación a Distancia y Virtual
  • Ministerio de Educación Superior, Ciencia y Tecnología (MESCYT)
  • Docente de la Escuela de TIC de UNIBE