CienciaCosas que te van a interesar

Alan, eso es… ¡no computable!

— ¡Mamá! ¿Quién es el niño de la foto?

— ¡Ah! El niño de la foto es Alan Turing.

— Vaya. Por un momento pensé que era mi hermano perdido.

— ¿Qué? Jaja. ¡Tu no tienes hermanos perdidos niña!

— ¿Y por qué tienes su foto?

— La razón es que, en estas fechas, se cumplen 100 años de su nacimiento. Es alguien que nos ha dejado un gran legado, y uno de mis héroes personales.

— ¿Y cuál es ese legado?

— Hizo muchas cosas a lo largo de su vida. Por ejemplo, sus observaciones facilitaron la comprensión de los mensajes cifrados nazis en la segunda guerra mundial. Muchos consideran que esta maniobra redujo el tiempo de la guerra y ayudó a la derrota del bando alemán. Pero esa no es la razón por la que tengo su foto aquí. Me parece que su principal aportación es otra. Gracias a su trabajo se abordó uno de los tópicos más profundos tocados por las matemáticas: ¿Qué es cognoscible?

Enigma— ¿Qué es cognoscible? Rayos. Yo había escuchado que lo llamaban “el padre de la computación”.

— ¡Si! Algunos lo llaman así. Y de alguna forma así es. Pero considero que la aplicación práctica de su trabajo ha desviado la atención sobre la verdadera naturaleza de su aportación. Verás, Alan tenía una muy loca y extraña idea en la cabeza: él creía que las máquinas podían pensar.

— ¡Dios!

— ¡Es en serio! Pero no solo en sentido figurado. Realmente consideró con seriedad la posibilidad de que las máquinas pudieran pensar.

— Pues si que estaba un poco tocadiscos el señor ese.

— ¡No! Tiene todo el sentido del mundo si lo piensas bien. La idea es que la actividad mental consiste simplemente en una secuencia bien definida de operaciones, frecuentemente llamada algoritmo. Aunque no todos están de acuerdo que así sea, si realmente existe algo como un algoritmo gigantesco y prodigioso funcionando en el cerebro, entonces, un ente abstracto llamado en su honor “Máquina de Turing”, podría replicar su funcionamiento. Como las computadoras son, en esencia, “Máquinas universales de Turing”, significa que la mente podría ser trasladada a una computadora, siempre que tenga las capacidades de procesamiento y memoria suficientes.

— Mamá, ¿te puedo hacer una pregunta?

— Dime hija.

— ¿Te sientes bien?

— ¡Ay hija! Tu nunca me tomas en serio.

— Es que estas hablando de máquinas que piensan mamá. Osea, MÁQUINAS QUE PIENSAN. ¿Te estás escuchando? ¿Que nunca te has puesto a meditar? ¿Nunca te has puesto a sentir el “yo soy”? ¿La conciencia de uno mismo?

— Si. Y sé que es una idea muy extravagante. Como te decía, no todos están de acuerdo. Uno de los descubrimientos notables de Turing fue que, en realidad, cualquier máquina, para la que el hardware ha alcanzado un cierto grado de complejidad y flexibilidad, es equivalente a cualquier otra máquina semejante. Y, por tal motivo, un software adecuado puede hacer funcionar a una máquina como si fuera otra. De ahí que se sugiera la posibilidad de que el cerebro y su actividad, la mente, puedan ser replicadas.

Robot

— No sé mamá. Soy escéptica de tu afirmación sobre la mente y la conciencia.

— ¡Y eso está muy bien! ¡Escépticas hasta el final! Como te decía no todos están de acuerdo. Hay una forma en la que eso podría no ser cierto. Una forma en que la mente no podría ser replicada por una máquina.

— ¿Y cuál es esa forma?

— Que el cerebro sea no computable. Es decir, que tenga en su seno procedimientos que no sean algorítmicos, como sugieren algunos. Esto está relacionado con la aportación de Alan. Las máquinas de Turing son un artificio para definir y separar lo que es computable de lo que no lo es. Alan lo desarrolló para responder a una pregunta, el Entscheidungsproblem: ¿Existe un procedimiento general que permita determinar, para todas las expresiones matemáticas, si son ciertas o no? La respuesta de Alan, ¡es que no existe tal procedimiento! Este resultado, aunado a otros, como el Teorema de incompletitud de Gödel, nos muestran que hay afirmaciones indecidibles en las matemáticas, y por tanto, que no pueden ser abordadas por un algorítmo. Que hay “verdades matemáticas” que no son ni demostrables ni refutables.

— ¡Dios! Y ahora lo digo en serio.

— Si el funcionamiento del cerebro es tal, quizá porque se base en leyes físicas que impliquen “no computabilidad” (¿mecánica cuántica?), entonces no sería computable, y la mente no se podría “reproducir” en una computadora.

Alan Turing— Vaya.

— Te quiero advertir sobre algo: hay mucha gente que, por lo complejo de todos estos asuntos, abusa de conceptos como la mecánica cuántica o el teorema de incompletitud para justificar sus disparates. ¡Cuídate de ellos!

— Lo haré. Y, ¿cuál es la verdad de todo esto de la mente?

— Ay hija, la verdad en este asunto es, como casi siempre, que no sabemos. Pero en este caso es más profundo aún. Bordeamos la costa de mares desconocidos, donde se vislumbra un horizonte que, quizá, nos impone un límite sobre lo que es posible “saber” de lo que no. Un límite sobre aquello que es cognoscible.

Fotos de Alan Turing de aquí y la NPL Archive.
Imagen de la máquina Enigma de Wikipedia.

Previous post

¡Llega el veranito!

Next post

40 años de Atari

Javier

Javier

Licenciado en Matemáticas Aplicadas y Computación por la Universidad Nacional Autónoma de México (UNAM). Durante mucho tiempo interesado en la difusión del pensamiento crítico, la ciencia y el escepticismo. Enamorado de la astronomía, temas afines a la computación, la religión, así como cuestiones éticas involucradas. Colmado de una imperiosa necesidad de expresión y una pasión mística en un mundo sin Dios.

5 Comments

  1. June 27, 2012 at 12:45 pm —

    Con este post me has llegado al alma.

    Durante la carrera de Ingeniería Informática (en España) tuvimos varias asignaturas de computabilidad, pero no llegué a ahondar demasiado en ellas. Espero poder utilizarte para responder todas aquellas dudas que se quedaron en el perchero de “como esto ya no me hace falta, lo olvido”.

    Uno de los puntos que más impactantes me resultaron de la asignatura de Modelos de la Computación tenía que ver justamente con el concepto de computabilidad y los problemas indecidibles, y las implicaciones filosóficas que podían tener. En particular, a nosotros se nos demostró formalmente que el famoso “problema de la parada” ( http://es.wikipedia.org/wiki/Problema_de_la_parada ) era un problema indecidible, es decir, que no se podía construir ningún programa (algoritmo) capaz de resolverlo. Y es aquí donde mi mente comenzó a divagar por los parajes de la fantasía especulativa.

    Lo que puedo concluir (y corrígeme si me equivoco, por favor) de la existencia de problemas indecidibles (como el de la parada), es que en la práctica no puede existir un computador que emule el intelecto humano. Es decir, que no puede existir una inteligencia artificial perfecta algorítmica, ya que existen problemas, como el de la parada, que si bien un computador no puede resolver, sí puede resolverlo un ser humano. Ojo, que yo aquí estoy asumiendo que el ser humano sí es capaz de resolver el problema de la parada. Especulo con que es así, porque, como programador, no puedo imaginarme la existencia de un solo programa del que no se pueda decidir si va a acabar o no. Es decir, como ser humano asumo una capacidad intelectual suficientemente alta como para que, viendo un algoritmo y sus entradas, y por muy complejos que sean, sí pueda decidir si dicho algoritmo va a finalizar o no.

    Ahora bien, si bien por un lado las matemáticas parecen decir que no es posible resolver mediante algoritmos ciertos problemas que sí puede resolver el cerebro humano, por otro esta conclusión me parece tremendamente atrevida, o cuanto menos impactante. El cerebro humano al fin y al cabo está compuesto por un montón de neuronas (y más cosas supongo, pero no soy médico, así que no seais duros aquí conmigo) que, interconectadas entre sí, dan origen a nuestra inteligencia y consciencia. Dichas neuronas, además, se rigen mediante leyes físicas, ecuaciones matemáticas que, aunque puedan incluir la incertidumbre asociada a la mecánica cuántica (cuando nos moviéramos a un nivel atómico), están ahí. Si nuestro cerebro es un conjunto de neuronas, dichas neuronas están regidas por leyes físicas, y dichas leyes físicas podemos emularlas en un ordenador… ¿no podría emularse la inteligencia de un ser humano en un ordenador? Es decir, si conocemos los algoritmos que rigen el comportamiento de las partes constituyentes de nuestro cerebro, ¿no podrían combinarse entre sí para crear un algoritmo mayor que simulase la inteligencia humana, justamente ésa que parece que no puede emularse mediante algoritmos debido a la existencia de problemas como el de la parada?

    • June 27, 2012 at 7:17 pm —

      ¡Has dado en el quid de la cuestión! Muestras la aparente paradoja de poder resolver un problema que formalmente se muestra imposible de resolver.

      Citando la fuente que tu mismo pones dice :”no existe una manera automática computable de saber si todos los programas del mundo terminan. No se niega que exista la prueba para programas concretos.” Así que, en principio si podemos determinar si un programa en particular se parará.

      Hay un argumento contra la idea de que la mente es “algorítmica” de Roger Penrose, que se parece a lo que mencionas, pero él lo pone en términos de “reconocer una verdad matemática” que, sin embargo, no es demostrable en el sistema. Se podría incluir como axioma dicha “verdad matemática”, y así ser capaz de demostrar más cosas en el sistema, pero pronto resulta evidente que habrá otras “verdades” que no serán demostrables, hasta que se introduzcan nuevos axiomas. Y esta termina siendo una escalada sin fin.

      No deja de ser importante la cuestión de qué es realmente “entender” o “reconocer” una verdad matemática cuando lo hace el cerebro. ¿Realmente “entender” o “reconocer” una verdad mentalmente es lo mismo que demostrarla formalmente? Porque no imagino los conceptos de “falso” y “verdadero” como neuronas encendidas o apagadas, sino algo mucho más complicado que eso. Quizá no están “demostradas” formalmente en nuestra cabeza, aunque a nosotros nos parezcan cosas evidentes.

      Lo que dices en tu último párrafo es la idea básica detrás de la Inteligencia Artificial Fuerte: que la mente es modelable, porque el cerebro es algorítmico. Se está asumiendo que las leyes de la física son algorítmicas y, por tanto, modelables en una computadora.

      El asunto es que no son algorítmicas a todas las escalas. La aleatoriedad de la mecánica cuántica, hasta donde yo entiendo, no es computable. Los números que podría arrojar un proceso cuántico son REALMENTE aleatorios. Y en principio no son computables. No es lo mismo “aleatorio” que “pseudo-aleatorio”.

      Roger Penrose piensa que esa “no computabilidad” de la mecánica cuántica no es un asunto trivial en el asunto de la mente, y ha formulado el ataque más poderoso contra la idea de la Inteligencia Artificial Fuerte. Lo puedes encontrar en el libro “La nueva mente del emperador”. Si lo buscas en Google, seguro lo encuentras en PDF. No lo pongo aquí por cuestiones de copyright, no sea que nos quiten el changarro, como decimos en mi tierra. 😀

      ¡Muchas gracias por tu comentario!

  2. June 27, 2012 at 9:30 pm —

    Si desconecto el enchufe de mi notebook, pasado un tiempo en la pantalla aparecerá un aviso de “batería baja”. ¿Por qué no puedo decir que mi computador es “consciente” de su nivel de energía?
    La pregunta clave aquí es ¿cómo sabemos si algo/alguien tiene consciencia? ¿Cómo sé yo que tú (o cualquier otra persona) es consciente? Desde mi punto de vista, la respuesta es simple: porque comunica sobre sí mismo. La consciencia no sería una propiedad del objeto, sino una característica de la relación objeto-ambiente.

    A mi parecer (y sé que este punto de vista es muy poco compartido) la “consciencia” (y la “mente”), cuando se cosifican, vienen a ser nada más que una herencia del pensamiento dualista, no materialista, y por lo tanto un lastre para el pensamiento científico. Por ejemplo, en el problema de la Habitación China (http://es.wikipedia.org/wiki/Habitaci%C3%B3n_china) donde se intenta refutar la hipótesis de la IA Fuerte, se manipula el concepto de “entender” de manera que sea inmaterial e infalsable, donde se llega a decir que una máquina sólo lograría “simular que entiende”. Me gustaría que alguien mostrara que yo “realmente entiendo”, y no sólo es que soy bueno “simulando que entiendo”.

    En fin… este tema es un excelente “quebradero de cabeza”, da para mucho. Espero algún día aportar no sólo con reflexiones, sino con experimentos 🙂

    • June 28, 2012 at 1:51 am —

      Voy a tener que disentir, Ja. 😀 Yo lo entiendo de la siguiente manera:

      Me parece que un “proceso mental” o “neurológico” (para generalizar más) y “un proceso consciente” no son la misma cosa. Todo proceso consciente en mental, pero no todo proceso mental es consciente. Como ejemplo están, desde el arco reflejo, hasta las relaciones sinestésicas, pasando por el control de las vísceras. Todo ello es un proceso mental/neurológico, pero ninguno es consciente.

      Yo acepto el estado de la batería del portátil como un “proceso mental”, pero me cuesta trabajo aceptarlo como uno consciente.

      Podría ser que la consciencia humana tal cual la entendemos (y esto es un observación muy personal, y quizá infundada) es un patrón muy particular y delicado de procesos mentales. No todo patrón “crearía” consciencia necesariamente. Pero también existe el punto de vista opuesto: que todo proceso mental crea consciencia, pero una “diferente”, aunque inaccesible para nosotros.

      Si seguimos por esa idea, eso de la consciencia inaccesible desde afuera no es tan descabellado si reflexionamos en el hecho de que, en realidad, nosotros no sabemos si las demás personas son conscientes. Tan solo lo asumimos en función de su parecido con nosotros mismos y nuestras reacciones. Gracias a la empatía es que asumimos la consciencia del otro. Pero si hubiera un proceso consciente del cual no pudiéramos recibir una retroalimentación ni indicio de su existencia, no habría manera de saber que está ahí.

      Una idea loca, atrabancada y sugerente: ¿Y si los que para nosotros son procesos inconscientes en nosotros mismos fueran en realidad “otra consciencia” de la que nosotros no pudiéramos percatarnos? ¿Esas inspiraciones súbitas que tenemos sobre la solución de un problema que habíamos abandonado hace tiempo, podrán ser el resultado de “otra consciencia” en nuestro interior que no podemos ver ni se puede comunicar con nosotros?

      Si. Ya se que es una idea loca. Y menos la defiendo sin pruebas. Solo es una idea. Nada de magufismos aquí.

      Sobre el dualismo:

      Pienso que, si tomamos como ciertos los principios que defiende la inteligencia artificial fuerte, el “dualismo” al que te refieres hace su aparición de manera obligada. Como si el sustrato de la mente no fuera material. ¡Eso es lo que defiende la inteligencia artificial fuerte!: “El soporte material no importa, lo que importa es el algoritmo, o mejor dicho, la ejecución de dicho algoritmo”. ¡¡Pero eso no es material!! :S Es una situación en la que no gusta a muchos estar, porque suena como a “espíritu” o “alma” :S (miedo). Solo digo que eso me parece.

      Un saludo.

      • June 28, 2012 at 6:45 am —

        Concuerdo con la distinción que haces, en la que yo no había reparado: no todo lo mental se considera un proceso consciente. Pongo un ejemplo: en el proceso de percepción visual, en el quiasma óptico las señales provenientes de ambos ojos se mezclan y redireccionan (yendo la información del campo visual derecho al hemisferio izquierdo y viceversa). Esto es un proceso mental, pero supongo que no se considera un proceso consciente.

        Lo que no me queda claro es qué criterio podemos utilizar para diferenciar certeramente entre lo mental no-consciente y lo mental consciente. Dicho de otra forma, ¿cuál sería el patrón particular que hace que un proceso mental sea consciente?. Siguiendo con el caso de la batería del portátil, ¿cómo sabemos que no es consciente? Si programara mi computador para que no sólo me dijera que tiene batería baja, sino que además me asegurara que es consciente de ello, ¿se diferencia de un humano que me dice que tiene hambre y es consciente de ello?

        Obviamente, la idea de que existen múltiples consciencias no accesibles no son más que muchas Teteras de Russel orbitando en nuestra mente, sobre todo si aceptamos que los mismos resultados que se consideran consecuencia de la consciencia (como informar sobre estados internos: hambre, batería, etc.) pueden ser “simulados” sin una consciencia.

        Mi punto central en todo esto es: ¿es realmente útil el constructo de “consciencia”? ¿No estaremos ante un caso análogo al del “calórico”?

        Saludos! =D

Leave a reply