• Data Bytes
  • Posts
  • Musk Vs. Zuckerberg y una breve historia de la Inteligencia Artificial

Musk Vs. Zuckerberg y una breve historia de la Inteligencia Artificial

¿Qué tienen en común el Ajedrez, La Guerra Fría y el Big Data.?

MarketWatch photo illustration/Bloomberg, Getty Images, iStockphoto

Hay elementos que definen cada época. Combinaciones de tiempo y lugar tienen iconografía propia, cada década con su ritmo, cinematografía, literatura y discusiones sobre el futuro.

10 años han pasado desde el lanzamiento del iPhone en 2007 y uno de los elementos definitorios de este periodo, es el hecho de que los mecanismos a nuestra disposición para capturar datos han superado nuestra capacidad individual de procesarlos.

Siempre hubo un punto “A” y un punto “B”; una distancia entre ellos y un tiempo de recorrido en función de la velocidad y la trayectoria. Simplemente ahora llevamos en nuestros bolsillos un elemento capaz de registrar cada una de esas variables con precisión infinitesimal y la ambición de crear valor a partir de ese conocimiento, es el combustible de una revolución en marcha.

Una de las consecuencias más llamativas y sobre la que se centra esta serie de 3 posts, es que la idea de recrear la mente humana sea una posibilidad revisitada por científicos, académicos y — por supuesto— hombres de negocios.

Entre las discusiones sobre el futuro, en nuestra época la Inteligencia Artificial, su factibilidad, sus mecanismos, sus objetivos y sus reglas están ganándose un lugar central. Prueba de ello es que las mentes más notables en eso de predecir y crear tendencias tengan visiones tan disimiles sobre lo que ésta tecnología representa.

Recientemente un amigo cercano me pidió explicarle cuál era el problema que tenían Mark Zuckerberg, fundador y CEO de Facebook (si es que hay que aclarar eso) y Elon Musk, a la cabeza de Tesla y SpaceX entre otras.

La historia corta es que durante una transmisión en Facebook Live, un usuario preguntó a Zuck sobre su opinión frente a la Inteligencia Artificial, haciendo hincapié en las opiniones de Musk sobre que la I.A. es su mayor miedo hacia el futuro, la principal amenaza existencial de nuestra especie.

La respuesta de Zuckerberg fue contundente:

“[…]Pienso que las personas que hacen ruido sobre estos escenarios apocalípticos no entienden el tema. […] Es realmente negativo y de alguna manera creo que es bastante irresponsable.”

El CEO de Tesla no fue menos crítico:

“He hablado con Mark sobre esto. Su entendimiento del tema es limitado”

Pero entonces, ¿Quién tiene la razón? Cuando dos personas como Zuckerberg y Musk están en desacuerdo, sé que no soy yo el llamado a contestar semejante pregunta (para decepción de mi amigo). Lo que si puedo hacer es -tratar de- ofrecer algunas luces sobre los conceptos detrás de la controversia y para ello, como siempre, es mejor empezar por el principio.

I. Una Breve Historia de la Inteligencia Artificial.

Los jugadores de ajedrez gozan de una reputación especial. A mediados del siglo XX, un maestro de ajedrez todavía era considerado automáticamente un intelectual. Se entendía que por su naturaleza estratégica, dominar el juego de los reyes demandaba un entendimiento similar al que un matemático o físico teórico tienen de las ciencias.

Tal vez ese misticismo alrededor del juego y la fascinación por las mentes de sus grandes maestros (hasta capítulo aparte tuvieron durante la guerra fría), condujo a la idea de que un computador capaz de igualar a un jugador hábil sería la prueba máxima de la posibilidad de emular el pensamiento humano.

En 1950, el número 314 del Philosofical Magazine reprodujo un artículo de Claude Shannon, ingeniero de los laboratorios Bell titulado “Programming a Computer for Playing Chess” (Programando un Computador para Jugar Ajedrez — pdf en inglés).

En él, Shannon describe cómo construir una rutina de cómputo (programa) para que un computador juegue ajedrez puede no tener una gran utilidad práctica, pero sí representa un interés teórico que abriría la puerta para extender el uso estrictamente numérico que los computadores tenían hasta entonces.

Entre la lista de ambiciosos propósitos, Shannon incluye posibilidades como “Máquinas capaces de traducir de un idioma a otro” o de “enrrutar llamadas telefónicas con base en circunstancias individuales en vez de patrones fijos”. Otras como la capacidad de hacer deducciones lógicas o tomar decisiones estratégicas en contextos militares pueden resultarnos menos familiares, pero hoy en día están tan fuera del reino de la ciencia ficción como las dos primeras.

Una premisa para Shannon es que el programa debe ser capaz de listar todos los movimientos posibles y organizarlos de acuerdo a su influencia en el transcurso del juego. Aquí la historia toma un curso interesante.

El problema de los exponentes.

La forma en que humanos y máquinas toman decisiones cuando se enfrentan a un número muy grande de posibilidades es diferente.

Los jugadores más experimentados dicen que para dominar una partida deben prever entre 4 y 5 movimientos. Para hacer eso la mente humana acude a un proceso heurístico (forma de solucionar un problema) que analiza los fines y los medios permitiéndole decidir de manera intuitiva sin importar el número de posibilidades.

Un ajedrecista experto cuenta con un “banco” de experiencias y patrones que le permite definir una posición ideal a la que quiere llegar dependiendo de cómo está la partida en el momento. Luego ejecuta un plan que ajusta a necesidad, aunque le tome 10 o 15 movimientos llegar (o eventualmente falle).

Una máquina, por su parte, analizaría cada posible movimiento e intentaría evaluar si es el óptimo. Considerando que hay en promedio 30 movimientos legales por cada posición en el tablero, después de una jugada completa (un movimiento por cada jugador) hay cerca de 1000 posibles movimientos, alrededor de 1 millón con la siguiente jugada y así sucesivamente.

Además, debe dar a cada movimiento un valor, esencialmente a partir de indicadores de éxito que se puedan medir. En el ajedrez, estos serían la fortaleza material (tener más fichas en ocasiones denota una ventaja); la movilidad de las piezas (cuántas casillas son vulnerables al ataque de mis fichas) y el control de las 4 casillas centrales del tablero.

En suma, para anticipar y evaluar las posibilidades en 5 movimientos un computador de finales de los 50 necesitaría mil años. A nivel competitivo, el jugador promedio debe tomar una decisión en cerca de 3 minutos.

En su libro “Deep Thinking, Where Machine Intelligence Ends and Human Creativity Begins”, a donde me remito en gran parte para hacer este recorrido histórico, el gran maestro Garry Kasparov explica cómo ese problema fundamental (que en el trabajo de Shannon se resume en un número conocido con su nombre, equivalente a 10¹²⁰) llevó a la intuición de dos caminos probables para resolver el problema del computador capaz de jugar ajedrez.

Fuerza Bruta vs Análisis y Descarte.

Siguiento a Kasparov, los científicos en busca de la primera Inteligencia Artificial se enfrentaban al problema de los exponentes y podían aproximarse a la solución por dos vías:

  1. Fuerza Bruta: “Calcular el valor relativo de tantos movimientos como la velocidad del computador permitiera”

  2. Análisis y Descarte: “Desarrollar un criterio que permita a la máquina enfocarse únicamente en aquellos movimientos que ofrecen una ventaja estratégica en el juego”

Para Shannon la respuesta era clara: La solución por Fuerza Bruta era simplemente impracticable. Debido a las restricciones de tiempo del juego era imposible ejecutar ese volumen de cálculo en un marco razonable.

A fin de cuentas, como resalta Kasparov, aunque el 95% de los movimientos posibles fueran incorrectos, la máquina tendría que revisarlos todos.

Casi 10 años después en 1958, Herbert Simon y Allen Newell, dos de los padres de la investigación sobre Inteligencia Artificial, hablaron por primera vez de los computadores como “máquinas que piensan”.

La búsqueda de una inteligencia del segundo tipo (Análisis y Descarte) motivó la carrera por el desarrollo de la Inteligencia Artificial en razón de una referencia circular: El cerebro humano debía funcionar de manera similar a como los computadores lo hacían. Si ya se había reproducido el patrón de funcionamiento, estábamos muy cerca de emular el pensamiento. O eso pensaron los científicos de la época.

El Error de Shannon, la Ley de Moore y la Pelea del Siglo.

No, no esta pelea.

En 1997, a casi 50 años de la publicación del artículo de Shannon, Deep Blue, el computador ajedrecista de IBM se enfrentó al gran maestro Garry Kasparov en una contienda de 6 partidas.

Un año antes, el hombre había vencido a la máquina que ahora venía por la revancha. Kasparov esperaba con la tranquilidad del campeón reinante, ganando el primer juego de manera contundente. La sorpresa viene en la segunda vuelta cuando Deep Blue juega de manera frontal, casi agresiva, acorralando al campeón que en un gesto irremediablemente humano se desconcentra y cede la partida al ver su reina a merced de la máquina.

Deep Blue en el Museo de Historia de la Computación

Una pausa le hubiera bastado al campeón para notar que podía forzar las tablas (empate).

Los siguientes 3 juegos terminan empatados pero el hombre está confundido, descompuesto. La serenidad proveniente de su capacidad de leer los gestos del oponente estaba ausente, arrancada de raíz por la naturaleza misma del adversario. La máquina vence en el sexto juego y se impone, por primera vez en la historia.

Resulta que Shannon estaba equivocado. Era la inteligencia del segundo tipo, capaz de analizar, evaluar y descartar la que era más difícil de reproducir.

En 1965 Gordon Moore, cofundador de Intel, observó que en la industria del hardware la cantidad de componentes en un circuito integrado se duplicaba aproximadamente cada dos años. Esta predicción se ha sostenido y aunque eventualmente fallará, se ha extendido a todas las industrias para cuantificar la tasa a la que el desempeño de los sistemas incrementa.

Cálculos por Segundo por Cada 1000 dólares. http://www.computerhistory.org/core/media/pdf/core-2015.pdf

La gráfica anterior muestra el progreso exponencial con el que no contaba Shannon. La llave que liberó al campeón de ajedrez artificial fue la Fuerza Bruta, hecha posible por el cumplimiento de la ley de Moore en la capacidad de procesamiento y los algoritmos de búsqueda.

A mediados de los 70 la frustración por no poder hacer la ingeniería inversa del cerebro humano, combinada con la aparición de los circuitos integrados llevó a los buscadores de la Inteligencia Artificial a asumir un enfoque mucho más pragmático, apalancados en la velocidad inhumana de los computadores.

Diagnósticos médicos, sistemas de alerta temprana, vehículos autónomos, encriptación de datos, ciber-seguridad y sistemas de información se han beneficiado de este enfoque.

Básicamente, la capacidad actual de capturar, organizar y analizar datos nos permiten entrenar sistemas con eventos conocidos para descubrir correlaciones, a partir de métodos estadísticos, que luego pueden ser usadas para tomar decisiones / predecir resultados ante estímulos futuros.

En un sentido amplio, el párrafo anterior es una definición de algo que seguramente ha escuchado con más frecuencia en los últimos años, y que considero es el punto ideal para terminar este primer post: Machine Learning.