Iniciativas pretenden buscar una meta que pareciera
de ciencia ficción: lograr que una máquina piense. Algunos parecen estar
seguros de lograrlo en una década o menos.
Desde 2011 Google comenzó a trabajar en el carro que se maneja solo.
Para mediados del año pasado, un grupo de investigadores de Google y la Universidad de Stanford anunciaron que habían alcanzado una meta importante: lograron que un computador aprendiera qué es un gato.
A
primera vista suena como una tarea irrisoria, un logro casi pueril.
Para que un computador reconozca un gato, bueno, se le dice qué
características, qué patrones, definen a un gato y de ahí para adelante
la cosa parece resultar simple.
Pero, ¿qué pasa si no se le da
ningún parámetro de reconocimiento?, ¿si apenas se le bombardea con un
gran cúmulo de información y de los datos emerge una suerte de
consciencia acerca de qué es un gato? ¿Clasifica esto como aprendizaje,
un primer paso hacia el pensamiento?
Durante años, la posibilidad
de que un computador aprenda ha sido una suerte de Santo Grial para una
amplia gama de profesionales que comienza en artistas y escritores y va
hasta ingenieros y científicos de computadores. Más allá del
apocalipsis, el exterminio de la vida a mano de las máquinas, la
posibilidad de un sistema pensante constituido por silicio abre un
universo de aplicaciones que arrancan por el estudio a fondo del cerebro
y la corrección de desórdenes como la esquizofrenia y el Alzheimer.,
por ejemplo.
Pero, ¿es esto posible, al menos en el futuro cercano? Henry Markram, neurocientífico, cree que sí.
En
enero de este año, Markram obtuvo más de mil millones de euros en
financiación para construir una suerte de cerebro virtual, una
simulación computarizada de un cerebro humano, de acuerdo con un reporte
de la revista Wired. Los fondos vienen de parte de la Unión Europea y
pretenden darle el músculo financiero a un proyecto que, en la visión
de Markram, debe involucrar a una buena parte de la comunidad científica
mundial para producir la cantidad de experimentos y datos necesarios
para alimentar un modelo que, en últimas, imite un proceso de
pensamiento en un computador.
La ambición de Markram es tener un
modelo funcional en 10 años, una tarea que, en cierto aspecto, implica
enseñarle a pensar a una máquina para poder estudiar cómo sucede este
proceso y, al mismo tiempo, detectar cómo se corrompe mediante la
introducción de enfermedades.
El método de Markram, según Wired,
pretender descifrar por completo la relación entre un grupo de neuronas,
apenas un circuito en los millones de combinaciones existentes en un
cerebro. Desde ahí, asegura el neurocientífico, es posible inferir y
simular cómo se comportarían el resto de conexiones y, con estos datos,
se podría construir el modelo completo en un computador.
Aunque
ambos proyectos distan mucho el uno del otro en temas como escala y
alcances (la iniciativa de Google y la de Markram), las dos
investigaciones persiguen la idea de que la máquina piense. Una
posibilidad que, vista desde cierta perspectiva, puede que ya esté
presente.
Aprendiendo el contexto
Para 2002, el buscador de Google
comenzó a implementar una serie de tecnologías que intentaban enseñarle
al motor de búsqueda el contexto en el que las palabras son usadas. En
cierto sentido, los ingenieros de la compañía encontraron la forma de
que la máquina pudiera entender una palabra por el contexto en el que
estaba expresada.
Esto le permitió al buscador entender que cuando
alguien buscaba “perro caliente” se refería a un producto comestible y
no a un cachorro en llamas, según escribe Steven Levy en su libro ‘In the plex’.
De
nuevo, un logro modesto, pero fundamental, porque entender el contexto
en el que se dicen las palabras es un elemento que forma parte del
proceso por el cual los humanos aprenden el lenguaje.
¿Significa
esto que la máquina piensa? No, dice un amplio número de científicos.
Pero puede que estos sean pasos fundamentales para acercarse a ese
objetivo. En su libro, Levy entrevista a un ingeniero quien sugiere que,
algún día, la búsqueda de otras formas de vida no se hará afuera del
planeta, sino al interior de un computador. No vida extraterrestre, sino
tan sólo alienígena, incubada en un servidor, tal vez.
La
búsqueda de una máquina pensante pasa por un aspecto definitivo: el
manejo de los datos, la utilización de una vasta cantidad de información
para alimentar algoritmos que, a la postre, puedan evolucionar y
producir nuevos resultados. No se trata de generar creatividad, pero sí
de respuestas anticipadas en escenarios sin patrones muy claros;
escenarios como el tráfico de una ciudad.
La idea de un carro que
se maneje solo parece ser hoy en día un asunto que bordea la
posibilidad. En este momento hay varias iniciativas andando,
literalmente, en este sentido.
Pocos de estos proyectos podrían
ver su implementación en el mercado masivo por cuenta del costo de los
sistemas con los que operan (notablemente la iniciativa de Google, que
emplea láseres para determinar la distancia entre un carro y otro, entre
otras variables).
De acuerdo a un reporte de John Markoff en The New York Times, Mobileye Vision Technologies es
una compañía que, utilizando cámaras y algunos algoritmos, pretende
construir un vehículo automatizado por apenas una fracción del precio de
sus competidores. En cierto sentido, muy rudimentario por cierto, el
modelo implementado por esta empresa se asemeja al funcionamiento de la
corteza visual en los humanos.