Investigadores
de la Universidad de Purdue (EEUU) están trabajando para comercializar el
diseño de un chip que ayuda a los procesadores móviles a hacer uso del método
de inteligencia artificial conocido como aprendizaje profundo. Aunque la
potencia del aprendizaje profundo ha inspirado a empresas como Google, Facebook
y Baidu para invertir en la tecnología, por el momento ésta se ha visto
limitada a grandes grupos de ordenadores de alta potencia.
Cuando Google
desarrolló un software que aprendió a reconocer gatos en vídeos de YouTube,
para el experimento hicieron falta 16.000 procesadores (ver "Software
autodidacta y almacenamiento de datos más rápido").
Incorporar
el aprendizaje profundo en formas más compactas y con mayor eficiencia
energética, podría dar lugar a smartphones y otros dispositivos móviles capaces
de comprender el contenido de las imágenes y el vídeo, explica el profesor de
Purdue que trabaja en el proyecto, Eugenio Culurciello. El pasado mes de
diciembre, en la conferencia sobre Sistemas de Procesado de Información
Neuronal celebrada en Nevada (EEUU), su grupo demostró que un coprocesador
conectado con un procesador de smartphone convencional servía para ayudarlo a ejecutar
software de aprendizaje profundo. El software era capaz de detectar caras y etiquetar partes de una
imagen de una calle. El diseño del coprocesador se probó en un FPGA, un chip
reconfigurable que se puede programar para probar un nuevo diseño de hardware
sin el gasto considerable que supone fabricar un chip completamente nuevo.
El
prototipo es mucho menos potente que sistemas como el detector de gatos de
Google, pero demuestra cómo nuevas formas de hardware podrían permitir el uso
de la potencia del aprendizaje profundo de forma más generalizada. "Existe
una necesidad de esto", afirma Culurciello. "Probablemente tengas una
colección de varios miles de imágenes que nunca vuelves a ver y no tenemos una
buena tecnología para analizar todo este contenido".
Dispositivos
como Google Glass también se podrían beneficiar de la capacidad de comprender
las abundantes imágenes y vídeo que están capturando, sostiene. Se podría
buscar en las imágenes y vídeos de alguien usando texto: "coche rojo"
o "día soleado con mamá", por ejemplo. También se podrían desarrollar
novedosas aplicaciones que actúen cuando reconocen a personas, objetos o
escenas concretas.
El
software de aprendizaje profundo funciona filtrando datos a través de una red
jerárquica con múltiples capas de neuronas simuladas que son sencillas como
unidad pero son capaces de comportamientos complejos cuando se enlazan unas con
otras (ver "Aprendizaje profundo"). Los ordenadores no son eficientes
ejecutando este tipo de redes porque son muy distintas al software
convencional.
El
diseño de coprocesador de Purdue está especializado en ejecutar redes
neuronales multicapas por encima de todo y ponerlas a trabajar en gestionar
imágenes. En las pruebas, el prototipo ha demostrado ser hasta 15 veces más
eficaz que usar un procesador gráfico para la misma tarea, y Culurciello cree
que mejoras en el sistema podrían hacer que fuera hasta 10 veces más eficaz de
lo que ya es ahora.
El
director del centro para sistemas neuronales y emergentes de HRL Laboratories,
un laboratorio de investigación propiedad conjunta de Boeing y General Motors,
Narayan Srinivasa, afirma que tiene sentido usar un coprocesador para ayudar a
incorporar las redes de aprendizaje profundo de forma más eficaz. Y explica que
es porque en los ordenadores convencionales el procesador y su memora residen
en trozos distintos de hardware. Por el contrario, las operaciones de las redes
neuronales al estilo del aprendizaje profundo y las redes neuronales reales en
las que se inspiran entremezclan la memoria y el procesado. La investigación
del propio Narayan se centra en abordar este problema con una solución más
extrema, diseñar chips con neuronas de silicio y sinapsis que imitan las de los
cerebros reales (ver "Los chips neuromórficos tendrán una inteligencia
alienígena").
La
solución del grupo de Purdue no representa un replanteamiento tan fundamental
de cómo operan los chips de ordenador, algo que podría limitar la eficiencia de
sus diseños a la hora de ejecutar redes neuronales de aprendizaje profundo,
pero también puede facilitar su uso en el mundo real. Culurciello ya ha creado
una empresa, llamada TeraDeep, para comercializar sus diseños.
"La
idea es vender el IP para incorporarlo, para que un gran fabricante como
Qualcomm, o Samsung, o Apple pueda añadir esta funcionalidad a su procesador y
poder procesar imágenes", afirma Culurciello. El pionero del aprendizaje
profundo de la Universidad de Nueva York (EEUU) Yann LeCun, que recientemente
se puso al frente de la investigación de Facebook en este campo, es asesor de
la nueva empresa.
POR TOM SIMONITE
TRADUCIDO POR LÍA MOYA
http://www.technologyreview.es/read_article.aspx?id=44514
http://www.technologyreview.com/news/523181/an-ai-chip-to-help-computers-understand-images/