miércoles, 8 de enero de 2014

Inteligencia Artifical: Un chip que ayude a los ordenadores a entender las imágenes

Investigadores de la Universidad de Purdue (EEUU) están trabajando para comercializar el diseño de un chip que ayuda a los procesadores móviles a hacer uso del método de inteligencia artificial conocido como aprendizaje profundo. Aunque la potencia del aprendizaje profundo ha inspirado a empresas como Google, Facebook y Baidu para invertir en la tecnología, por el momento ésta se ha visto limitada a grandes grupos de ordenadores de alta potencia. 

Cuando Google desarrolló un software que aprendió a reconocer gatos en vídeos de YouTube, para el experimento hicieron falta 16.000 procesadores (ver "Software autodidacta y almacenamiento de datos más rápido").

Incorporar el aprendizaje profundo en formas más compactas y con mayor eficiencia energética, podría dar lugar a smartphones y otros dispositivos móviles capaces de comprender el contenido de las imágenes y el vídeo, explica el profesor de Purdue que trabaja en el proyecto, Eugenio Culurciello. El pasado mes de diciembre, en la conferencia sobre Sistemas de Procesado de Información Neuronal celebrada en Nevada (EEUU), su grupo demostró que un coprocesador conectado con un procesador de smartphone convencional servía para ayudarlo a ejecutar software de aprendizaje profundo. El software era capaz de  detectar caras y etiquetar partes de una imagen de una calle. El diseño del coprocesador se probó en un FPGA, un chip reconfigurable que se puede programar para probar un nuevo diseño de hardware sin el gasto considerable que supone fabricar un chip completamente nuevo.

El prototipo es mucho menos potente que sistemas como el detector de gatos de Google, pero demuestra cómo nuevas formas de hardware podrían permitir el uso de la potencia del aprendizaje profundo de forma más generalizada. "Existe una necesidad de esto", afirma Culurciello. "Probablemente tengas una colección de varios miles de imágenes que nunca vuelves a ver y no tenemos una buena tecnología para analizar todo este contenido".

Dispositivos como Google Glass también se podrían beneficiar de la capacidad de comprender las abundantes imágenes y vídeo que están capturando, sostiene. Se podría buscar en las imágenes y vídeos de alguien usando texto: "coche rojo" o "día soleado con mamá", por ejemplo. También se podrían desarrollar novedosas aplicaciones que actúen cuando reconocen a personas, objetos o escenas concretas.

El software de aprendizaje profundo funciona filtrando datos a través de una red jerárquica con múltiples capas de neuronas simuladas que son sencillas como unidad pero son capaces de comportamientos complejos cuando se enlazan unas con otras (ver "Aprendizaje profundo"). Los ordenadores no son eficientes ejecutando este tipo de redes porque son muy distintas al software convencional.

El diseño de coprocesador de Purdue está especializado en ejecutar redes neuronales multicapas por encima de todo y ponerlas a trabajar en gestionar imágenes. En las pruebas, el prototipo ha demostrado ser hasta 15 veces más eficaz que usar un procesador gráfico para la misma tarea, y Culurciello cree que mejoras en el sistema podrían hacer que fuera hasta 10 veces más eficaz de lo que ya es ahora.

El director del centro para sistemas neuronales y emergentes de HRL Laboratories, un laboratorio de investigación propiedad conjunta de Boeing y General Motors, Narayan Srinivasa, afirma que tiene sentido usar un coprocesador para ayudar a incorporar las redes de aprendizaje profundo de forma más eficaz. Y explica que es porque en los ordenadores convencionales el procesador y su memora residen en trozos distintos de hardware. Por el contrario, las operaciones de las redes neuronales al estilo del aprendizaje profundo y las redes neuronales reales en las que se inspiran entremezclan la memoria y el procesado. La investigación del propio Narayan se centra en abordar este problema con una solución más extrema, diseñar chips con neuronas de silicio y sinapsis que imitan las de los cerebros reales (ver "Los chips neuromórficos tendrán una inteligencia alienígena").

La solución del grupo de Purdue no representa un replanteamiento tan fundamental de cómo operan los chips de ordenador, algo que podría limitar la eficiencia de sus diseños a la hora de ejecutar redes neuronales de aprendizaje profundo, pero también puede facilitar su uso en el mundo real. Culurciello ya ha creado una empresa, llamada TeraDeep, para comercializar sus diseños.


"La idea es vender el IP para incorporarlo, para que un gran fabricante como Qualcomm, o Samsung, o Apple pueda añadir esta funcionalidad a su procesador y poder procesar imágenes", afirma Culurciello. El pionero del aprendizaje profundo de la Universidad de Nueva York (EEUU) Yann LeCun, que recientemente se puso al frente de la investigación de Facebook en este campo, es asesor de la nueva empresa.

POR TOM SIMONITE
TRADUCIDO POR LÍA MOYA
http://www.technologyreview.es/read_article.aspx?id=44514
http://www.technologyreview.com/news/523181/an-ai-chip-to-help-computers-understand-images/