Geoffrey Hinton

Geoffrey Hinton

PREMIO FRONTERAS DEL CONOCIMIENTO

Tecnologías de la Información y la Comunicación

IX edición

Geoffrey Hinton recibe el galardón por sus contribuciones pioneras y altamente influyentes en el campo de 'machine learning', liderando el área de redes neuronales y 'deep learning', que ha permitido fundamentar los más potentes algoritmos hoy en uso para el reconocimiento de imágenes y el procesamiento del lenguaje natural.

MENCIÓN DEL ACTA

El Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación ha sido concedido en su novena edición a Geoffrey Hinton por su trabajo pionero y profundamente influyente en el aprendizaje automático.

Hinton es la figura mundial más importante en el área de redes neuronales. Su trabajo se inspira en el funcionamiento del cerebro humano y en cómo ese conocimiento puede ser aplicado con el fin de dotar a las máquinas de la capacidad para desempeñar tareas complejas como lo hacen los humanos.

Hinton, en colaboración con el difunto David Rumelhart, desarrolló el sistema de aprendizaje por retropropagación para redes neuronales, que permite a estas producir sus propias representaciones internas, y que se ha utilizado con éxito en una amplia gama de aplicaciones prácticas. Hinton realizó muchas contribuciones significativas al éxito de la retropropagación. Fue el primero en poner el foco en la noción de un criterio de entrenamiento diferenciable para el aprendizaje en las redes neuronales y también el primero en utilizar la retropropagación en el tiempo para el aprendizaje de estructuras secuenciales. Asimismo introdujo una serie de nuevas técnicas que se hicieron predominantes en el parendizaje automático.

Hinton es el investigador de quien parte el aprendizaje profundo, uno de los desarrollos más emocionantes de la moderna inteligencia artificia. En 1999 desarrolló un nuevo algoritmo que acabó convirtiéndose en la piedra angular de los algoritmos de aprendizaje profundo, que extraen abstracciones de alto nivel a partir de los datos, eliminando así la ingeniería manual y permitiendo a la máquina aprender de manera automática representaciones de datos aptas para una tarea.

Sus contribuciones han desplazado las fronteras de la inteligencia artificial y han sido el fundamento de los algoritmos más eficaces en reconocimiento de voz, de imagen y del lenguaje, cambiando el modo en que interactuamos con la información.

BIOGRAFÍA

Tras graduarse en Psicología Experimental en Cambridge en 1970, y obtener su doctorado en Inteligencia Artificial por la Universidad de Edimburgo en 1978, Geoffrey Hinton (Londres, Reino Unido; 1947) trabajó en la Universidad de Sussex (Reino Unido), las universidades de California en San Diego y Carnegie-Mellon (Estados Unidos) y la Universidad de Toronto (Canadá). Entre 1998 y 2001, puso en marcha la Unidad Gatsby de Neurociencia Computacional de la Universidad de Londres, considerado uno de los principales grupos de investigación del mundo en esta área. Posteriormente, regresó a la Universidad de Toronto, donde actualmente es catedrático en el Departamento de Ciencias de la Computación.

Entre 2004 y 2013, dirigió el programa sobre “Computación Neuronal y Percepción Adaptativa” del Instituto Canadiense para la Investigación Avanzada, una de las instituciones científicas más prestigiosas del país, y desde 2013 colabora como investigador en Google en el desarrollo de sistemas de reconocimiento de voz e imagen, traductores de idiomas, programas de procesamiento del lenguaje y otras aplicaciones del ‘aprendizaje profundo’.

Hinton es miembro de la Royal Society del Reino Unido, la Royal Society de Canadá y la Asociación para el Avance de la Inteligencia Artificial (de ámbito internacional). Además, es miembro honorario de la Academia de las Artes y las Ciencias y la Academia Nacional de Ingeniería, ambas de Estados Unidos. Presidió la Cognitive Science Society entre 1992 y 1993 y ostenta doctorados ‘honoris causa’ por las universidades de Edimburgo, Sussex y Sherbrooke.

Entre otros reconocimientos, ha recibido el Premio NEC C&C (2016), el Premio David E. Rumelhart por sus contribuciones a los fundamentos teóricos de la cognición humana (2001) y el Premio a la Investigación de Excelencia de la International Joint Conferences on Artificial Intelligence Organization, IJCAI (2005), uno de los más prestigiosos en el área de la Inteligencia Artificial. También le han sido concedidos la Medalla de Oro Gerhard Herzberg del Consejo de Investigación de Ciencias Naturales e Ingeniería de Canadá (2010) – el premio más importante del país en esta área de investigación- y la Medalla James Clerk Maxwell que conceden el  Institute of Electrical and Electronics Engineers (IEEE) y la Real Sociedad de Edimburgo (2016).

CONTRIBUCIÓN

Discurso

Tecnologías de la Información y la Comunicación IX edición

Microentrevista

“Las máquinas serán más inteligentes que las personas en casi todo”

Geoffrey Hinton cree que con el tiempo todo lo que hace el cerebro humano podrán llegar a aprenderlo las máquinas. ¿Con cuánto tiempo? «Más de cinco años», estima Hinton: más allá «no es buena idea hacer predicciones». El ritmo al que avanzan las tecnologías de la información no es uniforme y Hinton lo sabe porque él mismo ha hecho posible el potente e inesperado acelerón que vive ahora el área, y que promete profundos cambios económicos y sociales.

Hinton, ganador del Premio Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, se ha inspirado en la forma en que aprendemos los humanos para abrir la vía a las primeras máquinas capaces de aprender por sí mismas. Se trata de ordenadores con ‘deep learning’ (aprendizaje profundo), la tecnología detrás de las herramientas de reconocimiento de voz e imagen, de los traductores automáticos o de los vehículos sin conductor. En biomedicina, en seguridad, en cualquier área que necesite extraer información de gran cantidad de datos, hay ya aplicaciones de ‘deep learning’. Y es solo el principio de lo que promete la nueva inteligencia artificial (AI, en sus siglas en inglés). «Las máquinas nos pueden hacer la vida mucho más fácil», asegura Hinton (Londres, Reino Unido, 1947).

Siempre he creído que la única manera de hacer que la inteligencia artificial funcione realmente es tratar de operar como el cerebro humano

TUITEAR

Hace apenas una década pocos hubieran predicho este auge de la AI. Por entonces la investigación en aprendizaje automático (‘machine learning’ en inglés) progresaba despacio. Los investigadores habían ensayado diversos abordajes. Uno de ellos consistía en programar gran cantidad de conocimiento en la máquina, el equivalente a explicarle, por ejemplo, qué es un gato de forma que pudiera reconocerlo al verlo. Ahora bien, ¿cómo programar la diferencia con un gato de peluche o con otro felino de tamaño medio? Con esta estrategia, el conocimiento previo que debe digerir la máquina crece y crece. Una alternativa a ello es entrenarla con ejemplos correctos e incorrectos para que adquiera experiencia. Este es el objetivo de las redes neuronales artificiales, un tipo de programas que operan como unidades conectadas entre sí —al estilo de las neuronas biológicas—.

Sin embargo, las primeras redes neuronales no funcionaron como se esperaba y la inmensa mayoría de los investigadores acabó considerándolas una vía muerta. Hinton no formó parte de esa inmensa mayoría. Él mismo, profundamente intrigado desde adolescente por el funcionamiento del cerebro humano, mantuvo la apuesta por las redes neuronales.

Tras graduarse en Psicología Experimental por la Universidad de Cambridge en 1970, se doctoró en Inteligencia Artificial con una tesis sobre redes neuronales leída en la Universidad de Edimburgo en 1978. Ha contado que por entonces, y durante varios años, su mentor le aconsejaba «todas las semanas» que cambiara de campo, a lo que él respondía: «Dame otros seis meses y te demuestro que funcionan». Después de quedarse sin fondos para su trabajo en el Reino Unido, emigró primero a Estados Unidos y después a la Universidad de Toronto, en Canadá. Empeñado en buscar inspiración en el cerebro, creó en 2004 un grupo integrado por expertos en computación, electrónica, neurociencia, física y psicología. Y de ahí nació ‘deep learning’.

Contra todo pronóstico, Geoffrey Hinton y sus estudiantes desarrollaron en 2009 una red neuronal para reconocimiento de voz que obtenía mejores resultados que la tecnología disponible en ese momento, fruto de tres décadas de trabajo. En 2012 una sofisticada red compuesta por 650.000 ‘neuronas’, y entrenada con 1,2 millones de imágenes, redujo casi a la mitad la tasa de error en reconocimiento de objetos. Es decir, y volviendo a los gatos: la máquina aprendía a identificarlos sin que nadie tuviera que describírselos previamente.

Desde 2013, Hinton compagina su cátedra en la Universidad de Toronto con el puesto de vicepresidente e investigador en Ingeniería de Google.

¿Cuál es la clave del éxito de la nueva AI?

En gran medida los algoritmos de Hinton, cuyo fundamento él mismo explica así: «El cerebro humano aprende reforzando las conexiones entre sus miles de millones de neuronas; para que un ordenador aprenda, se puede intentar reproducir ese proceso descubriendo un mecanismo que refuerce las conexiones entre neuronas artificiales».

Los algoritmos de Hinton se inspiran en el proceso biológico del aprendizaje y lo convierten en matemáticas. Y aquí entra en juego el entrenamiento de la máquina: si una imagen de prueba es reconocida, las conexiones de la red neuronal que han llevado a esa respuesta correcta aumentan de valor —se ‘refuerzan’—. La máquina ‘aprende’ cuando, tras mucho entrenamiento, se eliminan o reducen las conexiones de menos valor. El proceso descansa en el método matemático ‘backpropagation’ creado por Hinton, que permite informar eficazmente a la red de sus errores o aciertos y ajustar el valor de sus conexiones en consecuencia.

‘Deep learning’ es, en esencia, «un nuevo tipo de inteligencia artificial» en que «logras que la máquina aprenda de su propia experiencia», explica Hinton. Es además una técnica que aprovecha al máximo otros dos grandes avances en computación: el aumento de la capacidad de cálculo y el aluvión de datos ya disponibles en multitud de áreas. Para muchos, el auge paralelo del ‘deep learning’ y el ‘big data’ es un caso claro de co-evolución computacional.

«Hace años hice una apuesta, y me siento muy afortunado porque al final se ha demostrado que [mi estrategia] funciona», asiente con satisfacción Hinton.