fbbva-16-ciencias-cox

David Cox

PREMIOS FRONTERAS DEL CONOCIMIENTO

Ciencias Básicas

IX edición

El Premio Fundación BBVA Fronteras del Conocimiento en la categoría de Ciencias Básicas recae, en su novena edición en los matemáticos David CoxBradley Efron, por contribuciones pioneras y enormemente influyentes a la teoría y la práctica de la ciencia estadística, ideando potentes técnicas de uso universal como la regresión de Cox y el método 'bootstrap' de Efron.

MENCIÓN DEL ACTA

El Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas ha sido concedido en su novena edición a David Cox y Bradley Efron por sus contribuciones pioneras y enormemente influyentes a la teoría y práctica de la estadística. Sus métodos se usan diariamente en la práctica de la ciencia estadística y han tenido un gran impacto en todas las ciencias que dependen del análisis de datos

Estas técnicas se utilizan en multitud de áreas: por ejemplo, para demostrar que al año de haber dejado de fumar ya se produce un descenso en la mortalidad, en el desarrollo de instrumentos médicos de medición y en el análisis de datos en medicina clínica, economía o astrofísica.

David Cox inventó el modelo de riesgos proporcionales para el análisis de datos de supervivencia. La denominada regresión de Cox es una herramienta fundamental para modelizar la distribución estadística de factores causales y se utiliza ampliamente en muchas áreas, incluidas la investigación en cáncer, la epidemiología, la medicina, la economía, la sociología y los ensayos sobre productos industriales.

La regresión de Cox da cabida de manera elegante a las observaciones incompletas (‘censuradas’) —por ejemplo, porque el estudio termina sin que se haya producido el evento o no se puede realizar el seguimiento de determinados sujetos— y permite estimar los efectos del tratamiento ajustado para otras variables que puedan afectar al resultado.

Bradley Efron creó el método ‘bootstrap’, una técnica de remuestreo que aprovecha la potencia computacional de los ordenadores para aproximar la distribución de estimadores estadísticos extraídos de los datos. Lo maravilloso de este procedimiento es que puede utilizarse con estadísticas nuevas para las que los resultados teóricos son imprecisos y se emplea en un amplísimo número de disciplinas con el fin de estimar errores estándar, tasas de error, intervalos de confianza y pruebas de hipótesis.

BIOGRAFÍA

David Cox (Birmingham, Reino Unido; 1924) estudió Matemáticas en el St. John’s College (Universidad de Cambridge), y obtuvo su doctorado por la Universidad de Leeds en 1949. Durante los primeros años de su carrera, trabajó para el Royal Aircraft Establishment (1944-1946), la Wool Industries Research Association (1946-1950) y el Laboratorio de Estadística de la Universidad de Cambridge (1950-1955).

En la Universidad de Londres, fue Reader y catedrático de Estadística en el BirkBeck College (1956-1966), catedrático de Estadística en el Imperial College of Science and Technology (1966-1988) y director del Departamento de Matemáticas (1969-1973). En 1988, fue nombrado Warden en el Nuffield College de la Universidad de Oxford y pasó a formar parte del Departamento de Estadística de esta universidad, donde continúa trabajando tras su jubilación en 1994.

Su artículo científico ‘The regression analysis of life tables’ (1972) revolucionó la teoría y práctica de los métodos estadísticos para la investigación médica y es el segundo más citado en el área de la estadística, con unas 30.000 citas en ‘Web of Science’ y 42.000 en ‘Google Scholar’. Este trabajo le valió, en 1990, el Premio Kettering y Medalla de Oro en Investigación del Cáncer, convirtiéndose así en el único matemático que ha obtenido este galardón. En 2014, la revista ‘Nature’ lo situó en el puesto 16º de su top 100 de artículos científicos de todas las áreas y todos los tiempos. La contribución de este artículo también fue reconocida en 2016, con la concesión a su autor del primer Premio Internacional de Estadística.

Es miembro honorario de más de cuarenta universidades y sociedades científicas, entre ellas la Royal Society of London, que le otorgó la Medalla Copley en 2010, la Academia Británica y la Academia Nacional de las Ciencias de Estados Unidos. También ha recibido la Medalla Guy de la Real Sociedad Estadística del Reino Unido (de plata en 1961 y de oro en 1973), el Weldon Memorial Prize de la Universidad de Oxford (1984) y el Max Planck Forschungspreise (1992). Entre 1995 y 1997 presidió el Instituto Internacional de Estadística. Fue nombrado caballero (Knight Bachelor) en 1985.

CONTRIBUCIÓN

Discurso

Ciencias Básicas IX edición

Microentrevista

“Los científicos debemos hacer todo lo posible para propagar la búsqueda de la verdad”

Para el matemático Bradley Efron la estadística es la “actriz secundaria” de la ciencia. No secundaria en importancia, sin embargo. El sobrenombre hace referencia a que los métodos estadísticos no suelen atraer la atención de los focos, que lógicamente se concentran en los descubrimientos. Ahora bien, los descubrimientos surgen de los datos, y los datos hay que interpretarlos… con estadística. Pocos descubrimientos son posibles sin esta, en apariencia, poco glamurosa rama de la ciencia. Por eso Efron, catedrático de Estadística en la Universidad de Stanford (Estados Unidos), y su colega David Cox, de la Universidad de Oxford (Reino Unido), reciben el Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas: sus contribuciones llevan décadas siendo imprescindibles para obtener resultados en un amplísimo rango de áreas, desde la medicina a la astrofísica, la genómica o la física de partículas.

En la actual era del big data, cuando no solo la ciencia sino también los avances tecnológicos y la economía se nutren de ingentes cantidades de datos, las aportaciones de Cox y Efron cobran aún más relevancia. “Los problemas que aborda la ciencia moderna implican trabajar con más datos y eso genera ruido”, dice Efron. “Ahora para extraer la información relevante tenemos que eliminar gran cantidad de ruido, y la estadística es lo que nos permite hacerlo”.

El método Cox

Cox y Efron publicaron sus trabajos de mayor impacto en los años setenta. En el artículo de Cox ‘Regression models and life tables’ (1972) se explica una poderosa herramienta para estimar el intervalo temporal entre dos eventos dependientes de factores identificables. El llamado método de Cox informa, por ejemplo, sobre el riesgo de muerte de pacientes en tratamiento, de abandono escolar en una determinada población o de bancarrota en las empresas. Es una herramienta usada en la investigación del cáncer, en epidemiología, sociología…, incluso en los ensayos de durabilidad de productos industriales o en la estimación de riesgo de terremotos.

David Cox era ya un investigador de prestigio cuando desarrolló su método. Formado en la Universidad de Cambridge, había empezado a investigar en estadística por la demanda de esta ciencia en aplicaciones militares durante la Segunda Guerra Mundial. Antes de doctorarse trabajó para el Royal Aircraft Establishment y después para la Asociación de Investigación de la Industria de la Lana. Posteriormente investigó en la Universidad de Cambridge, la Universidad de Londres, el Imperial College de Londres y, desde 1988, en la Universidad de Oxford.

Mi modelo sirve para estimar la probabilidad de que se produzcan desde terremotos hasta quiebras económicas

TUITEAR

El origen del método de Cox fue una pregunta que le plantearon a la vez, de manera independiente, varios amigos que estudiaban el tiempo de supervivencia de pacientes: Cómo saber cuánto influía en la supervivencia el tratamiento frente a otras variables propias de cada enfermo. “Me llevó tres o cuatro años hallar la manera de descubrir mi método”, cuenta Cox, “y finalmente publiqué el trabajo en una revista científica. Para mi sorpresa, resultó ser de utilidad para mucha gente, algo que me hace muy feliz”. En su opinión, las aplicaciones más interesantes de su trabajo están relacionadas con el trasplante de órganos y con el tratamiento de enfermedades muy graves, como la fibrosis quística.

¿Qué es el 'bootstrap' de Efron?

También Bradley Efron (Minnesota, Estados Unidos; 1938) ha mantenido una estrecha vinculación con la biomedicina —su cátedra en Stanford está adscrita al Departamento de Datos Científicos Biomédicos en la Facultad de Medicina—. No obstante, su principal aportación se emplea en casi todas las áreas de la ciencia. Es el ‘bootstrap’, término traducible como ‘lengüeta de bota’, una herramienta estadística para determinar algo tan importante en ciencia como el margen de error de una medida.

Efron, que llegó a la estadística guiado por la afición de su padre a las clasificaciones deportivas, buscaba una manera de determinar el grado de precisión de un resultado sin tener que repetir las medidas, algo a menudo imposible, por ejemplo, en el caso de pruebas médicas invasivas. La solución que encontró era en apariencia tan simple que al principio fue acogida con desconfianza: “Parecía como hacer trampa, y no era obvio que funcionara, comenta Efron. Pronto aparecieron miles de trabajos demostrando su eficacia. La idea se basa en tomar datos aleatoriamente de la única muestra disponible y analizarlos. Después, ese mismo proceso se repite una y otra vez, y es ese remuestreo aleatorio reiterado el que proporciona el margen de error. En la técnica resulta crucial el uso de los ordenadores, llegados a la estadística de la mano de Efron. Con ellos era posible repetir el remuestreo un gran número de veces y afinar así mucho más la precisión del resultado.

En cuanto al término ‘bootstrap’, da pistas sobre el chispeante talante de Efron. Buscando un nombre al menos tan atractivo como el de otra herramienta estadística llamada ‘jackknife’ (navaja), Efron se inspiró en los cuentos del Barón de Münchhausen. En uno de ellos el barón se salva de ahogarse tirando de sus propias lengüetas, un buen referente para una técnica que tira de los propios datos sin recabar más.

El ‘bootstrap’ se publicó en 1979. Hasta entonces, el margen de error se determinaba con aproximaciones matemáticas “que podían ser muy complejas y no siempre acertaban”, explica Efron, y sin embargo “con el bootstrap delegas el trabajo en las máquinas”.