Bradley Efron (Minnesota, Estados Unidos; 1938) es catedrático de Estadística y de Ciencia de Datos Biomédicos en la Universidad de Stanford. Estudió Matemáticas en el Instituto Tecnológico de California (Caltech) y en 1962 se licenció en Estadística en la Universidad de Stanford.
Este mismo año comenzó el doctorado en Estadística bajo la dirección de Rupert Miller y Herb Solomon y tras doctorarse en 1964, se incorporó como profesor a esta misma universidad, donde ha desarrollado toda su carrera académica e investigadora. Desde 1988 es, además, titular de la Cátedra Max H. Stein de la Facultad de Ciencias y Humanidades de la Universidad de Stanford.
Bradley Efron ha realizado numerosas contribuciones a la ciencia de la estadística, pero su paper más conocido –’Bootstrap methods: another look at the jackknife’– se publicó en 1979 en la revista ‘The Annals of Statistics’. Este método, aunque en un principio fue controvertido, ahora es considerado un triunfo de las matemáticas aplicadas junto con los análisis numéricos. Este método ha tenido un gran impacto sobre prácticas estadísticas que han resultado particularmente útiles en ciencias básicas y medicina.
Ha publicado múltiples trabajos en revistas internacionales de prestigio como ‘Biometrika’, ‘The Annals of Statistics’ o ‘Journal of the American Statistics Association’. Ha recibido numerosas distinciones como el MacArthur Prize Fellowship y es miembro de la National Academy of Sciences y de la American Academy of Arts and Sciences, y ‘fellow’ del Institute of Mathematical Statistics y de la American Statistical Association. Además, ha sido galardonado con múltiples premios como el Lester R. Ford Award, la Wilks Medal, el Rao Prize o la National Medal of Science.
Discurso
Ciencias Básicas IX edición
Microentrevista
“La estadística aprende de la experiencia, es como un juego de detectives”
Para el matemático Bradley Efron la estadística es la “actriz secundaria” de la ciencia. No secundaria en importancia, sin embargo. El sobrenombre hace referencia a que los métodos estadísticos no suelen atraer la atención de los focos, que lógicamente se concentran en los descubrimientos. Ahora bien, los descubrimientos surgen de los datos, y los datos hay que interpretarlos… con estadística. Pocos descubrimientos son posibles sin esta, en apariencia, poco glamurosa rama de la ciencia. Por eso Efron, catedrático de Estadística en la Universidad de Stanford (Estados Unidos), y su colega David Cox, de la Universidad de Oxford (Reino Unido), reciben el Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas: sus contribuciones llevan décadas siendo imprescindibles para obtener resultados en un amplísimo rango de áreas, desde la medicina a la astrofísica, la genómica o la física de partículas.
Los problemas que aborda la ciencia moderna implican trabajar con más datos y eso genera ruido. La estadística nos permite eliminarlo
TUITEAR
En la actual era del big data, cuando no solo la ciencia sino también los avances tecnológicos y la economía se nutren de ingentes cantidades de datos, las aportaciones de Cox y Efron cobran aún más relevancia. “Los problemas que aborda la ciencia moderna implican trabajar con más datos y eso genera ruido”, dice Efron. “Ahora para extraer la información relevante tenemos que eliminar gran cantidad de ruido, y la estadística es lo que nos permite hacerlo”.
El método Cox
Cox y Efron publicaron sus trabajos de mayor impacto en los años setenta. En el artículo de Cox ‘Regression models and life tables’ (1972) se explica una poderosa herramienta para estimar el intervalo temporal entre dos eventos dependientes de factores identificables. El llamado método de Cox informa, por ejemplo, sobre el riesgo de muerte de pacientes en tratamiento, de abandono escolar en una determinada población o de bancarrota en las empresas. Es una herramienta usada en la investigación del cáncer, en epidemiología, sociología…, incluso en los ensayos de durabilidad de productos industriales o en la estimación de riesgo de terremotos.
David Cox (Birmingham, Reino Unido; 1924) era ya un investigador de prestigio cuando desarrolló su método. Formado en la Universidad de Cambridge, había empezado a investigar en estadística por la demanda de esta ciencia en aplicaciones militares durante la Segunda Guerra Mundial. Antes de doctorarse trabajó para el Royal Aircraft Establishment y después para la Asociación de Investigación de la Industria de la Lana. Posteriormente investigó en la Universidad de Cambridge, la Universidad de Londres, el Imperial College de Londres y, desde 1988, en la Universidad de Oxford.
El origen del método de Cox fue una pregunta que le plantearon a la vez, de manera independiente, varios amigos que estudiaban el tiempo de supervivencia de pacientes: Cómo saber cuánto influía en la supervivencia el tratamiento frente a otras variables propias de cada enfermo. “Me llevó tres o cuatro años hallar la manera de descubrir mi método”, cuenta Cox, “y finalmente publiqué el trabajo en una revista científica. Para mi sorpresa, resultó ser de utilidad para mucha gente, algo que me hace muy feliz”. En su opinión, las aplicaciones más interesantes de su trabajo están relacionadas con el trasplante de órganos y con el tratamiento de enfermedades muy graves, como la fibrosis quística.
¿Qué es el 'bootstrap' de Efron?
También Bradley Efron ha mantenido una estrecha vinculación con la biomedicina —su cátedra en Stanford está adscrita al Departamento de Datos Científicos Biomédicos en la Facultad de Medicina—. No obstante, su principal aportación se emplea en casi todas las áreas de la ciencia. Es el ‘bootstrap’, término traducible como ‘lengüeta de bota’, una herramienta estadística para determinar algo tan importante en ciencia como el margen de error de una medida.
Efron, que llegó a la estadística guiado por la afición de su padre a las clasificaciones deportivas, buscaba una manera de determinar el grado de precisión de un resultado sin tener que repetir las medidas, algo a menudo imposible, por ejemplo, en el caso de pruebas médicas invasivas. La solución que encontró era en apariencia tan simple que al principio fue acogida con desconfianza: «Parecía como hacer trampa, y no era obvio que funcionara», comenta Efron. Pronto aparecieron miles de trabajos demostrando su eficacia. La idea se basa en tomar datos aleatoriamente de la única muestra disponible y analizarlos. Después, ese mismo proceso se repite una y otra vez, y es ese remuestreo aleatorio reiterado el que proporciona el margen de error. En la técnica resulta crucial el uso de los ordenadores, llegados a la estadística de la mano de Efron. Con ellos era posible repetir el remuestreo un gran número de veces y afinar así mucho más la precisión del resultado.
En cuanto al término ‘bootstrap’, da pistas sobre el chispeante talante de Efron. Buscando un nombre al menos tan atractivo como el de otra herramienta estadística llamada ‘jackknife’ (navaja), Efron se inspiró en los cuentos del Barón de Münchhausen. En uno de ellos el barón se salva de ahogarse tirando de sus propias lengüetas, un buen referente para una técnica que tira de los propios datos sin recabar más.
El ‘bootstrap’ se publicó en 1979. Hasta entonces, el margen de error se determinaba con aproximaciones matemáticas “que podían ser muy complejas y no siempre acertaban”, explica Efron, y sin embargo “con el bootstrap delegas el trabajo en las máquinas”.