fbbva-16-ciencias-cox

David Cox

PREMIOS FRONTERAS DEL CONOCIMIENTO

Ciencias Básicas

IX Edición

El Premio Fundación BBVA Fronteras del Conocimiento en la categoría de Ciencias Básicas recae, en su novena edición en los matemáticos David CoxBradley Efron, por contribuciones pioneras y enormemente influyentes a la teoría y la práctica de la ciencia estadística, ideando potentes técnicas de uso universal como la regresión de Cox y el método 'bootstrap' de Efron.

MENCIÓN DEL ACTA

El Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas ha sido concedido en su novena edición a David Cox y Bradley Efron por sus contribuciones pioneras y enormemente influyentes a la teoría y práctica de la estadística. Sus métodos se usan diariamente en la práctica de la ciencia estadística y han tenido un gran impacto en todas las ciencias que dependen del análisis de datos

Estas técnicas se utilizan en multitud de áreas: por ejemplo, para demostrar que al año de haber dejado de fumar ya se produce un descenso en la mortalidad, en el desarrollo de instrumentos médicos de medición y en el análisis de datos en medicina clínica, economía o astrofísica.

David Cox inventó el modelo de riesgos proporcionales para el análisis de datos de supervivencia. La denominada regresión de Cox es una herramienta fundamental para modelizar la distribución estadística de factores causales y se utiliza ampliamente en muchas áreas, incluidas la investigación en cáncer, la epidemiología, la medicina, la economía, la sociología y los ensayos sobre productos industriales.

La regresión de Cox da cabida de manera elegante a las observaciones incompletas (‘censuradas’) —por ejemplo, porque el estudio termina sin que se haya producido el evento o no se puede realizar el seguimiento de determinados sujetos— y permite estimar los efectos del tratamiento ajustado para otras variables que puedan afectar al resultado.

Bradley Efron creó el método ‘bootstrap’, una técnica de remuestreo que aprovecha la potencia computacional de los ordenadores para aproximar la distribución de estimadores estadísticos extraídos de los datos. Lo maravilloso de este procedimiento es que puede utilizarse con estadísticas nuevas para las que los resultados teóricos son imprecisos y se emplea en un amplísimo número de disciplinas con el fin de estimar errores estándar, tasas de error, intervalos de confianza y pruebas de hipótesis.