Introducción:
Probabilidad y estadı́stica en la investigación experimental. Estimación de parámetros: de los datos a los resultados. Las incertezas como intervalos de confianza, errores estadı́sticos y
sistemáticos. Diseño de experimentos. Tests de hipótesis y la validación de modelos teóricos.
Repaso de probabilidades:
Variables aleatorias. Probabilidad condicional, independencia y correlación. Teorema de Bayes. Esperanza y varianza. Ley de grandes números. Desigualdad de Chebyshev. Distribución y densidad de probabilidad. Distribuciones multidimensionales y covarianza.
Ejemplos de distribuciones importantes:
Definición y aplicaciones experimentales de las distribuciones Binomial, Multinomial, de Poisson, Normal, Exponencial, Gama, Log-normal y de Cauchy. Distribuciones de muestreo: chi-cuadrado, t de Student y función F .
Propagación de errores:
Funciones de variables aleatorias. Aproximación lineal a la propagación de errores y método exacto. El rol de la matriz de covarianza. Composición de variables aleatorias.
Función caracterı́stica. Teorema central del lı́mite y la aproximación gaussiana.
Inferencia de parámetros I:
Teorı́a de estimadores. Propiedades generales: consistencia, convergencia, sesgo, eficiencia, suficiencia, y robustez. Información de Fisher y condición de Darmois para
suficiencia. Teorema de Cramer-Rao, eficiencia y estimadores óptimos.
Inferencia de parámetros II:
Estimadores de máxima verosimilitud, invarianza ante transformación de parámetros, propiedades asintóticas óptimas. Combinación de experimentos. Estimadores de cuadrados mı́nimos, teorema de Gauss-Markov, solución matricial exacta. Cuadrados mı́nimos con errores en ambas variables y con funciones no lineales.
Intervalos de confianza I:
Intervalos frecuentistas. Recubrimiento. Estimación de la matriz de covariancia en la aproximación parabólica. Elipse de covarianza. Intervalos de confianza generales a partir de la función verosimilitud y determinación gráfica de estimadores y sus errores. Intervalos exactos y el cinturón de confianza de Neyman. Cotas superiores e inferiores. Feldman-Cousins. Incorporación de errores sistemáticos via perfilado, Metodos de remuestreo: boostrap y jacknife.
Intervalos de confianza II:
vIntervalos bayesianos. Interpretación frecuentista y bayesiana de la probabilidad. Priores y posteriores. Distribuciones de priores conjugados y de referencia. Intervalos de credibilidad y estimación de parámetros. Cobertura. Tratamiento bayesiano de errores sistemáticos.
Tests de Hipótesis I:
Propiedades generales de los tests de verificación de hipótesis. Diferencia entre hipótesis simple y compuesta. Region critica y nivel de significancia. Errores de primer y segundo tipo y potencia de un test. Test uniformemente mas poderoso. Consistencia y sesgo de un test. Tablas de contigencia e independencia. Tests frecuentistas y bayesianos, valor-p y factor de Bayes.
Tests de Hipótesis II:
Descripción y aplicaciones de tests especı́ficos. Test de Neyman-Pearson para hipotesis simples. Test del cociente de verosimilitudes para hipotesis compuestas. Test chi-cuadrado
para bondad de ajuste y el concepto de grados de libertad. Test de Kolmogorov y de Cramer-von Mises para muestras reducidas sin binear, Tests “run” y de Wilcoxon para verificación de aleaoriedad y compatibilidad de dos muestras. Test de Kruskal-Wallis para comparación de muchas muestras. Tests de significancia de señal sobre ruido.