Programa

Introducción:

Probabilidad y estadı́stica en la investigación experimental. Estimación de parámetros: de los datos a los resultados. Las incertezas como intervalos de confianza, errores estadı́sticos y
sistemáticos. Diseño de experimentos. Tests de hipótesis y la validación de modelos teóricos.

Repaso de probabilidades:

Variables aleatorias. Probabilidad condicional, independencia y correlación. Teorema de Bayes. Esperanza y varianza. Ley de grandes números. Desigualdad de Chebyshev. Distribución y densidad de probabilidad. Distribuciones multidimensionales y covarianza.

Ejemplos de distribuciones importantes:

Definición y aplicaciones experimentales de las distribuciones Binomial, Multinomial, de Poisson, Normal, Exponencial, Gama, Log-normal y de Cauchy. Distribuciones de muestreo: chi-cuadrado, t de Student y función F .

Propagación de errores:

Funciones de variables aleatorias. Aproximación lineal a la propagación de errores y método exacto. El rol de la matriz de covarianza. Composición de variables aleatorias.
Función caracterı́stica. Teorema central del lı́mite y la aproximación gaussiana.

Inferencia de parámetros I:

Teorı́a de estimadores. Propiedades generales: consistencia, convergencia, sesgo, eficiencia, suficiencia, y robustez. Información de Fisher y condición de Darmois para
suficiencia. Teorema de Cramer-Rao, eficiencia y estimadores óptimos.

Inferencia de parámetros II:

Estimadores de máxima verosimilitud, invarianza ante transformación de parámetros, propiedades asintóticas óptimas. Combinación de experimentos. Estimadores de cuadrados mı́nimos, teorema de Gauss-Markov, solución matricial exacta. Cuadrados mı́nimos con errores en ambas variables y con funciones no lineales.

Intervalos de confianza I:

Intervalos frecuentistas. Recubrimiento. Estimación de la matriz de covariancia en la aproximación parabólica. Elipse de covarianza. Intervalos de confianza generales a partir de la función verosimilitud y determinación gráfica de estimadores y sus errores. Intervalos exactos y el cinturón de confianza de Neyman. Cotas superiores e inferiores. Feldman-Cousins. Incorporación de errores sistemáticos via perfilado, Metodos de remuestreo: boostrap y jacknife.

Intervalos de confianza II:

vIntervalos bayesianos. Interpretación frecuentista y bayesiana de la probabilidad. Priores y posteriores. Distribuciones de priores conjugados y de referencia. Intervalos de credibilidad y estimación de parámetros. Cobertura. Tratamiento bayesiano de errores sistemáticos.

Tests de Hipótesis I:

Propiedades generales de los tests de verificación de hipótesis. Diferencia entre hipótesis simple y compuesta. Region critica y nivel de significancia. Errores de primer y segundo tipo y potencia de un test. Test uniformemente mas poderoso. Consistencia y sesgo de un test. Tablas de contigencia e independencia. Tests frecuentistas y bayesianos, valor-p y factor de Bayes.

Tests de Hipótesis II:

Descripción y aplicaciones de tests especı́ficos. Test de Neyman-Pearson para hipotesis simples. Test del cociente de verosimilitudes para hipotesis compuestas. Test chi-cuadrado
para bondad de ajuste y el concepto de grados de libertad. Test de Kolmogorov y de Cramer-von Mises para muestras reducidas sin binear, Tests “run” y de Wilcoxon para verificación de aleaoriedad y compatibilidad de dos muestras. Test de Kruskal-Wallis para comparación de muchas muestras. Tests de significancia de señal sobre ruido.

WordPress Appliance - Powered by TurnKey Linux