Programa

Introducción:

Probabilidad y estadı́stica en la investigación experimental. Estimación de parámetros: de los datos a los resultados. Las incertezas como intervalos de confianza, errores estadı́sticos y
sistemáticos. Diseño de experimentos. Tests de hipótesis y la validación de modelos teóricos.

Repaso de probabilidades:

    Variables aleatorias. Probabilidad condicional, independencia y correlación. Teorema de Bayes. Esperanza y varianza. Ley de grandes números. Desigualdad de Chebyshev. Distribución y densidad de probabilidad. Distribuciones multidimensionales y covarianza.

    Ejemplos de distribuciones importantes:

    Definición y aplicaciones experimentales de las distribuciones Binomial, Multinomial, de Poisson, Normal, Exponencial, Gama, Log-normal y de Cauchy. Distribuciones de muestreo: chi-cuadrado, t de Student y función F .

    Propagación de errores:

    Funciones de variables aleatorias. Aproximación lineal a la propagación de errores y método exacto. El rol de la matriz de covarianza. Composición de variables aleatorias.
    Función caracterı́stica. Teorema central del lı́mite y la aproximación gaussiana.

    Inferencia de parámetros I:

    Teorı́a de estimadores. Propiedades generales: consistencia, convergencia, sesgo, eficiencia, suficiencia, y robustez. Información de Fisher y condición de Darmois para
    suficiencia. Teorema de Cramer-Rao, eficiencia y estimadores óptimos.

    Inferencia de parámetros II:

    Estimadores de máxima verosimilitud, invarianza ante transformación de parámetros, propiedades asintóticas óptimas. Combinación de experimentos. Estimadores de cuadrados mı́nimos, teorema de Gauss-Markov, solución matricial exacta. Cuadrados mı́nimos con errores en ambas variables y con funciones no lineales.

    Intervalos de confianza I:

    Intervalos frecuentistas. Recubrimiento. Estimación de la matriz de covariancia en la aproximación parabólica. Elipse de covarianza. Intervalos de confianza generales a partir de la función verosimilitud y determinación gráfica de estimadores y sus errores. Intervalos exactos y el cinturón de confianza de Neyman. Cotas superiores e inferiores. Feldman-Cousins. Incorporación de errores sistemáticos via perfilado, Metodos de remuestreo: boostrap y jacknife.

    Intervalos de confianza II:

    vIntervalos bayesianos. Interpretación frecuentista y bayesiana de la probabilidad. Priores y posteriores. Distribuciones de priores conjugados y de referencia. Intervalos de credibilidad y estimación de parámetros. Cobertura. Tratamiento bayesiano de errores sistemáticos.

    Tests de Hipótesis I:

    Propiedades generales de los tests de verificación de hipótesis. Diferencia entre hipótesis simple y compuesta. Region critica y nivel de significancia. Errores de primer y segundo tipo y potencia de un test. Test uniformemente mas poderoso. Consistencia y sesgo de un test. Tablas de contigencia e independencia. Tests frecuentistas y bayesianos, valor-p y factor de Bayes.

    Tests de Hipótesis II:

    Descripción y aplicaciones de tests especı́ficos. Test de Neyman-Pearson para hipotesis simples. Test del cociente de verosimilitudes para hipotesis compuestas. Test chi-cuadrado
    para bondad de ajuste y el concepto de grados de libertad. Test de Kolmogorov y de Cramer-von Mises para muestras reducidas sin binear, Tests “run” y de Wilcoxon para verificación de aleaoriedad y compatibilidad de dos muestras. Test de Kruskal-Wallis para comparación de muchas muestras. Tests de significancia de señal sobre ruido.

    WordPress Appliance - Powered by TurnKey Linux