lunes, 8 de junio de 2020

Diseño de la Calidad de la Simulación


 
4.1. Lista de estimadores a obtener de la simulación.
Hasta ahora hemos estudiado cómo simular probabilidades de elección pero no
hemos estudiado las propiedades de los estimadores de los parámetros que se
basan en estas probabilidades simuladas. En los casos que hemos presentado,
simplemente hemos insertado las probabilidades simuladas en la función log-
verosimilitud y hemos maximizada dicha función, de la misma forma que lo
habríamos hecho si las probabilidades hubieran sido exactas. Este procedimiento
parece intuitivamente razonable. Sin embargo, no hemos mostrado realmente, al
menos hasta ahora, que el estimador resultante tenga propiedades deseables,
como consistencia, normalidad asintótica o eficiencia. Tampoco hemos explorado
la posibilidad de que otras formas de estimación puedan ser preferibles cuando
usamos simulación, en lugar de las probabilidades exactas. El propósito de este
capítulo es examinar varios métodos de estimación en el contexto de la simulación.
Derivaremos las propiedades de estos estimadores y mostraremos las condiciones
en las que cada estimador es consistente y asintóticamente equivalente al estimador
que obtendríamos si usásemos valores exactos en lugar de simulación. Estas
condiciones proporcionan una guía al investigador sobre cómo debe llevarse a cabo
la simulación para obtener estimadores con propiedades deseables. El análisis
también pone en evidencia las ventajas y limitaciones de cada forma de estimación,
facilitando así la elección del investigador entre los diferentes métodos.
Las técnicas de simulación en estadística, como son los métodos de Monte Carlo,
y los procedimientos de re muestreo conocidos como bootstrap, son de gran utilidad
cuando no tenemos expresiones cerradas para calcular medidas de incertidumbre
como son la desviación estándar de estimadores y los intervalos de confianza. Estos
métodos de simulación permiten obtener estimaciones con menores supuestos que
los métodos analíticos, a cambio de un trabajo computacional más intenso. La
disponibilidad creciente de los recursos computacionales, hacen de las técnicas de
simulación una herramienta de uso creciente. En este trabajo se discuten estas
técnicas de simulación, y se ilustran con ejemplos sencillos.
En el contexto estadístico, entendemos por simulación, la técnica de muestreo
estadístico controlado, que se utiliza conjuntamente con un modelo, para obtener
respuestas aproximadas a preguntas que surgen en problemas complejos de tipo
probabilístico. En metrología, el proceso de medición es de naturaleza probabilística
y los modelos de medición con frecuencia son complejos [1]. Estas dos
características del proceso de medición, complejidad y aleatoriedad, hacen del
análisis de datos de medición un área de oportunidad natural para los métodos de simulación 


La variedad de problemas sociales y educativos, útiles y capaces de ser investigados, guían el camino de la investigación hacia una gran diversidad y plasticidad de metodologías y de técnicas adecuadas en la obtención de la información. De todos los instrumentos probados, uno de los más usados universalmente por las Ciencias Sociales, incluyendo la educación, es el cuestionario. En términos generales, como todos sabemos, este instrumento consiste en aplicar a un universo definido de individuos una serie de preguntas o ítems sobre un determinado problema de investigación del que deseamos conocer algo. Las respuestas normalmente son registradas por escrito por la persona consultada. Los teóricos de la investigación sostienen a grandes rasgos que en Ciencias Sociales existirían dos modalidades de cuestionarios: los que se refieren a la medición y diagnóstico de la personalidad, utilizado normalmente en psicología, y los empleados para recoger información en las investigaciones. En el caso de estos últimos, Delio del Rincón240 recuerda los juicios de Ghigliona y Matalón241, cuando éstos señalan que los cuestionarios tienen tres objetivos básicos: • Estimar ciertas magnitudes absolutas como un censo de población; o magnitudes relativas tales como la proporción de una tipología concreta en una población estudiada. • Describir una población o subpoblación: qué características tienen en un contexto determinado. • Contrastar hipótesis de acuerdo con las relaciones existentes entre dos o más variables. 240 Delio Del Rincón [et al.]. Técnicas de investigación en Ciencias Sociales. Madrid: Ediciones Dykinson, 1995. 241 Rodolphe Ghiglione; Benjamin Matalon. Las encuestas sociológicas: teorías y práctica. México: Ediciones Trillas, 1989. DESCRIPCIÓN DE LA METODOLOGÍA Y DEL INSTRUMENTO METODOLOGICO _____________________________________________________________________________________ 195 En la elección de cualquier instrumento de recogida de información, las investigaciones deben sopesar las potencialidades y limitaciones de dichos instrumentos. Todos los instrumentos tienen aspectos que se ajustan mejor a un tipo de problemática y son deficientes en otra. Lo importante es la selección de los instrumentos que mejor cuadren con el tipo de información que se desea reunir. Tales ventajas y dificultades deben estar en relación además con los objetivos, recursos y población investigados242. Autores como Sierra Bravo243 plantean que en dicha elección deben primar criterios sencillos y claros: • El grado de adecuación a las características del objeto de estudio de nuestra investigación. • El nivel de rigor y de calidad. • La capacidad del personal participante en la investigación. • El acceso a las fuentes de información necesarias. • El tiempo. • Los recursos disponibles • Los costos humanos, sociales y económicos. • Los aspectos éticos y morales Todos los manuales de metodología de la investigación, unos más otros menos, llegan finalmente a exponer un conjunto de métodos y técnicas de investigación. Por medio de un proceso de operatividad, reducen los constructos, conceptos, ideas o hipótesis a datos. La forma más general para caracterizar a las técnicas es con los procedimientos de medida. Ellas intentan244: • Obtener una medida de una característica observable, que la reduce a una descripción numérica y transforma la característica en datos.

 Gestión de la información y registro de los datos 
EN ESTE CAPÍTULO, APRENDEREMOS LO SIGUIENTE: • Cómo abarca la gestión de la información los aspectos de la recopilación, el control de calidad, el archivo y la accesibilidad a largo plazo a los datos recogidos y sus metadatos asociados. • La distinción entre datos, información, conocimientos y sabiduría. • Qué mecanismo provoca que los proyecos de software arrojen tasas de fracaso tan elevadas. Debatiremos sobre los factores y las teorías que contribuyen a lograr buenos resultados. • Un «ecosistema de conocimientos» propuesto como método de enfoque o abordaje: el complejo sistema compuesto por personas, instituciones, organizaciones, tecnologías y procesos, en el cual se genera, interpreta, distribuye, absorbe, traduce y aprovecha el conocimiento.

4.2 Características estimadores

1) Sesgo. Se dice que un estimador es insesgado si la Media de la distribución del estimador es igual al parámetro.
Estimadores insesgados son la Media muestral (estimador de la Media de la población) y la Varianza (estimador de la Varianza de la población):
Ejemplo
En una población de 500 puntuaciones cuya Media (m) es igual a 5.09 han hecho un muestreo aleatorio (número de muestras= 10000, tamaño de las muestras= 100) y hallan que la Media de las Medias muestrales es igual a 5.09(la media poblacional y la media de las medias muestrales coinciden). En cambio, la Mediana de la población es igual a 5 y la Media de las Medianas es igual a 5.1 esto es, hay diferencia ya que la Mediana es un estimador sesgado.
La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas obtenidas con la Varianza
en un muestreo de 1000 muestras (n=25) en que la Varianza de la población es igual a 9.56 ha resultado igual a 9.12, esto es, no coinciden. En cambio, al utilizar la Cuasivarianza
la Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la Varianza de la población ya que la Cuasivarianza es un estimador insesgado.

2) Consistencia. Un estimador es consistente si aproxima el valor del parámetro cuanto mayor es n (tamaño de la muestra).
Algunos estimadores consistentes son:
Ejemplo
En una población de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho tres muestreos aleatorios (número de muestras= 100) con los siguientes resultados:
vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el mismo valor que la Media de la población.

3) Eficiencia. Diremos que un estimador es más eficiente que otro si la Varianza de la distribución muestral del estimador es menor a la del otro estimador. Cuanto menor es la eficiencia, menor es la confianza de que el estadístico obtenido en la muestra aproxime al parámetro poblacional.
Ejemplo
La Varianza de la distribución muestral de la Media en un muestreo aleatorio (número de muestras: 1000, n=25) ha resultado igual a 0.4. La Varianza de la distribución de Medianas ha resultado, en el mismo muestreo, igual a 1.12, (este resultado muestra que la Media es un estimador más eficiente que la Mediana).
Muestras preliminares de los proyectos aprobados en

La preparación de un proyecto de investigación requiere un trabajo sistemático que se irá perfilando en los sucesivos borradores del mismo.

El desarrollo del proyecto comienza con la idea general o particular sobre un determinado aspecto de la práctica clínica, diagnóstico, tratamiento, actuaciones, etc. La idea terminará de concretarse tras la revisión bibliográfica del tema, necesaria para situar el tema a investigar en el conocimiento actual

El proyecto de investigación definira los objetivos que pretende alcanzar. La definición clara de objetivos es el primer paso en la decisión del diseño a utilizar, las variables y el tipo de análisis. Hay que expresar el objetivo en términos generales, seguido de un objetivo específico donde se enuncie qué variables van a ser estudiadas, cómo van a cuantificarse y se especifique más la población de estudio. 

Ningún estudio de investigación puede tener validez si previamente a la recogida de datos no se han especificado los objetivos.

La elaboracion del proyecto va a requerir tiempo y varias borradores y revisiones de los mismos. Únicamente un buen diseño carente de errores que intente responder a la pregunta de interés enunciada en el proyecto merecerá todo el esfuerzo ulterior de su puesta en marcha, recogida y análisis de resultados.

Los aspectos relacionados con los estudios de intervención en humanos requieren la aprobación de un comité de ensayos clínicos

ESTIMADOR:
Es un estadístico (es decir, es una función de la muestra) usado para estimar un parámetro desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo (el parámetro desconocido) se recogerán observaciones del precio de dicho artículo en diversos establecimientos (la muestra) y la media aritmética de las observaciones puede utilizarse como estimador del precio medio.
Para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea mejores propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez (consistencia).
SESGO:
Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que se desea estimar.
Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la población.
EFICIENCIA:
Un estimador es más eficiente o preciso que otro, si la varianza del primero es menor que la del segundo.
CONVERGENCIA:
Para estudiar las características de un estimador no solo basta con saber el sesgo y la varianza, sino que además es útil hacer un análisis de su comportamiento y estabilidad en el largo plazo, esto es, su comportamiento asintótico. Cuando hablamos de estabilidad en largo plazo, se viene a la mente el concepto de convergencia. Luego, podemos construir sucesiones de estimadores y estudiar el fenómeno de la convergencia.

Comportamiento Asintótico: En el caso de las variables aleatorias, existen diversos tipos de convergencia, dentro de las cuales podemos distinguir:
-Convergencia en probabilidad (o débil).
-Convergencia casi segura (o fuerte).
-Convergencia en media cuadrática.
-Convergencia en distribución.
CONSISTENCIA:
También llamada robustez, se utilizan cuando no es posible emplear estimadores de mínima varianza, el requisito mínimo deseable para un estimador es que a medida que el tamaño de la muestra crece, el valor del estimador tiende a ser el valor del parámetro, propiedad que se denomina consistencia.

CONTINUACIÓN DE LA UNIDAD IV

ING disculpe la demora.
Definiremos algunas propriedades de los estimadores.
1) Parámetro. Verdadero valor de una caracterı́stica de interes, denominado por θ, que

raramente es conocido.

m uestra.
vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ
al azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.
actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir
de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath,
1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue
vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que
han sido usados más frecuentemente.
Intervalos de confianza
1α
 (
0<α<1
), es un intervalo de extremos aleatorios 
(L,U)
 que, con probabilidad 
1α
, contiene al parámetro en cuestión.
P(parámetro(L,U))=1α.1α
 son 
0.9,0.95
 o 
0.99
 (la confianza es del 
90%,95%
 o 
99%
). En ocasiones también se emplea la terminología nivel de significación para el valor 
α
.
x1,,xn
. A partir de estos valores obtenemos un intervalo numérico. Por ejemplo, podríamos hablar de que, con una confianza del 
99
 por ciento, la proporción de voto al partido político “Unidas Ciudadanas” está entre el 
29
 y el 
31
 por ciento. O que, con una confianza del 
90
 por ciento, la estatura media está entre 
1.80
 y 
1.84
.
 Interpretación
n
 datos diferentes, y valores diferentes (de la media muestral o de la proporción muestral).
100(1α)%
.
95%
 garantiza que, si tomamos 
100
 muestras, el verdadero valor del parámetro estará dentro del intervalo en aproximadamente el 
95
 de los intervalos construidos.
n=12
 personas (de nuevo si creen en los extraterrestres). De cada muestra podemos obtener una estimación puntual (calculada mediante la proporción en la muestra), y también un intervalo de confianza (que más adelante veremos cómo se calcula). Haremos este proceso 
B=20
 veces.
muestras definitivas
3
 puntos porcentuales tienen un nivel del 
95%
 de confianza, ¿cúantas personas se debe entrevistar para lograr esto?
x
% se detecte una diferencia clinicamente relevante con el nuevo tratamiento (si es que este es efectivo).
Tamaño de muestra para un error estándar determinado
60%
, imaginemos que queremos una precisión (error estándar) de a lo más 
0.05
, o 
5
 puntos >>>>>>> 1515a1256d14479ab9c3379e463a2bb4618be6ea porcentuales. Bajo muestreo aleatorio simple, para una muestra de tamaño 
n
, el error estándar de la proporción 
p
 es
p(1p)/n
Sustituyendo nuestra expectativa 
p=0.60
 llegamos a que el error estándar sería 
0.49/n
, de tal manera que si queremos 
se(p)0.05
 necesitamos 
n>96
, en el caso de proporciones es fácil determinar el tamaño de muestra de manera conservadora pues basta con suponer 
p=0.5
.


  • Pruebas mas potentes.
  • Más fácil de calcular y utilizar, ya que no requiere agrupación de datos.
  • La estadística de prueba es independiente de la distribución de la frecuencia esperada. Sólo depende del tamaño de la muestra n.

H0: La distribución de frecuencia observada es consistente con la distribución de la frecuencia teórica (Buen ajuste).
H1: La distribución de frecuencia observada no es coherente con la distribución de la frecuencia teórica (Bad ajuste).
α = Nivel de significación de la prueba.


REPORT THIS AD
  • Determinar la frecuencia observada acumulada y la frecuencia téorica acumulada, Po(x) y P(x).
  • En cada caso, calcular: Dn = max | P(x) – Po(x) |
  • Así, Dn es la máxima diferencia entre la función de distribución acumulada de la muestra y la función de distribución acumulada teórica escogida
  • Fijar un nivel de probabilidad o de significancia α. Los valores de 0.05 y 0.01 son los más usuales.
  • Determinar el valor crítico Dα en la tabla correspondiente.
  • Aplica el criterio de decisión:
  • Si el valor calculado Dn es menor que el Dα, se acepta la hipótesis nula (Ho) que establece que la serie de datos se ajusta a la distribución teórica escogida.
  • Si el valor calculado Dn es mayor que el Dα, se rechaza la hipótesis nula (Ho) y se acepta la hipótesis alternativa (Ha) que establece que la serie de datos no se ajusta a la distribución teórica escogida.

porcentaje
nº de municipios
menos del 5%
18
entre el 5 y 10 %
14
entre 10 y 15%
13
entre 15 y 20%
16
entre 20 y 25 %
18
entre 25 y 30 %
17
entre 30 y 35 %
19
entre 35 y 40 %
24
entre 40 y 45 %
21
mas de 45%
18
grupos     -variable
n0,i
F0(xi)
nt,i=n·P(xi)
F0(xi)
menos del 5%
18
18/178=0,1011
17.8
17.8/178=0,1
0.0011
entre el 5y10 %
14
32/178=0,1798
17.8
35.6/178=02
0,0202
entre 10 y 15%
13
0,2584
17.8
0,3
0,0416
entre 15 y 20%
16
0,3427
17.8
0,4
0,0573
entre 20 y 25 %
18
0,4439
17.8
0,5
0,0561
entre 25 y 30 %
17
0,5393
17.8
0,6

0,0607 max
entre 30 y 35 %
19
0,6461
17.8
0,7
0,0539
entre 35 y 40 %
24
0,7809
17.8
0,8
0,0191
entre 40 y 45 %
21
0,8989
17.8
0,9
0,0011
mas de 45%
18
1
17.8
1
0

  • Chi-Cuadrado: es recomendable para distribuciones discretas o continuas cuando existe gran cantidad de datos. Se recomienda trabajar con datos agrupados.
  • Kolmogorov-Smirnov (K-S): es recomendable para distribuciones continuas y muestras de cualquier tamaño. No requiere hacer uso de datos agrupados.

El estadístico de Anderson-Darling


En este tema


¿Qué es el estadístico de Anderson-Darling?
Las hipótesis para la prueba de Anderson-Darling son:

  • H0: Los datos siguen una distribución especificada
  • H1: Los datos no siguen una distribución especificada

DistribuciónAnderson-DarlingValor p
Exponencial9.599p < 0.003
Normal0.641p < 0.089
Weibull de 3 parámetros0.376p < 0.432
Exponencial
Normal
Weibull de 3 parámetros
Ejemplo de comparación de distribuciones
Mostrar el estadístico de Anderson-Darling en una gráfica de probabilidad normal

  1. Choose Herramientas > Opciones > Gráficas individuales > Gráficas de residuos para series de tiempo and Herramientas > Opciones > Modelos lineales > Gráficas de residuo
  1. Marque Incluir prueba de Anderson-Darling con gráfica normal. Haga clic en AceptarMinitab no muestra la prueba cuando hay menos de 3 grados de libertad para el error.



2) Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una
3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por:
Cuadrado médio del error (ECM). Es dado por:
ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies
1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0
2) Las leyes de los grandes números explican por qué el promedio o media de una muestra
4.1.1 Instrumentos de medición
El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las
La estimación puntual aproxima mediante un número el valor de una característica poblacional o parámetro desconocido (la altura media de los españoles, la intención de voto a un partido en las próximas elecciones generales, el tiempo medio de ejecución de un algoritmo, el número de taxis…) pero no nos indica el error que se comete en dicha estimación.
Lo razonable, en la práctica, es adjuntar, junto a la estimación puntual del parámetro, un intervalo que mida el margen de error de la estimación. La construcción de dicho intervalo es el objetivo de la estimación por intervalos de confianza.
Un intervalo de confianza para un parámetro con un nivel de confianza 
Los valores más habituales del nivel de confianza 
En la estimación por intervalos de confianza partimos de una muestra 
Igual que vimos antes con las encuestas de las estaturas, o de la proporción de gente que cree en los extraterrestres, con cada muestra obteníamos 
De cada muestra también puede obtenerse un intervalo de confianza. Entonces, con cada muestra diferente, obtendremos un intervalo también diferente. A medida que aumenta la cantidad de intervalos que hemos construido, el porcentaje de intervalos que contienen el verdadero valor del parámetro se aproximará al 
Así, por ejemplo, un intervalo de confianza al 
Veamos un ejemplo mediante simulación. Vamos a simular que realizamos encuestas, en este caso preguntando a 
Cuando se esta diseñando un estudio se determina la precisión en las inferencias que se desea, y esto (junto con algunos supuestos de la población) determina el tamaño de muestra que se tomará. Usualmente se fija uno de los siguientes dos objetivos:
  1. Se determina el error estándar de un parámetro o cantidad de interés (o de manera equivalente se fija la longitud máxima aceptable del intervalo de confianza que resultará). Por ejemplo, en encuestas electorales es típico reportar los resultados de esta encuesta más menos 
  2. Se determina la probabilidad de que un estadístico determinado sea estadísticamente significativo. Por ejemplo, cuando se hacen ensayos clínicos se determina un tamaño de muestra para que con probabilidad de 
En muchos casos existen fórmulas para calcular tamaños de muestra de tal manera que se cumplan los objetivos planteados, sin embargo, conforme se agrega complejidad al levantamiento de los datos (faltantes, levantamientos en varias etapas, …) o si nos alejamos de las estadísticas típicas, las fórmulas dejan de aplicar o se vuelven muy complejas, de manera que suele ser conveniente recurrir a simulación. Veremos dos ejemplos que se tomaron de Gelman and Hill (2007).
Supongamos que queremos estimar el porcentaje de la población que <<<<<<< HEAD apoya la pena de muerte. Sospechamos que la proporción es 60%, imaginemos que queremos un error estándar de a lo más 0.05, o 5 puntos ======= apoya la pena de muerte. Sospechamos que la proporción es 
Etapas de una investigación La Estadística nos permite realizar inferencias y sacar conclusiones a partir de los datos. Extrayendo la información contenida en los datos, podremos comprender mejor las situaciones que ellos representan. Los métodos estadísticos abarcan todas las etapas de la investigación, desde el diseño de la investigación hasta el análisis final de los datos. Podemos distinguir tres grandes etapas: 1. Diseño: Planeamiento y desarrollo de las investigaciones 2. Descripción: Resumen y exploración de los datos 3. Inferencia: Predicciones y toma de decisiones sobre las características de una población en base a la información recogida en una muestra de la población. En la etapa de Diseño se define cómo se desarrollará la investigación con el fin de responder las preguntas que le dieron origen. Un diseño bien realizado puede ahorrar esfuerzos en etapas posteriores y puede redundar en un análisis posterior más sencillo. Esta etapa es crucial, pues un estudio pobremente diseñado o con datos incorrectamente recolectados o registrados puede ser incapaz de responder las preguntas que originaron el estudio. Una vez formulado el problema, en la etapa de Diseño se definirá, entre otras cosas, la población objetivo, los tamaños de muestra, los mecanismos de selección de individuos, los criterios de inclusión y exclusión de sujetos, los métodos de asignación de tratamientos, las variables que se medirán y cómo se entrenará al equipo de trabajo para el cumplimiento del protocolo. Los métodos de Análisis Exploratorio o Estadística Descriptiva ayudan a comprender la estructura de los datos, de manera de detectar tanto un patrón de comportamiento general como apartamientos del mismo. Una forma de realizar ésto es mediante gráficos de sencilla realización e interpretación. Otra forma de describir los datos es resumiendo los datos en uno, dos o más números que caractericen al conjunto de datos con fidelidad. Explorar los datos permitirá detectar datos erróneos o inesperados y nos ayudará a decidir qué métodos estadísticos pueden ser empleados en etapas posteriores del análisis de manera de obtener conclusiones válidas. Finalmente, la Inferencia Estadística nos permite tanto hacer predicciones y estimaciones como decidir entre dos hipótesis opuestas relativas a la población de la cual provienen los datos (test de hipótesis). La calidad de las estimaciones puede ser muy variada y están afectadas por errores. La ventaja de los métodos estadísticos es que, aplicados sobre datos obtenidos a partir de muestras aleatorias, permiten cuantificar el error que podemos cometer en una estimación o calcular la probabilidad de cometer un error al tomar una decisión en un test de hipótesis. Para entender qué tipo de problemas consideraremos en Estadística tomemos, por ejemplo, las siguientes mediciones de la proporción de la masa de la Tierra con respecto a la Luna 130 Mariner II 81.3001 Mariner IV 81.3015 Mariner V 81.3006 Mariner VI 81.3011 Mariner VII 81.2997 Pioneer VI 81.3005 Pioneer VII 81.3021 En Probabilidad podríamos suponer que las posibles mediciones se distribuyen alrededor del verdadero valor 81.3035 siguiendo una distribución determinada y nos preguntaríamos ¿Cuál es la probabilidad de que se obtengan 7 mediciones menores que el verdadero valor de la media? En Estadística, a partir de los 7 observaciones nos preguntaríamos: ¿Son consistentes los datos con la hipótesis de que el verdadero valor del cociente es 81.3035? ¿Cuán confiable es decir que el verdadero valor está en el intervalo (81.2998, 81.3018)? Las técnicas del análisis exploratorio nos ayudan a organizar la información que proveen los datos, de manera de detectar algún patrón de comportamiento así como también apartamientos importantes al modelo subyacente. Nos guían a la estructura subyacente en los datos de manera rápida y simple. Estadística Descriptiva Examinaremos los datos en forma descriptiva con el fin de: • Organizar la información • Sintetizar la información • Ver sus características más relevantes • Presentar la información Factores necesarios para un buen análisis estadístico: • Diseño del Experimento o Investigación • Calidad de los Datos Definimos: Población: conjunto total de los sujetos o unidades de análisis de interés en el estudio Muestra: cualquier subconjunto de sujetos o unidades de análisis de la población en estudio. 131 Organizaremos la información que proveen los datos De manera de detectar algún patrón de comportamiento, así como también apartamientos importantes al modelo subyacente. Asimismo, definimos: - UNIDAD DE ANÁLISIS O DE OBSERVACIÓN: al objeto bajo estudio. Puede ser una persona, una familia, un país, una institución o en general, cualquier objeto. - VARIABLE: a cualquier característica de la unidad de observación que interese registrar y que en el momento de ser registrada puede ser transformada en un número. - VALOR de una variable, DATO u OBSERVACIÓN o MEDICIÓN: al número que describe a la característica de interés en una unidad de observación particular. - CASO o REGISTRO: al conjunto de mediciones realizadas sobre una unidad de observación.
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de probabilidad entre sí.
La prueba de Kolmogorov-Smirnov se utiliza para probar la bondad del ajuste de una distribución de frecuencia teórica, es decir, si existe una diferencia significativa entre la distribución de la frecuencia observada y la distribución de frecuencia teórica (esperada).
En un post anterior cubrimos el metodo Chi-Cuadrado. La prueba de K-S es similar a lo que hace la prueba de Chi-Cuadrado, pero la prueba K-S tiene varias ventajas:
LA HIPÓTESIS:
Este procedimiento es un test no paramétrico que permite establecer si dos muestras se ajustan al mismo modelo probabilístico (Varas y  Bois, 1998).
Es un test válido para distribuciones continuas y sirve tanto para muestras grandes como para muestras pequeñas (Pizarro et al, 1986).


Así mismo, Pizarro (1988), hace referencia a que, como parte de la aplicación de este test, es necesario determinar la frecuencia observada acumulada y la frecuencia teórica acumulada; una vez determinadas ambas frecuencias, se obtiene el máximo de las diferencias entre ambas.
El estadístico Kolmogorov-Smirnov,  D, considera la desviación de la función de distribución de probabilidades de la muestra P(x) de la función de probabilidades teórica, escogida Po(x) tal que:
  Dn = max | P(x) – Po(x) |
La prueba requiere que el valor Dn calculado con la expresión anterior sea menor que el valor tabulado Dα para un nivel de significancia (o nivel de probabilidad) requerido. El valor crítico Dα de la prueba se obtiene de la tabla mostrada, en función del nivel de significancia α y el tamaño de la muestra n.
Tabla de valores de Dα en función del nivel de significancia y del tamaño de la muestra:
Picture1.png
El procedimiento a seguir en la aplicación práctica de la prueba de Kolmogorov-Smirnov es el siguiente:
EJEMPLO PRUEBA DE KOLMOGOROV SMIRNOV
Se ha realizado una muestra a 178 municipios al respecto del porcentaje de población activa dedicada a la venta de ordenadores resultando los siguientes valores :
Queremos contrastar que el porcentaje de municipios para cada grupo establecido se distribuye uniformemente con un nivel de significación del 5%.
Bajo la hipótesis nula cada grupo debiera de estar compuesto por el 10% de la población dado que existen diez grupos . Así podemos establecer la tabla
Siendo la máxima diferencia =0,0607 y por tanto el estadístico de K-S que compararemos con el establecido en la tabla que será para un nivel de significación de 5% y una muestra de 178 (ir a tabla K-S aqui)   dado que el estadístico es menor (0,0607) que el valor de la tabla  (0,1019) no rechazamos la hipótesis de comportamiento uniforme de los grupos establecidos al respecto de la población activa dedicada a la venta de ordenadores.
Para finalizar, ¿en que casos es recomendable cada estadístico?
  • El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica. Para un conjunto de datos y distribución en particular, mientras mejor se ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted puede utlizar el estadístico de Anderson-Darling para determinar si los datos cumplen el supuesto de normalidad para una prueba t.
    Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen de la distribución elegida. Si el valor p es menor que un nivel de significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis nula de que los datos provienen de esa distribución. Minitab no siempre muestra un valor p para la prueba de Anderson-Darling, porque este no existe matemáticamente para ciertos casos.
    También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir que una distribución es la mejor, el estadístico de Anderson-Darling debe ser sustancialmente menor que los demás. Cuando los estadísticos están cercanos entre sí, se deben usar criterios adicionales, como las gráficas de probabilidad, para elegir entre ellos.

    Estas gráficas de probabilidad son para los mismos datos. Tanto la distribución normal como la distribución de Weibull de 3 parámetros ofrecen un ajuste adecuado a los datos.

    Minitab calcula el estadístico de Anderson-Darling usando la distancia al cuadrado ponderada entre la línea ajustada de la gráfica de probabilidad (con base en la distribución elegida y usando el método de estimación de máxima verosimilitud o las estimaciones de mínimos cuadrados) y la función de paso no paramétrica. El cálculo tiene mayor ponderación en las colas de la distribución.
    Para ver una leyenda que muestre el estadístico de la prueba de Anderson-Darling y el valor p cada vez que usted cree una gráfica de probabilidad normal de los residuos:


de prueba es:Puede demostrarse que sigue aproximadamente la distribución ji cuadrada conk – p – 1 grados de libertad,donde prepresenta el número de parámetros de ladistribución hipotética estimada por medio de estadísticas de muestra. Estaaproximación se mejora cuando naumenta. Rechazaríamos la hipótesis de que Xse ajusta a la distribución hipotética