- Modelo y Proceso: • Modelo de simulación: conjunto de hipótesis acerca del funcionamiento del sistema expresado como relaciones matemáticas y/o lógicas entre los elementos del sistema. • ¨ Proceso de simulación: ejecución del modelo a través del tiempo en un ordenador para generar muestras representativas del comportamiento.
- Métodos de simulación • Simulación estadística o Monte Carlo: Está basada en el muestreo sistemático de variables aleatorias. • Simulación continua: Los estados del sistema cambian continuamente su valor. Estas simulaciones se modelan generalmente con ecuaciones diferenciales. • Simulación por eventos discretos: Se define el modelo cuyo comportamiento varía en instantes del tiempo dados. Los momentos en los que se producen los cambios son los que se identifican como los eventos del sistema o simulación. • Simulación por autómatas celulares: Se aplica a casos complejos, en los que se divide al comportamiento del sistema en subsistemas más pequeños denominadas células. El resultado de la simulación está dado por la interacción de las diversas células.
- Etapas del proceso de simulación • Definición, descripción del problema. Plan. • Formulación del modelo. • Programación . • Verificación y Validación del modelo. • Diseño de experimentos y plan de corridas. • Análisis de resultados
- Diagrama de Flujo del proceso de Simulación:
- Porque estudiar simulación en Juegos Gerenciales? • Los responsables de la toma de decisiones (Gerentes) necesitan información cuantificable, sobre diferentes hechos que puedan ocurrir. • La simulación constituye una técnica económica que nos permite ofrecer varios escenarios posibles de un modelo del negocio, nos permite equivocarnos sin provocar efectos sobre el mundo real. • Podemos afirmar entonces, que la simulación es una rama experimental dentro de la Investigación Operativa –Juegos Gerenciales-.
- Números Aleatorios • Deben tener igual probabilidad de salir elegidos. • No debe existir correlación serial • Se generan por tablas (Rand 1955), o por dispositivos especiales: ruleta. En la práctica se utilizan algoritmos y se generan números pseudo aleatorios.
- Números Pseudo aleatorios • Sustituyen a los números aleatorios. • Se generan por algoritmos o fórmulas. • Se debe asegurar la existencia de secuencias largas y densas. • Generación de Números Pseudo aleatorios
- https://app.box.com/s/9lbifjx3t2f4b6i0mgo4umsvxsqvkexw
martes, 12 de mayo de 2020
4.6. Simulación de los comporta-mientos aleatorios del proyecto y su verificación
4.5.4. Otras pruebas: Anderson-Darling, prueba G, por ejemplo.
Prueba de Anderson-Darling
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica. La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa F.
Donde:
n es el número de datos
f(x): es la función de distribución de probabilidad teórica
FS(X): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling
Una vez obtenido el estadístico ajustado, la regla de rechazo se realiza análogamente a la utilizada en la prueba de K-S.
El estadístico de la prueba se puede entonces comparar contra las distribuciones del estadístico de prueba (dependiendo que F se utiliza) para determinar el P- valor.
4.5.3. Muestras grandes: prueba de KarlPearson para ajuste de una distribución de probabilidades hipotética, discreta o continua (en hoja de cálculo o con paquete estadístico)
Los procedimientos de hipótesis que se han estudiado en las secciones previas son para problemas en los que se conoce la forma de la función de densidad de la variable aleatoria y la hipótesis involucra los parámetros de la distribución. Sin embargo, con frecuencia encontramos otro tipo de hipótesis: no conocemos la distribución de probabilidad de la variable aleatoria bajo estudio, digamos X, y deseamos probar la hipótesis de que X sigue una distribución de probabilidad particular. Por ejemplo, podría interesarnos probar la hipótesis de que X sigue la distribución normal. El procedimiento de prueba requiere una muestra aleatoria de tamaño n de la variable aleatoria X, cuya función de densidad de probabilidad se desconoce.Estas no observaciones se arreglan en un histograma de frecuencias, teniendo k. intervalos de clase. Sea O, la frecuencia observada en el intervalo de clase i-ésimo. A partir de la distribución de probabilidad hipotética, calculamos la frecuencia esperada en el intervalo de clase i-ésimo, denotada E¡= La estadística de prueba es:Puede demostrarse que sigue aproximadamente la distribución ji cuadrada con k – p – 1 grados de libertad,donde representa el número de parámetros de la distribución hipotética estimada por medio de estadísticas de muestra. Esta aproximación se mejora cuando n aumenta. Rechazaríamos la hipótesis de que X se ajusta a la distribución hipotética si .
La prueba χ² de Pearson se considera una prueba no paramétrica que mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para probar la independencia de dos variables entre sí, mediante la presentación de los datos en tablas de contingencia.
La fórmula que da el estadístico es la siguiente:
Cuanto mayor sea el valor de
, menos verosímil es que la hipótesis nula (que asume la igualdad entre ambas distribuciones) sea correcta. De la misma forma, cuanto más se aproxima a cero el valor de chi-cuadrado, más ajustadas están ambas distribuciones.
Los grados de libertad gl vienen dados por :
Donde r es el número de filas y k el de columnas.
- Criterio de decisión:
No se rechaza
cuando
. En caso contrario sí se rechaza.
Donde t representa el valor proporcionado por las tablas, seg
lunes, 4 de mayo de 2020
4.5.2. Muestras pequeñas: prueba de Kolmogórov-Smirnov para ajuste de una distribución de probabilidades continua hipotética (en hoja de cálculo o con paquete estadístico)
Hipótesis a contrastar:
H0: Los datos analizados siguen una distribución M.
H1: Los datos analizados no siguen una distribución M.
Estadístico de contraste:
D Fx Fx ≤ ≤ =
• xi es el i-ésimo valor observado en la muestra (cuyos valores se han ordenado previamente de menor a mayor).
• ˆ ( ) F x n i es un estimador de la probabilidad de observar valores menores o iguales que xi.
• 0 F x( ) es la probabilidad de observar valores menores o iguales que xi cuando H0 es cierta.
Así pues, D es la mayor diferencia absoluta observada entre la frecuencia acumulada observada ˆ ( ) F x n y la frecuencia acumulada teórica 0 F x( ), obtenida a partir de la distribución de probabilidad que se especifica como hipótesis nula. Si los valores observados ˆ ( ) F x n son similares a los esperados 0 F x( ), el valor de D será pequeño. Cuanto mayor sea la discrepancia entre la distribución empírica ˆ ( ) F x n y la distribución teórica , mayor será el valor de D. Por tanto, el criterio para la toma de la decisión entre las dos hipótesis será de la forma:
Si D≤Dα ⇒ Aceptar H0
Si D>Dα ⇒ Rechazar H0
La toma de la decisión en el contraste anterior puede llevarse a cabo también mediante el empleo del p-valor asociado al estadístico D observado. El p-valor se define como:
p-valor = es cierta PD D H ( ) > obs 0
Si el p-valor es grande significa que, siendo cierta la hipótesis nula, el valor observado del estadístico D era esperable. Por tanto no hay razón para rechazar dicha hipótesis. Asimismo, si el p-valor fuera pequeño, ello indicaría que, siendo cierta la hipótesis nula, era muy difícil que se produjera el valor de D que efectivamente se ha observado. Ello obliga a poner muy en duda, y por tanto a rechazar, la hipótesis nula. De esta forma, para un nivel de significación α, la regla de decisión para este contraste es:
Si p-valor ≥ α ⇒ Aceptar H0
Si p-valor < α ⇒ Rechazar H0.
Obviamente, la obtención del p-valor requiere conocer la distribución de D bajo la hipótesis nula y hacer el cálculo correspondiente. En el caso particular de la prueba de Kolmogorov Smirnov, la mayoría de los paquetes de software estadístico realizan este cálculo y proporcionan el p-valor directamente.
H0: Los datos analizados siguen una distribución M.
H1: Los datos analizados no siguen una distribución M.
Estadístico de contraste:
D Fx Fx ≤ ≤ =
• xi es el i-ésimo valor observado en la muestra (cuyos valores se han ordenado previamente de menor a mayor).
• ˆ ( ) F x n i es un estimador de la probabilidad de observar valores menores o iguales que xi.
• 0 F x( ) es la probabilidad de observar valores menores o iguales que xi cuando H0 es cierta.
Así pues, D es la mayor diferencia absoluta observada entre la frecuencia acumulada observada ˆ ( ) F x n y la frecuencia acumulada teórica 0 F x( ), obtenida a partir de la distribución de probabilidad que se especifica como hipótesis nula. Si los valores observados ˆ ( ) F x n son similares a los esperados 0 F x( ), el valor de D será pequeño. Cuanto mayor sea la discrepancia entre la distribución empírica ˆ ( ) F x n y la distribución teórica , mayor será el valor de D. Por tanto, el criterio para la toma de la decisión entre las dos hipótesis será de la forma:
Si D≤Dα ⇒ Aceptar H0
Si D>Dα ⇒ Rechazar H0
La toma de la decisión en el contraste anterior puede llevarse a cabo también mediante el empleo del p-valor asociado al estadístico D observado. El p-valor se define como:
p-valor = es cierta PD D H ( ) > obs 0
Si el p-valor es grande significa que, siendo cierta la hipótesis nula, el valor observado del estadístico D era esperable. Por tanto no hay razón para rechazar dicha hipótesis. Asimismo, si el p-valor fuera pequeño, ello indicaría que, siendo cierta la hipótesis nula, era muy difícil que se produjera el valor de D que efectivamente se ha observado. Ello obliga a poner muy en duda, y por tanto a rechazar, la hipótesis nula. De esta forma, para un nivel de significación α, la regla de decisión para este contraste es:
Si p-valor ≥ α ⇒ Aceptar H0
Si p-valor < α ⇒ Rechazar H0.
Obviamente, la obtención del p-valor requiere conocer la distribución de D bajo la hipótesis nula y hacer el cálculo correspondiente. En el caso particular de la prueba de Kolmogorov Smirnov, la mayoría de los paquetes de software estadístico realizan este cálculo y proporcionan el p-valor directamente.
4.5.1. Estadísticas descriptivas
1.1.-Introducción. ¿Qué es la Estadística Descriptiva?
¿ Que es la estadística ? .
La palabra estadística se emplea con dos significados distintos :
a) Estadísticas ( en plural ) selecciones de datos numéricos presentados en forma
esquemática y ordenada.
b) Estadística como ciencia.
Para el alumno la estadística debe tener el significado de la opción b) y desde este punto
podemos dar la definición de estadística como:
" la ciencia que estudia la técnica o método que se sigue para recoger,
organizar, resumir, representar, analizar, generalizar y predecir resultados de
las observaciones de fenómenos aleatorios. "
Partes de la estadística, en esquema:
DESCRIPTIVA :
Encuestas.
Organización datos.
Tabulación.
Representaciones.
Cálculo de parámetros
INFERENCIAL :
Interpretación de
resultados.
Conclusiones y
predicciones.
¿ Que es la estadística ? .
La palabra estadística se emplea con dos significados distintos :
a) Estadísticas ( en plural ) selecciones de datos numéricos presentados en forma
esquemática y ordenada.
b) Estadística como ciencia.
Para el alumno la estadística debe tener el significado de la opción b) y desde este punto
podemos dar la definición de estadística como:
" la ciencia que estudia la técnica o método que se sigue para recoger,
organizar, resumir, representar, analizar, generalizar y predecir resultados de
las observaciones de fenómenos aleatorios. "
Partes de la estadística, en esquema:
DESCRIPTIVA :
Encuestas.
Organización datos.
Tabulación.
Representaciones.
Cálculo de parámetros
INFERENCIAL :
Interpretación de
resultados.
Conclusiones y
predicciones.
4.5. Muestras definitivas
En estadística, una muestra es un subconjunto de casos o individuos de una población. En diversas aplicaciones interesa que una muestra sea, representativa y para ello debe escogerse una técnica de muestra adecuada, que produzca una muestra aleatoria adecuada. También es un subconjunto de la población, y para ser representativa, debe tener las mismas características de la población. Si se obtiene una muestra sesgada su interés y utilidad es más limitado, dependiendo del grado de sesgos que presente. 1
Como un subgrupo o subconjunto representativo de la población, extraída seleccionada por algún método de muestreo. La muestra siempre es una parte de la población. Si se tienen varias poblaciones, entonces se tendrán varias muestras. La muestra debe poseer toda la información deseada para tener la posibilidad de extraerla, esto solo se puede lograr con una buena selección de la muestra y un trabajo muy cuidadoso y de alta calidad en la recogida de datos.
4.4.3. Intervalos de confianza
Hasta ahora hemos discutido la idea detrás del bootstrap y como se puede usar para estimar errores estándar. Comenzamos con el error estándar pues es la manera más común para describir la precisión de una estadística.
- En términos generales, esperamos que ˉx¯x este a una distancia de μPμP menor a un error estándar el 68% del tiempo, y a menos de 2 errores estándar el 95% del tiempo.
- Estos porcentajes están basados el teorema central del límite que nos dice que bajo ciertas condiciones (bastante generales) de PP la distribución de ˉx¯x se aproximará a una distribución normal:
ˉx⋅∼N(μP,σ2P/n)
Veamos algunos ejemplos de como funciona el Teorema del Límite Central, buscamos ver como se aproxima la distribución muestral de la media (cuando las observaciones provienen de distintas distribuciones) a una Normal conforme aumenta el tamaño de muestra. Para esto, aproximamos la distribución muestral de la media usando simulación de la población.
Vale la pena observar que hay distribuciones que requieren un mayor tamaño de muestra nn para lograr una buena aproximación (por ejemplo la log-normal), ¿a qué se debe esto?
Para la opción de Elecciones tenemos una población de tamaño N=143,437N=143,437 y el objetivo es estimar la media del tamaño de la lista nominal de las casillas (datos de las elecciones presidenciales de 2012). Podemos ver como mejora la aproximación Normal de la distribución muestral conforme aumenta el tamaño de muestra nn; sin embargo, también sobresale que no es necesario tomar una muestra demasiado grande (n=60n=60 ya es razonable).
En lo que sigue veremos distintas maneras de construir intervalos de confianza usando bootstrap.
Un intervalo de confianza (1−2α)% para un parámetro θ es un intervalo (a,b) tal que P(a≤θ≤b)=1−2α para todo θ∈Θ.
Y comenzamos con la versión bootstrap del intervalo más popular.
- Intervalo Normal con error estándar bootstrap. El intervalo para ^θ con un nivel de confianza de 100⋅(1−2α)% se define como:
(^θ−z(1−α)⋅^seB,^θ+z(1−α)⋅^se).
donde z(α) denota el percentil 100⋅α de una distribución N(0,1).
este intervalo está soportado por el Teorema Central del Límite, sin embargo, no es adecuado cuando ^θ no se distribuye aproximadamente Normal.
Suscribirse a:
Comentarios (Atom)

