´ A LOS I NTRODUCCI ON
PROCESOS
´ ESTOC ASTICOS Jose´ Loreto Romero Palma
II
II
´ Oda a los Procesos Estoc asticos Pasara´ el tiempo ´ tus variables y crecer´ creceran con un paso lento continuo e integrable, ¿escuchar´ ¿escuchare´ tu lamento de fiel dato amable? ¿Por qu´ que´ te encajonan ´ en par´ parametros mudables? ´ la cortisona, Explicar´ Explicaras ´ las mareas, la poluci´ polucion, los estratos, las personas, ´ toda una poblaci poblacion. ´ de ricas sedas: Te vestir´ vestiran de estacionariedad que acorte tu penas, de inversibilidad que invierta tus ternas. ´ estimados, Tus miembros ser´ seran daremos forma a tu ser ´ ARIMA o ruido blanco, y seras ´ espejo del suceder. seras suceder. ˜ Tu´ eres futuro, eres ma˜ manana, ´ eres or´ oraculo de d´ıas, ıas, semanas semana s ´ que con tent´ tentaculos a tu orden atrapas.
II I
IV
Si fueras ¡ay! un animal serpient ser piente e voraz ser´ıas, ıas, ´ creciendo cada vez m´ mas y tu propia cola morder´ıas ıas -¡autorregresiva fatal!que tendr´ıas ıas tu guarida bajo la loma de una Normal. ´ tus hijos a visitarte: Y vendr´ vendran todas las series temporales temporales ´ a ti adaptarse que querr´ querran ´ con par´ parametros formales. ´ ¡Cuanto avanza el progreso! ¿Que´ hicimos de los naturales, naturales, reales, reales, quebrados quebrados y enteros? enteros? ´ ¿Que´ de Pitagoras y Thales? Todo era tan sencillo... ´ ˜ sales? que t´ tu... donde co˜ cono ´ ¿de d´
´ Roas Juli´ Julian ´ Nuestros Besos” del libro “Vendr´ “Vendran
´Indice general
Oda a los Procesos Estoc´asticos
II I
Prefacio
IX
1. Repaso de teor´ıa de probabilidades
1
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.1. Espacios probabilizados . . . . . . . . . . . . . . . . . . . . . . .
3
´ 1.2. Algebra de eventos. Otras definiciones de probabilidad . . . . . . .
5
1.3. Variables aleatorias
. . . . . . . . . . . . . . . . . . . . . . . . .
10
1.4. Valores esperados . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.5. Funci´on caracter´ıstica y generatriz. Distribuciones . . . . . . . . .
15
1.6. Variables aleatorias n-dimensionales . . . . . . . . . . . . . . . .
22
1.7. Variables aleatorias independientes . . . . . . . . . . . . . . . . .
25
1.8. Ejemplo para las secciones 1.6 y 1.7 . . . . . . . . . . . . . . . .
30
1.9. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
33
2. Introducci´on a la simulaci´on y al R
37
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.1. ¿Para qu´e la simulaci´on? Breve introducci´on al R . . . . . . . . . .
38
V
´ INDICE GENERAL
VI
´ 2.2. Como conseguir el interprete R . . . . . . . . . . . . . . . . . . .
39
2.3. Breve introducci´on al lenguaje R . . . . . . . . . . . . . . . . . . .
41
2.4. Dos problemas de simulaci´on . . . . . . . . . . . . . . . . . . . .
50
2.5. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
57
3. Introducci´on a los procesos estoc´asticos
61
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.1. Definici´on y ejemplos de procesos estoc´asticos.
. . . . . . . . . .
62
3.2. Probabiliad y esperanza condicional . . . . . . . . . . . . . . . . .
65
3.3. Valor medio y n´ucleo de covarianza . . . . . . . . . . . . . . . . .
70
3.4. Incrementos y estacionariedad . . . . . . . . . . . . . . . . . . . .
72
3.5. Algunos tipos de procesos aleatorios . . . . . . . . . . . . . . . .
75
3.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . .
78
3.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
80
4. Caminatas Aleatorias y Movimiento Browniano
85
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
4.1. El proceso de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . .
86
´ 4.2. La cantidad de exitos . . . . . . . . . . . . . . . . . . . . . . . . .
87
´ 4.3. Cantidad de ensayos hasta r exitos . . . . . . . . . . . . . . . . .
90
4.4. Problemas resueltos para las secciones 4.1 - 4.3 . . . . . . . . . .
93
4.5. La ruina del jugador . . . . . . . . . . . . . . . . . . . . . . . . .
96
4.6. Duraci´on promedio del juego . . . . . . . . . . . . . . . . . . . . .
104
4.7. Otras caracter´ısticas de las caminatas aleatorias . . . . . . . . . .
109
4.8. Movimiento browniano . . . . . . . . . . . . . . . . . . . . . . . .
112
4.9. Movimiento browniano y la ruina del jugador . . . . . . . . . . . .
118
´ INDICE GENERAL
VI I
4.10.Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
5. El procesos de Poisson homog´eneo
121
125
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
126
5.1. Derivaci´on del proceso de Poisson . . . . . . . . . . . . . . . . . .
127
5.2. Derivaci´on axiom´atica del proceso de Poisson. . . . . . . . . . . .
132
5.3. Procesos de Poisson espaciales. . . . . . . . . . . . . . . . . . .
137
5.4. Distribuci´on del tiempo inter-eventos . . . . . . . . . . . . . . . . .
142
5.5. El proceso de Poisson y la distribuci´on uniforme
. . . . . . . . . .
150
5.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . .
158
5.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
161
6. Cadenas de Markov
167
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
168
6.1. Definici´on, notaci´on, ejemplos y un poco de historia . . . . . . . . .
168
A. Como leer un texto matem´atico
173
´Indice Alfab´etico
188
Bibliograf´ıa
189
VIII
´ INDICE GENERAL
Prefacio El presente material surgi´o originalmente para ser utilizado como texto principal de consulta para el curso de Procesos Estoc´asticos de la carrera de Ingenier´ıa de Sistemas que dicto en la UNEFA. A´un cuando existe abundante bibliograf´ıa y material disponible en Internet sobre este tema, considero que existen sobradas razones que justifican la elaboraci´on del presente texto. En primer lugar, los libros que versan sobre el tema est´an pensados para un p´ublico matem´aticamente m´as maduro, generalmente para estudiantes a nivel de postgrado, adem´as que, por ser estos libros muy especializados, son demasiado escasos en las librer´ıas venezolanas. Por otro lado, navegar a trav´es del Internet en b´usqueda de bibliograf´ıa en l´ınea puede resultar una tarea herculea ´ para el estudiante de pregrado cuya pri´ mera exposici´on al tema es esta. En fin, la bibliograf´ıa existente es muy dispersa, escasa y no adecuada a las necesidades del estudiante venezolano, por lo cual considero que este texto viene a llenar un vac´ıo. ´ El aporte original en el presente tratamiento del tema es el enfasis en la simulaci´on estoc´astica. Incorporar el aspecto de la verificaci´on emp´ırica del m´etodo cient´ıfico en la exposici´on de un tema de la matem´atica, que es una ciencia netamente te´orica, puede parecer un disparate. No obstante, se piensa que este enfoque puede rendir muchos dividendos, sobre todo instruccionales. Con los abundantes ejemplos de simulaci´on en c´odigo R se pretende familiarizar al estudiante con un lenguaje de programaci´on de libre distribuci´on que est´a adquiriendo cada vez m´as relevancia en el mundo de la investigaci´on estoc´astica. Por otro lado, con la exposici´on del alumnado a herramientas de software libre se pretende hacer un modesto aporte hac´ıa el logro de la soberan´ıa tecnol´ogica nacional. El texto esta organizado en seis unidades. En la primera unidad se da un repaso de la teor´ıa de las probabilidades y adem´as de presentan algunos elementos de la teor´ıa que posiblemente se obviaron en asignaturas anteriores. La segunda unidad es una introducci´on al lenguaje de programaci´on R y a la simulaci´on como herra-
IX
X
´ INDICE GENERAL
mienta de apoyo pedag´ogico para esclarecer algunos resultados que se expondr´an ´ abstracta de todo el texto. en el resto del texto. La tercera unidad es quiz´as la mas Comienza con la definici´on de lo que es un proceso estoc´astico y prepara todo el andamiaje conceptual para caracterizar sus tipos y propiedades. En la cuarta unidad se aborda el estudio de las caminatas aleatorias y el problema de la ruina del jugador. En la segunda parte de la unidad, se relaciona el movimiento browniano continuo con los procesos de par´ametro discreto vistos en la primera parte de la unidad. La quinta unidad versa sobre los procesos de Poisson homog´eneos, tan ubicuos en el modelamiento de fen´omenos reales. Por ultimo, ´ en el sexto cap´ıtulo, se tratan las cadenas de Markov de par´ametro discreto. El nivel de conocimientos previo requerido por parte del alumno equivale al de un estudiante que haya cursado alguna asignatura de probabilidad elemental y los respectivos cursos de matem´aticas del ciclo b´asico de ingenier´ıa, que abarcan temas de c´alculo diferencial e integral, series y ecuaciones diferenciales. Desgraciadamente, es frecuente que en la impartici´on de los pensa matem´aticos se haga ´ demasiado enfasis en el aspecto de c´omo calcular y se soslaye el c´omo construir modelos matem´aticos y resolver problemas a trav´es de ellos. En el fondo, se esta´ obviando un aspecto important´ısimo de las matem´aticas, que es el de la ma´ tematica como un lenguaje. ¿Como leer, interpretar y comprender este lenguaje? ¿Que´ significa demostrar algo matem´aticamente? Para compensar esta omisi´on ´ en la didactica de las matem´aticas, se ha incluido en el ap´endice un breve ar t´ıculo sobre como leer textos matem´aticos, con orientaciones para el estudio de este curso. Se recomienda primero leer este ap´endice antes de abordar el estudio del curso como tal. Otro elemento de ayuda al estudiante en este libro es el uso de la ´ tecnica de simulaci´on utilizada como herramienta did´actica. Con ello se pretende motivar al auto-estudio, inculcar el esp´ıritu investigativo y fomentar una actitud cr´ıtica y positiva hacia el estudio de la estoc´astica, lo cual sin duda facilitar´a el estudio de estos temas tan abstractos. Mi recomendaci´on general al estudiante es estudiar detenidamente los problemas resueltos y la implementaci´on de las simulaciones en el texto para posteriormente realizar los problemas propuestos. Desde una perspectiva m´as amplia, el contenido de este texto esta enmarcado dentro de un componente importante en el pensum de la ingenier´ıa de sistemas y de las ciencias de la computaci´on. Me refiero al conglomerado de materias tales como investigaci´on de operaciones, matem´aticas discretas, probabilidades y estad´ıstica, m´etodos num´ericos y simulaci´on y modelos matem´aticos. A mi juicio, dicho componente es medular para la formaci´on integral de un analista de siste´ debe apuntar m´as all´a de ser un simple tecn´ocrata operario de TICs mas, quien (Tecnolog´ıas de Informaci´on y Comunicaci´on). M´as bien - y esto es algo que le
´ INDICE GENERAL
XI
cuesta trabajo entender a las personas no iniciadas en el tema - el analista de ´ sistemas debe estar en capacidad de analizar cualquier sistema, seaeste una empresa, una red de tr´afico vehicular, la econom´ıa nacional o la sociedad. Con las materias de este componente se pretende dotar al estudiante de herramientas pa´ ra el analisis matem´atico de los sistemas, cuyo fin ulterior es el de apoyar la toma racional de decisiones y permitir medir el desempe˜no del decisor en aras de lograr progresivamente un mayor bienestar colectivo. En un pa´ıs como Venezuela, es verdaderamente acuciante capacitar profesionales con estas destrezas; nuestro desarrollo como naci´on depende de ello. Quiero en estas l´ıneas agradecer a los profesores y autores que de manera directa o indirecta contribuyeron en mi propia formaci´on. En particular, extiendo mis agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad Nacional Abier ta, as´ı como tambi´en a mis colegas y compa˜neros docentes, Elai´ ne J. Perez Bracho, Jos´e T. Gomez Barreto y Rafael A. Rofriguez Toledo, quienes ´ han contribuido con importantes sugerencias en la redacci´on de este maademas terial. Debo incluir palabras de reconocimiento y de agradecimiento a mis alumnos de la UNEFA, quienes han contribuido tambi´en con sugerencias y a quienes este libro est´a dedicado. Aspiro inculcar en ellos una pasi´on por los temas de la investi´ de operaciones y el modelamiento matem´atico para que sean ellos mismos gacion los que sigan investigando, form´andose y siempre estando a la vanguardia en esta Era de la Informaci´on. Que su nivel de conocimientos rebase muchas veces el m´ıo ´ ´ propio, que estos sirvan al bienestar de nuestra naci´on y que esta reconozca la importancia del saber que ellos portan son mis deseos.
El Tigre, 27 de agosto 2011
XI I
´ INDICE GENERAL
Unidad 1
Repaso Rep aso de teor´ teo r´ıa ıa de probabilidades
ˆ ˆ On peut peut m eme dire, dire, a` parle parlerr en rigue rigueur ur,, que presque presque toutes toutes nos connaissanc connaissances es ne sont que probab probables les;; et dan dans s le petit petit nombre nombre des choses que nous pouvons savoir avec certitude dans les ´ ˆ ˆ sc`ıences ıences math ´ math ematiques emati ques elles-m elles-m emes, emes , les prici- ´ ´ e, ´ l’induction et paux moyens de parvenir a` la v erit ´ erit ´ ´ ... l’analogie, se fondent sur les probabilit es
GEOMETR´IA I A Y PROBABILIDAD
Laplace, P.S. Theorie de Probabilit Probabilit´e´
´ Tinta y lapiz sobre papel Anatoli Fomenko
1
2
´ DE PROBABILIDADES UNIDAD UNID AD 1. REPASO REPASO DE TEOR IA
Objetivos de la Unidad El objetivo general de esta Unidad es hacer un repaso de la teor´ teor´ıa ıa de probabilidades a fin de que el estudiante domine los conceptos fundamentales necesarios ´ para acometer el estudio de los procesos estoc´ estocasticos. Para lograr este objetivo, se requiere a su vez el dominio de los siguientes objetivos espec´ e spec´ıficos: ıficos:
Determinar Determinar el espacio muestral muestral asociado a un experimento experimento aleatorio. aleatorio. ´ Resolver problemas de c´ calculo de probabilidades mediante los axiomas de ´ Kolmogorov y el algebra de eventos. ´ Manejar el concepto de independencia estoc´ estocastica y resolver problemas que involucran eventos independientes. Manejar el concepto de variable aleatoria discreta o continua y calcular sus valores esperados. Aplicar las distintas distribuciones de probabilidad discretas o continuas al ´ modelado de diversos fen´ fenomenos y calcular probabilidades referidos a ellos. ´ generatr´ ´ caracter´ ´ Aplicar la funci´ funcion generatr´ız ız y la funci´ funcion caracter´ıstica ıstica para el calculo de ´ de una momentos momentos de una variable aleatoria y para determinar la distribucion variable aleatoria. ´ de probabilidad Manejar los conceptos de vector vector aleatorio, aleatorio, funci´ funcion probabilidad conjunta, ´ de problevariables aleatorias independientes y aplicarlos en la resoluci´ resolucion mas.
3
1.1. ESPACIOS ESPACIOS PROBABILIZADOS
1.1. 1.1. Expe Experim rimen ento to aleat aleator orio. io. Espa Espaci cio o mue uest stra ral. l. Even Evento tos s eleelementales. Probabilidad El objetivo fundamental de la teor´ teor´ıa ıa de la probabilidad probabilidad es la descripci descripcon i´ ma´ tematica de experimentos experimentos aleatorios aleatorios , que son procesos cuyos resultados no se ´ pueden predecir con exactitud. exactitud. Las dificultades dificultades en manejar manejar matematicamente algo ´ de que es por naturaleza impredecible se superan si abordamos la identificaci´ identificacion todos los resultados posibles que puede arrojar un experimento aleatorio. Con esto habremos definido el espacio muestral . El espacio muestral es un conjunto, en el ´ sentido matem´ matematico de la palabra, y sus elementos constituyentes son los resul´ se conocen como eventos tados posibles del experimento aleatorio, que tambi´ tambien elementales. Usualmente se denota el espacio muestral mediante la letra griega omega mayuscula ´ (Ω) y los eventos elementales mediante la omega min´ minuscula ´ 1 con con alg´un sub´ındice ındic e (ωi ) para distinguirlos entre s´ı . Para mantener la consisten´ se aclara que por evento elemental se entiende cada resultado cia en la notaci´ notacion, posible del experimento aleatorio (los elementos constituyentes de Ω) o los subconjuntos unitarios de Ω formados por los elementos de Ω correspondientes. Es ´ de event ´ de subconj de nota notarr que que la cole colecc cciion eventos os elem elemen ental tales es,, bajo bajo la acepc acepciion subconjunto untos s ´ de Ω: su union ´ es el conjunto Ω y son mutuamente unitarios, unitarios, forman una partici´ particion 2 disjuntos dos a dos. Los eventos elementales se pueden componer mediante uniones para formar ´ de eventos del eventos , eventos , que son subconjuntos del espacio muestral. La colecci´ coleccion ´ gebra espac espacio io mu mues estr tral al es un algeb al ra de conju conjunt ntos os,, porqu porque e es cerr cerrad ada a bajo bajo union uniones es finita finitas s ´ ´ sencillos, si A y B son dos eventos cualesquiera, y complementos. En t´ terminos mas ´ A B es el evento que se verifica cuando se verifica A B y A son eventos tambi´ tambien. el evento A o el evento B y A3 es el evento que se verifica cuando no se verifica
∪
∪
´ A. Como A B = A B, el algebra de eventos es cerrada bajo las intersecciones ´ Denotaremos por ℑ la clase de todos los eventos, o algebra ´ finitas tambi´ tambien. del espacio muestral.
∩
∪
´ all´ ´ Por razones que van m´ mas alla´ del alcance te´ teorico de este recuento, es preciso ´ adicional sobre ℑ: Si An es una sucesi´ ´ numerable de exigir una condici´ condicion sucesion ´ infinita tambi´ ´ es un evento eventos, entonces su uni´ union tambien
{ }
1
´ ωi para designar a los eventos elementales se utiliza cuando el espacio muestral Ω La notaci on es un conjunto numerable. numerable. 2 ´ es vacia: Dos eventos son mutuamente disjuntos o mutuamente excluyentes si su intersecci on A B = 0/ . 3 A se denomina evento complementario de complementario de A.
∩
´ DE PROBABILIDADES UNIDAD UNID AD 1. REPASO REPASO DE TEOR IA
4
Figura 1.1: Andrei Nikolaevich Kolmogorov (1903-1987) ´ ´ en la Universidad de Estatal Matematico ruso, estudi o´ bajo Nikolai Luz on ´ importantes contribude Moscu, ´ obteniendo su Ph D en 1929.Sus m as ´ ´ ciones fueron en el area de las probabilidades y los procesos estoc asti´ ´ matem atica. ´ cos, a los cuales les confiri o´ una s olida fundaci on Desa´ de capital importancia en el campo de los procerrollo una ecuaci on ´ ´ de Chapman-Kolmogorov. Fuente: http: sos estocasticos: la ecuaci on //en.wikipedia.org/wiki/Andrey_Nikolae //en.wikipedia.org /wiki/Andrey_Nikolaevich_Kolmogorov vich_Kolmogorov
A ∈ ℑ ∞
n
n=1
´ ´ mas ´ fuerte se denomina ´ Un algebra que satisface esta condici´ condicion denomina σ-algebra. Por ejemplo, 0/ , Ω y ℘(Ω) (esta ultima se lee “partes de omega”, que es la clase de ´ ´ todos los subconjuntos posibles de Ω) son σ-algebras. En resumen, se ha asociado a un experimento aleatorio un conjunto de resultados posibles y una estructura ´ matematica para definir todos los eventos posibles.
{ }
A modo de ejemplo, ejemplo, si el experimento experimento aleatorio aleatorio consiste en escoger al azar una ˜ persona y observar su d´ıa ıa de cumplea˜ cumpleanos, para definir el espacio muestral debe˜ de una forma conveniente. Se podr´ıa mos identificar ide ntificar cada d´ıa ıa del ano ıa asociar el 1 al primero de enero, el 2 al segundo de enero y as´ı sucesivamente. sucesivamente. Descartando el caso de las personas nacidas el 29 de febrero, el espacio muestral esta definido , 365 . Podemos por el conjunto de n´ numeros ´ naturales del 1 al 365 y Ω = 1, 2, observar que el espacio muestral es un conjunto numerable y finito. Si estamos interesados en el evento “la persona es nacida en el mes de enero”, este evento ´ se podr´ıa ıa definir como E = 1, 2, Analogamente, alogam ente, si estamos estamos interesados interesados , 31 . An´ en el evento “la persona es de signo acuario en el zodiaco” (21 de enero al 19 de , 50 . febrero), este se definir´ıa ıa por E = 21, 22,
{
{
···
}
··· } { ··· }
´ Las bases matem´ matematicas de la teor´ teor´ıa ıa de probabilidades moderna se deben a ´ elaboraciones sobre la teor´ıa ıa de la medida, que primordialmente se ocupa de c´ como ´ ´ asignar cantidades num´ numericas a cada conjunto de una σ-algebra. En nuestro caso esto es muy oportuno porque nos preocupa asociar probabilidades a eventos, y ´ las probabilidades son valores num´ numericos que cuantifican el grado de certidumbre ´ de un experimento aleatorio. sobre la ocurrencia de alg´ algun ´ evento en la realizaci´ realizacion ´ En el lenguaje de la teor´ıa ıa de la medida, la probabilidad es una medida, o funci´ funcion ´ que le asigna a cada conjunto de una σ-algebra un valor real positivo o nulo:
´ 1.2. ALGEBRA DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
5
´ (Axiomas de Kolmogorov). Sea (Ω, ℑ) un espacio muestral con su Definicion ´ P : ℑ [0, 1] es una medida de respectiva σ- ´ algebra de eventos. Una funci on probabilidad si satisface las condiciones siguientes:
−→
( I ) P (Ω) = 1
´ de conjuntos disjuntos dos a dos, entonces ( II ) Si Ai es una sucesi on ∞
P
An
n=1
∞
= ∑ P( An ) Esta es la propiedad de σ-aditividad n=1
En este caso se dice que (Ω, ℑ, P) es un espacio de probabilidad o espacio probabilizado .
1.2.
´ Algebra de eventos. Otras definiciones de probabilidad
A pesar de que los axiomas de Kolmogorov son pocos, permiten, mediante un ´ uso juicioso del algebra de eventos (vale decir, la teor´ıa de conjuntos, sobre la cual estos axiomas est´an fundamentados), demostrar toda una serie de resultados referentes al c´alculo de probabilidades. Por ejemplo, el primer axioma establece que la probabilidad de que se verifique cualquiera de los resultados posibles de un experimento aleatorio es igual a uno (P(Ω) = 1). Este axioma es coherente con nuestra ´ - siempre que realizamos un experimento aleatorio, se verificar´a alguno intuicion de los resultados posibles. Ahora bien, ¿cu´al es la probabilidad de que se verifique el evento vac´ıo: P(0/ )? Intuitivamente, deber´ıa ser cero, pues tras la realizaci´on de un experimento aleatorio siempre se verificar´a alguno de los resultados posibles y nunca “suceder´a nada”. Sin embargo, ¿podr´ıamos demostrarlo matem´aticamente?
Problema Resuelto 1.1 Demostrar que P(0/ ) = 0.
´ Solucion Segun ´ las leyes algebraicas de conjuntos, se tiene que:
∪ 0/ = Ω. (II ) Ω ∩ 0/ = 0/ , lo cual implica que Ω y 0/ son mutuamente excluyentes. (I) Ω
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
6
El espacio muestral Ω es el conjunto universal y adem´as, seg´un el axioma 1, se tiene que P(Ω) = 1. Por otro lado, el hecho de que Ω y 0/ sean mutuamente excluyentes implica que podemos usar el axioma 2:
P(Ω) = P(Ω
∪ 0/ )
seg´un (i)
Ω y 0/ son mutuamente excluyentes y
= P(Ω) + P(0/ )
aplica el axioma 2
= 1 + P(0/ )
P(Ω) = 1 seg´un el axioma 1
=1
Aplicando nuevamente el axioma 1 a la primera igualdad
Lo establecido en la ultima igualdad, 1 + P(0/ ) = 1, implica necesariamente que ´ P(0/ ) = 0, como se quer´ıa demostrar.
s Con argumentos completamente an´alogos a los de la demostraci´on anterior, se puede demostrar tambi´en que, dado un evento A, la probabilidad del evento ´ complementario A viene dada por P( A) = 1 P( A). Otra formula bastante conocida es la de la probabilidad del evento A B: P( A B) = P( A) + P( B) P( A B). Esta ´ formula es m´as general que la del segundo axioma de Kolmogorov. En particular, si A y B son dos eventos mutuamente excluyentes, entonces P( A B) = P(0/ ) = 0 y se estar´ıa en el caso del segundo axioma de Kolmogorov. Un diagrama de Venn en el cual se representan los dos eventos A y B con su intersecci´on puede aclarar como demostrar esta f´ormula. Todas estas demostraciones se dejan como ejercicios propuestos al final del cap´ıtulo.
∪
−
∪
− ∩ ∩
Lo que se pretende con la demostraci´on precedente y las otras similares que se sugieren como ejercicios para el lector es hacer evidente que, mediante los axiomas de Kolmogorov y la teor´ıa de conjuntos, se puede calcular la probabilidad ´ de cualquier evento siempre y cuando este se pueda representar mediante una expresi´on algebraica que involucre otros eventos cuyas probabilidades sean conocidas. Esto pareciera soslayar una limitaci´on de la teor´ıa de la probabilidad segun ´ las bases axiom´aticas de Kolmogorov, pero se debe tener en cuenta que la tendencia hist´orica del desarrollo de las matem´aticas siempre ha apuntado hacia una abstracci´on progresiva. Para ser hist´oricamente exactos, la teor´ıa de las probabilidades surge mucho antes de los trabajos de Kolmogorov durante la primera mitad del siglo XX. Los or´ıgenes de la teor´ıa de las probabilidades est´an indisolublemente ligados al estudio de los juegos de azar y a los trabajos del Marqu´es de Laplace que datan
´ 1.2. ALGEBRA DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
7
Figura 1.2: Pierre Simon de Laplace (1749-1827) ´ conocido como el “Newton franc es” ´ hizo numeLaplace, tambien ´ rosos e importantes aportes a las matem aticas, la astronom´ıa y la ciencia en general. En su obra “Theorie Analytique des Proba´ bilit´es” sent o´ las bases cient´ıficas de la teor´ıa matem atica de la ´ elabor o´ sobre el papel central que probabilidad. Laplace tambi en ´ normal en la teor´ıa de la probabilidad y a el ´ juega la distribucion se le atribuye el haber descubierto y demostrado el Teorema Central del L´ımite. Fuente: http://thales.cica.es/rd/Recursos/ rd97/Biografias/52-4-b-laplace.html
del siglo XVIII. T´erminos como “el problema de la ruina del jugador” y otras frases que usaremos a lo largo de este libro delatan estos or´ıgenes hist´oricos, a´un cuando sus aplicaciones hoy en d´ıa trascienden en mucho el contexto de los casinos. Es natural para nosotros como estudiantes del tema remontarnos a estos or´ıgenes y considerar otras definiciones del concepto de probabilidad. Laplace, en su obra titulada “Th´eorie Analytique des Probabilit´es” que public´o en 17954 , define probabilidad en los siguientes t´erminos: La teor´ıa del azar consiste ´ en reducir todos los eventos de un mismo g enero a un cierto n umero de casos ´ igualmente posibles, es decir, tales que estemos igualmente indecisos sobre su ocurrencia, y a determinar el n´ umero de casos favorables al evento cuya proba- ´ de ese n´ bilidad se busca. La relaci on umero con respecto a la cantidad de todos los casos posibles es la medida de dicha probabilidad, que de este modo es una ´ cuyo numerador se corresponde al n umero fracci on ´ de casos favorables al evento 5 y cuyo denominador es el n umero de casos posibles . ´
4
Ver Laplace (1886), p. viii. ´ ´ enements ´ ` La th eorie des hasards consiste a` r ´ eduire tous les ev du m eme genre a` un certain ´ ` ´ nombre de cas egalement posibles, c’est a-diretels que nous soyons egalement indecis sur leur ´ enment ´ ´ existence, et a` d ´ eterminer le nombre de cas favorables a l’ ev dont on cherche la probabilit e. ´ ´ qui n’est Le rapport de ce nombre a` celui de tous les cas possibles est la m esure de cette probabilit e, ´ ´ ainsi qu’une fraction dont le num erateur est le nombre de cas favorables, et dont le d enominateur est le nombre de tous les cas possibles. 5
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
8
´ (Probabilidad seg´ un Laplace). Si n es el n´ umero total de casos po- Definicion sibles y equiprobables de un experimento aleatorio y n A es el n umero ´ de casos para los cuales se verifica cierto evento A, entonces la probabilidad del evento A viene dada por
P( A) =
n A n
Podemos identificar en esta definici´on cl´asica de la probabilidad seg´un Laplace algunos de los conceptos que ya hemos visto, tales como “espacio muestral” y “evento”. Sin embargo, Laplace enfatiza que los casos que componen el espacio ´ un tanto simplificadora, muestral deben ser “igualmente posibles”. Esta suposicion pero sustentada en nuestra intuici´on com´un de las cosas, era v´alida para la mayor´ıa de los juegos de azar. Pi´ensese por ejemplo en el lanzamiento de un dado no cargado: si las seis caras del dado son igualmente posibles, la probabilidad de que salga un cinco al lanzar el dado es pues 16 . Sin embargo, al pretender aplicar la teor´ıa de la probabilidad al estudio de algunos sistemas de part´ıculas cu´anticas, por ejemplo, se vio que las leyes probabil´ısticas de estas no se conformaban a la ´ “natural” o a las suposiciones laplacianas de casos igualmente posibles y a intuicion su vez hubo que plantear otros de modelos probabil´ısticos como el de Fermi-Dirac o el de Bose-Einstein6 . Lo cierto es que esto deriv´o en la necesidad de replantear el concepto de probabilidad de una manera m´as abstracta, como lo hizo Kolmogorov. Dicho sea de paso, la definici´on de la probabilidad de un evento A como la fracci´on n A es consona con los axiomas de Kolmogorov, pues como 0 n A n, siempre se n tendra´ que 0 P( A) 1 y adem´as P(Ω) = nn = 1.
≤
≤
≤ ≤
Otro enfoque al definir el concepto de probabilidad es el frecuentista. Como se vio anteriormente, no siempre ocurre que todos los eventos elementales del espacio muestral sean equiprobables. Ante la ausencia de suposiciones bien sustentadas sobre un fen´omeno aleatorio, vale decir, ante la ausencia de un modelo ´ matematico que permita precisar dichas probabilidades, la alternativa es hallar estas de manera emp´ırica, repitiendo el experimento aleatorio muchas veces bajo las mismas condiciones. A medida que se repite el experimento un mayor n´umero de veces, la proporci´on de veces en los que se verifica un determinado evento con respecto al n´umero total de realizaciones del experimento aleatorio se acercara´ cada vez m´as a su probabilidad. Esto se conoce tambi´en como la ley de los grandes n´ umeros , y la idea descansa en la repetibilidad, siempre bajo id´enticas condiciones, del experimento aleatorio.
6
Ver Feller (1968), p. 5
´ 1.2. ALGEBRA DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
9
´ (Probabilidad como frecuencia relativa). Sup ´ ongase que se repite un Definicion ´ ´ repeti- experimento aleatorio n veces bajo id enticas condiciones y de entre est as ´ ciones, cierto evento A se verifica n A veces. Entonces, el l ´ ımite de la proporci on n A /n conforme n se hace muy grande es la probabilidad del evento A:
P( A) = l´ım n
n A
→∞
n
A lo largo de este libro, haremos uso de este enfoque emp´ırico para calcular, de manera aproximada, algunas probabilidades. Las repeticiones de los experimentos aleatorios se har´an en computadora mediante programas de simulaci´on. Para afianzar las ideas reci´en expuestas, considere el siguiente problema resuelto.
Problema Resuelto 1.2 ˜ hay 164 se˜noras. 96 En el barrio “El Engano” de entre ellas son chismosas, 84 son envidiosas y 100 son chismosas o envidiosas. Si en el mercado municipal me encuentro una mujer del barrio por casualidad (al azar), ¿cual es la probabilidad de que sea chismosa pero no envidiosa? “Daum Marries Her Pedantic Automaton George in May 1920, John Heartfield is Very Glad of It ”, 1920, pintura de George Grosz.
´ Solucion Primero identificamos el espacio muestral y los eventos pertinentes:
Ω es el conjunto de todas las mujeres del barrio “El Enga˜no”. A es el conjunto de mujeres chismosas. B es el conjunto de mujeres envidiosas.
Tropezarse con una se˜nora del barrio por casualidad (o al azar, si se quiere), equivale a seleccionar aleatoriamente una entre las 164 mujeres del barrio. Esto a su vez quiere decir que es igualmente probable encontrarse con una u otra- aplica la definici´on de probabilidad de Laplace (n´ umero de casos favorables entre el numero ´ total de casos) para determinar las probabilidades a partir del enunciado:
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
10
“96 de entre ellas son chismosas” “... 84 son envidiosas ...”
→
P( A) =
→
P( B) =
“... 100 son chismosas o envidiosas.”
96 164
≈ 0, 5854.
84 164
≈ 0, 5122. → P( A ∪ B) =
100 164
≈ 0, 6098.
La probabilidad que se quiere calcular, expresada en t´erminos de los eventos definidos anteriormente, es P( A B). A partir de los datos arriba podemos hacer ´ uso del algebra de eventos para encontrar dicha probabilidad:
∩
P( A) = P( A B) + P( A B)
∩ ∩ → P( A ∩ B) = P( A) − P( A ∩ B)
´ (¿porqu e?)
Pero por otra parte:
P( A B) = P( A) + P( B)
∪ − P( A ∩ B) → P( A ∩ B) = P( A) + P( B) − P( A ∪ B) ≈ 0, 5854 + 0, 5122 − 0, 6098 = 0, 4878 Sustituyendo en la ecuaci´on anterior para P( A B):
∩
P( A B)
∩ ≈ 0, 5854 − 0, 4878 =
0,0976
s
´ de probabilidad. Ti1.3. Variable aleatoria. Distribucion pos de variables aleatorias. Densidad de probabilidad El concepto de variable aleatoria es esencial y de mucha utilidad en el estudio ´ matematico de los fen´omenos aleatorios porque es un mecanismo para “traducir” los objetos del espacio muestral, que no necesariamente se identifican de forma num´erica, a elementos de alg´un conjunto num´erico. Esto facilita enormemente la
11
1.3. VARIABLES ALEATORIAS
cuantificaci´on en el estudio de la aleatoriedad, y conlleva eventualmente a establecer caracter´ısticas importantes que resumen num´ericamente el comportamiento del fen´omeno aleatorio, como la esperanza y la varianza.
´ (Variable Aleatoria). Sea (Ω, ℑ, P) un espacio de probabilidad. La Definicion ´ X : Ω variable aleatoria X (ω) es una funci on R que asigna a cada elemento del espacio muestral un valor real. Adicionalmente, la variable aleatoria es una funci ´ on medible, porque deber verificar que ω X (ω) < α ℑ.
−→ { |
}∈
Aun ´ cuando esta caracter´ıstica de las variables aleatorias como funciones medibles no se menciona en los textos elementales de probabilidades con los que Ud. probablemente estudi´o esta materia, se incluye en la definici´on anterior porque es justamente esta caracter´ıstica la que posibilita el c´alculo de probabilidades asociadas a intervalos reales, la definici´on de funciones de distribuci´on de probabilidad y consecuentemente, la funci´on de densidad de probabilidad. La variable aleatoria traduce eventos en el espacio muestral a intervalos o subconjuntos num´ericos con la finalidad de calcular la probabilidad asociada a estos subconjuntos num´ericos. Es decir, convierte la medida de probabilidad de eventos a distribuciones de probabilidad en conjuntos num´ericos, definiendo as´ı la llamada ´ de probabilidad : funci ´ on de distribuci on ´ de Distribuci´on de Probabilidad). Sea (Ω, ℑ, P) un espacio ´ (Funcion Definicion de probabilidad y X (ω) una variable aleatoria definida sobre este espacio. La ´ F ( x) de una variable aleatoria se define como sigue: funci ´ on de distribuci on
{ ≤ x} = P{ω| X (ω) ≤ α}
F ( x) = P X
Habiendo hecho esta definici´on, se esclarece el comentario anterior sobre la propiedad de la variable aleatoria como funci´on medible - si ω X (ω) < α / ℑ , dicho evento no tendr´ıa probabilidad asociada y por lo tanto se indefinir´ıa la funci´on de distribuci´on de probabilidad, porque solo tienen probabilidad aquellos eventos definidos en ℑ. Entre algunas propiedades de la funci´on de distribuci´on de probabilidad, que tambi´en se denomina a veces funci´on acumulada de probabilidad, se mencionan:
{ |
}∈
1. F es una funci´on creciente que toma valores en [0, 1]. 2. F ( ∞) = 0 y F (+∞) = 1.
−
Segun ´ la naturaleza del conjunto de valores que toma X , se tienen dos tipos
12
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
de variables aleatorias. Las variables aleatorias discretas se caracterizan por ser el conjunto de valores de X finito o por lo menos numerable. Si el conjunto de valores de X es infinito e innumerable, X es una variable aleatoria continua . Esta distinci´on es muy importante porque determina la forma en que definimos las probabilidades puntuales: para una variable aleatoria discreta, P X = x es un valor positivo si x esta dentro del rango de valores donde el evento ω X (ω) = x asume probabilidad positiva. En cambio, si X es una variable continua, P X = x es invariablemente igual a cero para cualquier valor x porque si X toma valores en un conjunto infinito, ninguna probabilidad puntual puede ser distinta de cero.
{
{|
}
} }
{
Cuando X es una variable aleatoria, podemos definir su funci´on de probabilidad del modo usual:
p( x) = P X = x = P ω X (ω) = x
{
}
{|
}
La funci´on de probabilidad de una variable discreta es mayor o igual a cero para todo x y verifica que la suma de las probabilidades puntuales a trav´es del conjunto imagen de X es igual a uno: ∞
∀ x ∈ R | p( x) ≥ 0
y
∑ p( x) = 1
x= ∞
−
A veces, p( x) se denota por p x , para enfatizar la naturaleza discreta de la variable aleatoria ( p tiene un sub´ındice porque los valores posibles de X son numerables). Si X es una variable continua, no tiene sentido hablar de probabilidades puntuales porque todas son iguales a cero. Se define entonces la funci´on de densidad de probabilidad f , que se corresponde a la derivada Radon-Nikodym de la ´ de distribuci´on. Una variable aleatoria que tiene asociada una tal funci´on de funcion densidad se denomina absolutamente continua, y dicha funci´on de densidad f ( x) verifica lo siguiente:
x
∀ x ∈ R | f ( x) ≥ 0
y
F ( x) =
f (t ) dt
−∞
Es de notar que en el caso continuo, f ( x) no representa una probabilidad puntual, pues ya hemos establecido que las probabilidades puntuales son necesariamente iguales a cero; en cambio f ( x) asume valores mayores o iguales a cero.
13
1.4. VALORES ESPERADOS
Una vez establecidas las definiciones b´asicas de variable aleatoria, distribuci´on de probabilidad, funci´on de probabilidad y funci´on de densidad de probabilidad, es preciso mencionar que en la teor´ıa de la probabilidad se estudian diversas distribuciones o leyes de probabilidad que pretenden modelar una amplia gama de fen´omenos aleatorios. El estudiante que haya cursado cualquier curso elemental de probabilidades conoce algunas de estas leyes de probabilidad y sus caracter´ısticas m´as importantes. En las tablas 1.1 y 1.2 se describen las leyes de probabilidad ´ usuales. mas Por ultimo, ´ se establece un teorema que nos ser´a de utilidad m´as adelante. El teorema establece la forma de la funci´on de densidad de probabilidad de una variable aleatoria expresada como funci´on de otra y se da a continuaci´on sin demostrarlo7 :
Teorema 1.1 (La distribuci´on de una funci´on de variable aleatoria). Sea X una va- ´ de densidad de probabilidad f X ( x) y def´ınase riable aleatoria continua con funci on 1 − Y = g( X ). Si y = g( x) y x = g ( y) son funciones univaluadas, continuas y dife- ´ creciente o decreciente de x, la funci on ´ de renciables y si y = g( x) es una funci on densidad de probabilidad de Y est ´ a determinada por:
f Y ( y) = f X g−1 ( y)
dx dy
en donde la cantidad J = dx /dy recibe el nombre de Jacobiano de la transfor- maci ´ on.
|
|
1.4. Valores esperados: esperanza y varianza Dos caracter´ısticas importantes de una variable aleatoria son su tendencia central y su dispersi´on media con respecto a la tendencia central. Ambas est´an dadas ´ por la esperanza y la varianza respectivamente. La esperanza matem atica de una variable aleatoria, tambi´en conocida como momento de orden uno o valor medio, se define del siguiente modo:
∞
E [ X ] =
x dF ( x)
−∞ Para el caso de la variable absolutamente continua se tiene que su esperanza 7
´ 5.8, pp. 168-169. Ver Teorema 5.2 de Canavos (1988), seccion
14
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
es:
∞
E [ X ] =
x f ( x) dx
−∞ en donde los l´ımites de integraci´on se definen convenientemente seg´ un el espacio de valores donde f ( x) es positiva. La esperanza matem´atica de una variable aleatoria discreta con funci´on de probabilidad p( x) se define como: ∞
E [ X ] =
∑ x p( x)
−∞
en donde, una vez m´as, los l´ımites de integraci´on se definen de forma conveniente. El valor esperado de una variable aleatoria, su media poblacional, frecuentemente se designa mediante la letra µ del alfabeto griego. A continuaci´on se enuncian sin demostraci´on algunas propiedades importantes de la esperanza:
1. Si X es una variable aleatoria degenerada (que asume un valor constanteC con probabilidad uno), entonces E [ X ] = C . 2. Sea C una constante y X una variable aleatoria, entonces E [CX ] = C E [ X ].
·
3. Sea X una variable aleatoria y sea Y = h( X ) otra variable aleatoria que es ´ de X . Entonces, el valor esperado de Y es: funcion
∞
E [Y ] = E [h( X )] =
h( x)dF ( x)
−∞ observando que los l´ımites de integraci´on se redefinen de acuerdo a los l´ımites de integraci´on para la variable X y en atenci´on a la funci´on h. Si la va´ lo es y su esperanza se define mediante una riable X es discreta, Y tambien sumatoria.
La varianza , que indica el grado de dispersi´on de una variable aleatoria respecto a su media, tambi´en es un valor esperado. De hecho, la varianza de una
´ CARACTER ISTICA ´ 1.5. FUNCI ON Y GENERATRIZ. DISTRIBUCIONES
15
variable aleatoria X es el valor esperado de la diferencia cuadr´atica de X respecto a su media y en su c´alculo interviene la f´ormula anterior:
∞
2
V [ X ] = E [( X µ) ] =
−
( X µ)2 dF ( x)
−
−∞
Algunas de sus propiedades notables son: 1. Para toda variable aleatoria X , V [ X ]
≥0 2. Si C es una constante, V [CX ] = C · V [ X ]. 2
3. Si A es una constante, V [ X + A] = V [ X ]. 4. V [ X ] = E [ X 2 ] E 2 [ X ]. Esta ultima formula es particularmente util ´ ´ para el ´ calculo de la varianza.
−
Finalmente, como ultima nota en este aparte, se menciona la cota de Tchebys- ´ chev , que involucra la esperanza y la varianza de una variable y es de utilidad para acotar de forma muy aproximada ciertas probabilidades cuando no se tiene ningun ´ conocimiento sobre la ley de probabilidad de una variable aleatoria. Este resultado se da en sus dos formas sin demostraci´on:
| − | ≥ ε] ≤ V ε[ X ]
P [ X µ
2
y, rec´ıprocamente,
P [ X µ < ε] > 1
| −|
− V ε[ X ] 2
´ caracter´ıstica y funcion ´ generatriz. Propie1.5. Funcion dades y tablas de las principales distribuciones. ´ en la Estad´ıstica de la funci´on generatriz de una variable discreta y la El interes ´ caracter´ıstica de una variable discreta o cont´ınua radica en el c´alculo de los funcion momentos y en el c´alculo de las distribuciones muestrales, siendo estas particularmente utiles para el c´alculo de la suma de n variables aleatorias independientes e ´
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
16
´ identicamente distribuidas. Otro caso donde son de utilidad es cuando se tiene una composici´on de variables aleatorias de distintas distribuciones. Ah´ı entonces se puede deducir la ley de probabilidad de la variable compuesta a trav´es del an´alisis de su funci´on caracter´ıstica o generadora. La funci ´ on caracter ´ıstica de una variable aleatoria X tiene una definici´on bas tante sencilla: es la esperanza de eiuX , en donde u es una variable real. Se tiene, pues:
∞
ϕ x (u) = E [eiuX ] =
eiuX dF ( x)
−∞ Como eiuX = cos ux + i sin ux, esta funci´on es integrable para cada u y con´ secuentemente, ϕ(u) posee una parte real y una parte imaginaria. ϕ X (u) tambien es conocida como la transformada de Fourier de F ( x). Si la variable X es absolu-
·
tamente continua, entonces ϕ X (u) = definidos donde f ( x) sea positiva.
∞
−∞
eiux f ( x)dx , con los l´ımites de integraci´on
Si X es una variable aleatoria discreta, se tiene por definici´on que ϕ X (u) = ∑ e p( x) con los l´ımites de la sumatoria definidos en aquellos puntos donde la ´ de probabilidad p( x) sea positiva. funcion iux
Las funciones caracter´ısticas de algunas variables aleatorias discretas y continuas m´as comunes se dan en las tablas 1.1 y 1.2. Es importante recalcar que la ´ caracter´ıstica depende del par´ametro u, por lo tanto, cuando se hable de su funcion derivada de orden k subsecuentemente, se refiere a la diferenciaci´on con respecto a u. Por los momentos se indican algunas propiedades de la funci´on caracter´ıstica que son de utilidad, aclarando que en lo sucesivo omitimos el sub´ındiceX en ϕ X (u) para ganar claridad tipogr´afica. Sea X una variable aleatoria con funci´on caracter´ıstica ϕ(u), entonces:
ϕ(0) = 1
|ϕ(t )| ≤ 1 E [ X k ] =
ϕ(k ) (0) ik
Esta ultima ´ propiedad es particularmente util, ´ podemos calcular el momento de orden k de una variable X derivando k veces su funci´on caracter´ıstica, evalu´andola
´ CARACTER ISTICA ´ 1.5. FUNCI ON Y GENERATRIZ. DISTRIBUCIONES
17
en cero y dividiendo entre ik . Generalmente, en este tipo de c´alculos surgen indeterminaciones de tipo 0/0 que se pueden resolver mediante el respectivo l´ımite y la regla de L’Hospital. Otra propiedad interesante de la funci´on caracter´ıstica es que existe una co´ rrespondencia un´ıvoca entre esta y la ley de probabilidad de la variable aleatoria subyacente. Existen varias f´ormulas de “inversi´on” que sirven a tales efectos, como el teorema de Levy. Dichas formulas se establecen en lo que sigue sin demostra´ 8: cion Sean F ( x) y ϕ(u) la funci´on de distribuci´on y la funci´on caracter´ıstica de una variable aleatoria X respectivamente. Si x1 y x2 son dos puntos de continuidad de F ( x) se tiene:
F ( x2 )
1
− F ( x ) = l´ı→m∞ 2π 1
T
T
e−iux1
−T
− e−
iux2
iu
ϕ(u)du
Como consecuencia de este teorema, se tienen los siguientes resultados: Si X es discreta, entonces:
p x ( x) = l´ım
1
T
→∞ 2T −T
T
e−iux ϕ(u)du
En el caso continuo, la funci´on de densidad de X es dada por:
f x ( x) =
1 2π
T
−T
e−iux ϕ(u)du
Por ultimo ´ es importante notar, a´ un adelant´andose a la exposici´on de la independencia estoc´astica y la convoluci´on de variables aleatorias, que la funci´on caracter´ıstica sirve para obtener la distribuci´on de una suma de variables independientes. Esto se desprende del hecho de que el valor esperado de un producto de variables aleatorias independientes es igual al producto de los valores esperados de las variables respectivas, pero este punto se tratar´a en mayor detalle posteriormente. En el caso en que la variable aleatoria X sea discreta y tome valores positivos, se puede definir su funci ´ on generatriz del siguiente modo: 8
RIOS, pp. 96-97
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
18
x
g(u) = E [u ] =
∞
∑ p(k )u x
k =0
Siempre y cuando u este dentro del radio de convergencia de dicha serie infinita. Algunas propiedades notables de la funci´on generatriz son las siguientes:
1. p(k ) =
g(k ) (0) k !
para k = 0, 1, 2,...
2. E [ X ( X 1)...( X k + 1)] = g(k ) (1), para k = 1, 2,.... La expresi´on E [ X ( X 1)...( X k + 1)] se conoce como momento factorial de orden k para la variable X .
− −
−
−
Como la funci´on caracter´ıstica, la funci´on generatriz determina un´ıvocamente la ley de probabilidad de una variable aleatoria y tambi´en sirve a efectos de determinar la distribuci´on de la suma de variables aleatorias independientes. Las funciones generatrices de diversas variables aleatorias discretas se dan en la tabla1.1.
Tabla 1.1: Leyes de probabilidad discretas m´as frecuentes y sus caracter´ısticas
Bernoulli ´ En un ensayo de Bernoulli se observa un exito con probabilidad p o un fracaso con probabilidad q = 1 p. 0 p 1
−
≤ ≤
´ de probabilidad: Funcion
p x ( x) =
1
− p
Valores Esperados:
x=0
p
x=1
0
x / 0, 1
E [ X ] = p
V [ X ] = pq
∈{ }
´ Generadora: Funcion
Funci´on Caracter´ıstica:
g( z) = q + pz
ϕ x (u) = q + peiu
´ CARACTER ISTICA ´ 1.5. FUNCI ON Y GENERATRIZ. DISTRIBUCIONES
19
Tabla 1.1: Leyes de probabilidad discretas m´as frecuentes y sus caracter´ısticas (continuaci´on)
Binomial Es la suma de n variables aleatorias de Bernoulli independientes e id´enticamente ´ distribuidas con par´ametro p. Representa tambi´en el n´umero de exitos en n ensa+ yos independientes. En lo que sigue 0 p 1, q = 1 p, n N
≤ ≤
´ de probabilidad: Funcion
p X ( x) =
n x
p x qn− x 0
−
∈
Valores Esperados:
∈ {0, . . . , n} / {0,..., n} si x ∈ si x
E [ X ] = np
V [ X ] = npq
´ Generadora: Funcion
Funci´on Caracter´ıstica:
g( z) = ( q + pz)n
ϕ x (u) = ( q + peiu )n
´ Geometrica La variable aleatoria geom´etrica es el n´umero de ensayos de tipo Bernoulli que se ´ requieren hasta observar el primer exito.En lo que sigue, 0 p 1, q = 1 p.
≤ ≤
´ de probabilidad: Funcion
p x ( x) =
Valores Esperados:
∈ N+ / N+ si x ∈
pq x−1
si x
0
E [ X ] = p1
´ Generadora: Funcion
g( z) =
−
V [ X ] =
q p2
Funci´on Caracter´ıstica:
pz 1 qz
ϕ x (u) =
−
Binomial Negativa
peiu 1 qeiu
−
La variable aleatoria binomial negativa representa el n´ umero de ensayos hasta ´ ´ observar la r -esima ocurrencia de un exito (r es un n´umero fijo).
´ de probabilidad: Funcion
− −
x 1 r 1
p X ( x) =
pr q x−r si x 0
´ Generadora: Funcion
g( z) =
pz 1 qz
−
r
Valores Esperados:
≥ r
si x < r
E ( X ) =
r p
V ( X ) =
rq p2
Funci´on Caracter´ıstica:
ϕ x (u) =
peiu 1 qeiu
−
r
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
20
Tabla 1.1: Leyes de probabilidad discretas m´as frecuentes y sus caracter´ısticas (continuaci´on)
Poisson La variable aleatoria Poisson representa el n´ umero de eventos que ocurren en un instante de tiempo de amplitud fija cuando la tasa media de eventos en ese intervalo de tiempo es λ.
´ de probabilidad: Funcion
p X ( x) =
e −λ
Valores Esperados:
x
λ
x! 0
si x
∈N≥0
E ( X ) = λ
V ( X ) = λ
si x < 0
´ Generadora: Funcion
Funci´on Caracter´ıstica:
g( z) = eλ( z−1)
ϕ x (u) = eλ(e
iu
−1)
Tabla 1.2: Leyes de probabilidad continuas m´as frecuentes y sus caracter´ısticas
Uniforme Es la variable aleatoria continua uniformemente distribuida sobre un intervalo(a, b). La probabilidad de que la variable aleatoria uniforme se encuentre dentro de alg´ un subintervalo de (a, b) es proporcional a la amplitud de dicho subintervalo.
´ de densidad: Funcion
f x ( x) =
1 b a
− 0
Valores esperados:
si a < x < b
b E [ X ] = a+ 2
en caso contrario
V [ X ] =
(b a)2
−
12
´ caracter´ıstica: Funcion
eiub
iua
−e ϕ (u) = iu(b − a) x
Normal
´ El n umero ´ de exitos en n ensayos independientes de Bernoulli obedece aproximadamente una ley Normal a medida que n tiende a infinito. Seg´un el teorema central del l´ımite, toda suma de n variables independientes e id´enticamente distribuidas es normal cuando n tiende a infinito. La ley normal modela adecuadamente una amplia gama de fen´omenos aleatorios porque generalmente, las desviaciones de una variable con respecto a un punto central se deben a la suma de una cantidad indefinidamente grande de perturbaciones aleatorias id´enticamente distribuidas e independientes entre s´ı. En lo que sigue σ, µ R σ > 0.
∈
´ CARACTER ISTICA ´ 1.5. FUNCI ON Y GENERATRIZ. DISTRIBUCIONES
21
Tabla 1.2: Leyes de probabilidad continuas m´as frecuentes y sus caracter´ısticas (continuaci´on) (Normal - continuaci´on)
´ de densidad: Funcion
f X ( x) =
√ 1
Valores esperados:
− −
σ 2π
exp
1 2
x µ 2
− σ
E [ X ] = µ
V [ X ] = σ2
´ caracter´ıstica: Funcion
ϕ x (u) = exp iuµ
1 2 2 u σ 2
Exponencial
La variable aleatoria exponencial juega un papel an´alogo en el caso continuo a la ´ geometrica y representa el tiempo que transcurre hasta que falla un componente. ´ Como la geometrica, la variable aleatoria exponencial tiene la propiedad de no poseer memoria: el haber esperado una cantidad de tiempo determinado sin que haya ocurrido la falla o el suceso en cuesti´on no condiciona el tiempo adicional de espera en el futuro. El unico ´ par´ametro de esta distribuci´on λ esta´ relacionado con la tasa media de eventos por unidad de tiempo y tiene la restricci´on de ser un valor real positivo.
´ de densidad: Funcion
f X ( x) =
−
λe− xλ si x > 0 0
en caso contrario
Valores esperados:
E [ X ] = λ1
V [ X ] = λ12
´ caracter´ıstica: Funcion
ϕ x (u) = 1
iu
λ
−1
Gamma
´ La variable aleatoria gamma representa el tiempo de espera hasta la r -esima ocurrencia de un fallo o evento cuando los eventos ocurren independientemente entre s´ı con una tasa promedio de λ por unidad de tiempo, con los tiempos inter-eventos distribuidos exponencialmente con el mismo par´ametro. Un caso especifico de la gamma es la distribuci´on de Erlang, que representa la suma de r variables aleatorias independientes distribuidas exponencialmente (en este caso, r es un n´umero entero positivo). La distribuci´on ji-cuadrado, la Weibull y la exponencial tambi´en se pueden definir como casos particulares de la gamma. Las restricciones sobre los ´ parametros son λ, r > 0.
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
22
Tabla 1.2: Leyes de probabilidad continuas m´as frecuentes y sus caracter´ısticas (continuaci´on) (Normal - continuaci´on)
´ de densidad: Funcion
f x ( x) =
−
λ (λ )r 1 e λ x Γ (r ) x
− −
0
Valores esperados: si x > 0 en caso contrario
E [ X ] = λr
V [ X ] = λr 2
´ caracter´ıstica: Funcion
ϕ x (u) = 1
iu
λ
−r
Nota: La funci´on Γ (r ) es la funci´on gamma, que se define a continua´ cion: Γ (r ) = 0∞ ur −1 e−u du , r > 0 Esta funci´on tiene las siguientes propiedades:
1. Γ (n + 1) = nΓ (n), n > 0. 2. Γ (n + 1) = n!, si n es un numero entero positivo.
1.6. Variables aleatorias bidimensionales y n-dimensionales. ´ de distribucion ´ conjunta. Funcion ´ de densiFuncion dad conjunta. Sucede muy com´unmente que estamos interesados en investigar las relaciones que hay entre dos o m´as caracter´ısticas de los individuos de una poblaci´onesto da pie a la definici´on de las variables aleatorias bidimensionales y, de forma ´ general, a las n-dimensionales. Este concepto pretende dar respuestas a premas guntas tales como: ¿Cu´al relaci´on existe entre la estatura y el peso corporal de cada persona? ¿Existe alg´un v´ınculo entre el grado de desarrollo tecnol´ogico y el porcentaje de la poblaci´on que son cient´ıficos en un pa´ıs? Es impor tante recalcar que las variables aleatorias conjuntas se refieren a dos o m´as caracter´ısticas que se observan simult´aneamente en cada individuo de una poblaci´on; est´an, pues, asociadas al mismo espacio muestral (ver Fig. 1.3). As´ı por ejemplo, si estamos interesados en comparar las destrezas matem´aticas de estudiantes de uno y otro liceo a partir de las notas de matem´atica de una muestra de veinte alumnos de cada liceo, no se puede instituir en base a esto una variable aleatoria bidimensional
23
1.6. VARIABLES ALEATORIAS N-DIMENSIONALES
porque los alumnos no provienen de la misma poblaci´on (dos liceos) ni tampoco un par de notas se refieren al mismo individuo.
´ (Variable aleatoria bidimensional y n-dimensional). Sea (Ω, ℑ, P) un Definicion espacio de probabilidad y X = X (ω) e Y = Y (ω) dos variables aleatorias defini- das sobre ese mismo espacio probabilizado. El par ( X , Y ) constituye una variable aleatoria bidimensional, a veces denominada vector aleatorio . An ´ alogamente, si X 1 = X 1 (ω), . . . , X n = X n (ω) son n variables aleatorias definidas sobre el mis- mo espacio, entonces es una variable aleatoria n-dimensional (vector aleatorio n-dimensional). Figura 1.3: Las variables aleatorias conjuntas est´an asociadas al mismo espacio muestral
' $ v & % ' $ v & %
X (Ω)
Ω
X (ω)
B ¨ ¨ ¨ X ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ Y E ω ¨ ¨
v
Y (ω)
Y (Ω)
Como en el caso unidimesional, las variables aleatorias multidimensionales (ndimensionales) son discretas o continuas y poseen funci´on de distribuci´on y funci´on de probabilidad o funci´on de densidad de probabilidad seg´ un sea el caso. Los vectores aleatorios son discretos si el producto cartesiano es un conjunto finito o numerable; en caso contrario, el vector aleatorio es continuo. Sin m´as pre´ambulos, se especifican seguidamente las particularidades salientes de los vectores aleatorios:
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
24
´ de probabilidad conjunta en caso discreto Al vector aleatorio discreto Funcion ( X 1 , . . . , X n ) se asocia una funci´on de probabilidad f ( x1 , . . . , xn ) que representa la respectiva probabilidad P ω X 1 (ω) = x1 , . . . , X n (ω) = xn definida en el espacio probabilizado y que cumple las siguientes condiciones:
{|
1. p ( x1 , . . . , xn ) ∞
2. x1
··· =−∞ ∑
∞
≥0
}
para todo ( x1 , . . . , xn )
∑ p ( x1 , . . . , xn ) = 1
xn = ∞
−
La segunda condici´on establece que la masa de probabilidad total sumada a trav´es de la regi´on de valores donde p ( x1 , . . . , xn ) 0 es igual a uno. Como en el caso unidimensional, esta condici´on es de hecho la que caracteriza a cualquier funci´on de probabilidad o de densidad.
≥
´ de densidad de probabilidad conjunta (caso continuo) Al vector aleaFuncion torio continuo ( X 1 , . . . , X n ) se asocia una funci´on de densidad de probabilidad f ( x1 , . . . , xn ) que, asumiendo valores positivos en alguna regi´on R del espacio n-dimensional, cumple las siguientes condiciones: 1. f ( x1 , . . . , xn )
··· − −
infty
2.
x1 = ∞
∞
≥0
xn = ∞
para todo ( x1 , . . . , xn )
f ( x1 , . . . , xn ) dx 1 . . . dx n = 1
´ de distribuci´on de probabilidad conjunta Un vector aleatorio ( X 1 , . . . , X n ) Funcion basado en un espacio de probabilidad (Ω, ℑ, P) tiene una funci´on de distribuci´on conjunta definida del siguiente modo:
F X 1 ,..., X n ( x1 , . . . , xn ) = P ω X 1 (ω)
{|
≤ x , . . . , X (ω) ≤ x } 1
n
n
Se calcula esta expresi´on mediante sumatorias o integrales m´ ultiples seg´ un sea el vector aleatorio discreto o continuo respectivamente. Las expresiones para los momentos de los vectores aleatorios se obtienen de forma an´aloga al caso unidimensional. Cabe destacar por ultimo la expresi´on para la funci´on ´ caracter´ıstica de un vector aleatorio:
´ caracter´ıstica conjunta Sea ( X 1 , . . . , X n ) un vector aleatorio basado en Funcion un espacio de probabilidad (Ω, ℑ, P). Su funci´on caracter´ıstica conjunta esta dada por:
25
1.7. VARIABLES ALEATORIAS INDEPENDIENTES
i(u1 X 1 + +un X n
···
ϕ X 1 ,..., X n (u1 , . . . , un ) = E e
=
···
ei(u1 X 1 +···+un X n f ( x1 , . . . , xn ) dx 1 . . . dx n
Rn
Ha de entenderse la ultima integral de esta expresi´on como una sumatoria ´ en el caso en que sea un vector aleatorio discreto. Como ultimo ´ punto en este aparte, cabe observar que cada una de las variables aleatorias X i que conforman el vector aleatorio ( X 1 , . . . , X n ) esta´ asociada a un mismo espacio probabilizado, por lo cual cada una de estas variables tiene su propia funci´on de probabilidad (de densidad de probabilidad, si es continua). En el ´ de probabilidad contexto de las variables aleatorias multidimensionales, la funcion (o de densidad) de cada variable aleatoria por separado se conoce como funci ´ on de probabilidad (densidad) marginal y se obtiene a partir de la funci´on de probabilidad conjunta sumando (o integrando) a trav´es de las otras variables aleatorias restantes. As´ı por ejemplo, si tenemos el vector aleatorio ( X , Y ) con su funci´on de probabilidad conjunta p( x, y) (o funci´on de densidad f ( x, y) si es continua), podemos obtener la funci´on de probabilidad marginal del siguiente modo:
p X ( x) =
∈
∑
y RangoY
p( x, y)
o
f X ( x) =
f ( x, y)dy
si ( X , Y ) es continua
R
En el caso de variables aleatorias de m´as de dos dimensiones, tendremos sumatorias o integrales m´ultiples, a fin de sumar a trav´es de las variables aleatorias restantes.
1.7. Variables aleatorias independientes y su caracteriza´ Covarianza. Distribucion ´ de la suma de dos o cion. ´ variables aleatorias independientes. Convolucion. ´ mas ´ El analisis de las relaciones entre las variables aleatorias de un modelo probabil´ıstico tiene mucho que ver con el concepto de la independencia entre variables
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
26
aleatorias. Intuitivamente, decimos que dos variables aleatorias son independientes si el resultado observado de una variable no afecta la ocurrencia del valor observado en la otra variable. Otra manera intuitiva de abordar la idea es considerando que ´ de probabilidades de si dos variables aleatorias son independientes, la distribucion una de ellas permanece igual a trav´es de todos los posibles valores que asuma la otra variable, lo cual guarda relaci´on directa con la posibilidad de factorizar la ´ de probabilidad conjunta como el producto de las respectivas funciones de funcion probabilidad marginales. A modo de ilustrar, se considera el siguiente ejemplo: en una poblaci´on, se ´ observa la raza o grupo etnico de cada persona conjuntamente con su nivel de inteligencia medida a trav´es del coeficiente intelectual. Si el nivel de inteligencia de ´ un individuo es independiente de su grupo racial u origen etnico, se observar´a que ´ las proporciones de individuos inteligentes, normales y subnormales permaneceran ´ iguales sin importar el grupo racial o etnico considerado. Valga este ejemplo para ˜ senalar otro aspecto importante sobre las relaciones de dependencia entre variables aleatorias: la estad´ıstica se limita a discernir si ciertos niveles de una variable van acompa˜nados por ciertos niveles de otra variable - las t´ecnicas estad´ısticas ´ clasicas no permiten discernir sobre las relaciones de causalidad de unas variables sobre otras. En nuestro ejemplo, si encontr´asemos que el origen racial no es ´ independiente del nivel de inteligencia de un individuo, no por esto pudiesemos concluir que ciertas razas son “m´as inteligentes” que otras o dicho de otro modo, que el origen racial de un individuo explica su bajo o alto coeficiente intelectual. ´ bien, en este caso, el investigador deber´ıa evaluar si el instrumento de mediMas ´ de la inteligencia est´a o no disenado ˜ cion de forma sesgada para favorecer a los individuos de cierta raza por sobre los individuos de otras razas. En todo caso, si la dependencia estoc´astica es equivalente a la causalidad, eso es algo que debe ´ responderse fuera del ambito probabil´ıstico. El concepto de variables aleatorias independientes y todas sus caracterizaciones que veremos seguidamente est´an fundamentadas en el concepto de eventos independientes, el cual se da a continuaci´on:
´ (Eventos independientes). Dos eventos A y B son independientes si Definicion y solo si P( A B) = P( A) P( B).
∩
·
Un error comun ´ en cuanto al concepto probabil´ıstico de independencia, por lo menos en base a la experiencia docente del autor, es aquel de se˜nalar dos eventos mutuamente excluyentes como aquellos que son independientes entre s´ı. De hecho, se da justamente lo contrario: si dos eventos son mutuamente exclusivos, la ocurrencia de uno determina con absoluta certeza la no ocurrencia del otro, por
27
1.7. VARIABLES ALEATORIAS INDEPENDIENTES
´ pueden considerarse eventos independientes. Es importante aclarar lo cual jamas todos estos puntos en torno a la noci´on de independencia estoc´astica porque un aspecto importante en el an´alisis de los procesos estoc´asticos es determinar si el estado del proceso en un instante de tiempo es independiente de su estado en otro instante. Como se ver´a, la suposici´on de la independencia entre los estados del sistema en distintos instantes de tiempo simplifica bastante el an´alisis del proceso ´ estocastico. Seguidamente se dan algunas caracterizaciones de la independencia de las variables aleatorias conjuntamente distribuidas:
I.
´ de la independencia en t´erminos de sus funciones de Caracterizacion probabilidad Un conjunto de variables aleatorias conjuntamente distribuidas se dice ser independiente si y solo si su funci´on de probabilidad conjunta se puede factorizar como el producto de las funciones de probabilidad de cada variable:
p( X 1 , . . . , X n ) = p X 1 ( x1 ) . . . p X n ( xn )
· ·
Si el vector aleatorio es continuo, se intercambia “funci´on de probabilidad” por ´ de densidad” en esta caracterizaci´on. “funcion II .
´ de la independencia en t´erminos de sus funciones de Caracterizacion ´ distribucion Para toda n-pla de valores ( x1 ,
F X 1 ,..., X n ( x1 , II I.
··· , x ), se tiene que n
··· , x ) = F ( x ) · . . . · F ( x ) n
X 1
1
X n
n
´ de la independencia en t´erminos de la esperanza maCaracterizacion ´ tematica Para toda n-pla de funciones (g1 , , gn ) donde existan los respectivos valores esperados en la siguiente ecuaci´on:
···
E [g1 ( X 1 ) . . . gn ( X n )] = E [g1 ( X 1 )] . . . E [gn ( X n )]
· ·
· ·
En palabras: la esperanza del producto de variables aleatorias conjuntamente distribuidas es igual al producto de los valores esperados de cada variable. De esta caracterizaci´on de independencia se deduce que la varianza de la suma
28
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA de variables aleatorias conjuntamente distribuidas e independientes es igual a la suma de las respectivas varianzas:
V [ X 1 + . . . + X n ] = V [ X 1 ] + . . . + V [ X n ] IV .
´ de la independencia en t´erminos de su funcion ´ caracCaracterizacion ter´ıstica La funci´on caracter´ıstica de un vector aleatorio conjuntamente distribuido es igual al producto de las funciones caracter´ısticas de cada variable aleatoria respectiva cuando estas son independientes. Dicha caracterizaci´on se infiere de la propiedad anterior para el valor esperado del producto de variables aleatorias independientes.
ϕ X 1 ,..., X n (u1 ,
··· , u ) = ϕ
X 1 (u1 )
n
·...· ϕ
X n (un )
Esta caracterizaci´on de independencia es muy util. ´ Permite por ejemplo concluir que la suma de n variables exponenciales id´enticamente distribuidas e independientes es una variable aleatoria gamma.
Seg´un las distintas caracterizaciones de independencia vistas, se tiene que dos variables aleatorias, o son independientes o no lo son. Pero si hemos de establecer un grado o la magnitud de la dependencia entre dos variables, una medida ser´ıa la covarianza , cuya definici´on es:
cov[ X , Y ] = E [( X E [ X ])(Y E [Y ])] = E [ X Y ] E [ X ] E [Y ]
−
−
· −
·
Es de notar que si dos variables aleatorias X e Y son independientes, las esperanzas en la expresi´on del extremo derecho de estas igualdades se cancela consecuentemente, si dos variables aleatorias son independientes, su covarianza es cero, aunque no podemos establecer de modo general la implicaci´on contraria. La covarianza puede ser negativa o positiva, sin embargo, a fin de acotar la covarianza y establecer comparaciones entre los grados de dependencia de dos o m´as pares de variables aleatorias se define a partir de la covarianza el coeficiente de correlaci ´ on :
ρ[ X , Y ] =
cov[ X , Y ]
V [ X ] V [Y ]
·
1.7. VARIABLES ALEATORIAS INDEPENDIENTES
29
el cual se puede demostrar que est´a acotado entre -1 y 19 . En realidad, el coeficiente de correlaci´on mide el grado de linealidad en la relaci´on de dos variables. Si ρ es -1, se tiene que entre X e Y existe una relaci´on lineal decreciente perfecta: una variable se puede expresar como funci´on af´ın de la otra y si una variable crece, la otra decrece. En cambio ρ = 1 representa una relaci´on lineal creciente perfecta: una variable aleatoria es funci´on af´ın de la otra y ambas decrecen o crecen simult´aneamente. Si ρ es cero, no existe ninguna relaci´on de linealidad entre una y otra variable, pero como ya se dijo anteriormente, esto no implica necesariamente que las variables en cuesti´on sean independientes. Dicho sea de paso, existen otras medidas de correlaci´on un tanto m´as robustas que no toman la linealidad en cuenta, como por ejemplo el coeficiente de correlaci´on de rango de Spearman y el coeficiente de correlaci´on de rango τ de Kendall entre otros10 . El concepto de independencia entre dos variables y sus caracterizaciones en ´ terminos de la esperanza matem´atica de su producto tienen como consecuencia ´ un metodo sencillo para obtener la distribuci´on de probabilidad de la suma de dos o m´as variables aleatorias. Se puede demostrar que si X e Y son dos variables ´ de densidad est´a dada aleatorias continuas e independientes entonces su funcion por:
f X +Y ( y) =
∞
−∞
f X ( x) f Y ( y x)dx
·
−
Para el caso continuo, la funci´on de probabilidad de X + Y para dos variables independientes es:
p X +Y ( y) = ∑ p X ( x) pY ( y x) x
·
−
´ En Integrales como la de arriba se denominan bajo el nombre de convoluci on . algunos textos de matem´aticas la convoluci´on de dos funciones f y g se escribe ´ f g, de modo que f X +Y ( y) = f X f Y . El calculo de tales integrales (o sumatorias en el caso discreto) puede resultar algo tedioso - es de este punto de donde las funciones caracter´ısticas derivan su importancia. Ya que la esperanza del producto de dos variables aleatorias independientes es igual producto de sus respectivas esperanzas, se tiene que:
∗
9 10
∗
´ del Teorema 7.11 en MEYER, p. 145 Ver la demostraci on Ver el capitulo 9 de Siegel (1974).
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
30
E [eiu( X +Y ) ] = E [eiuX eiuY ] = E [eiuX ] E [eiuY ]
·
·
´ y en consecuencia ϕ X +Y (u) = ϕ X (u) ϕY (u). En base a esta formula, se puede determinar la distribuci´on de la suma de variables aleatorias independientes observando la funci´on caracter´ıstica de la suma. Con este resultado, se explica ´ facilmente porqu´e la suma de variables exponenciales independientes de id´entico ´ parametro tiene una distribuci´on gamma, por ejemplo. Esta formula ser´a de utilidad en el an´alisis de ciertos procesos estoc´asticos.
·
1.8. Ejemplo para las secciones 1.6 y 1.7 A fin de consolidar su aprendizaje de los conceptos expuestos en las secciones anteriores sobre variables multidimensionales e independencia, considere el problema a continuaci´on:
Problema Resuelto 1.3 Se lanzan dos dados y en atenci´on al resultado, se definen las dos variables aleatorias siguientes:
X representa la suma de las dos caras resultantes en el lanzamiento de los dados. Y es una variable aleatoria dicot´omica que asume el valor de 1 si la cara del primer dado es divisible entre 2 o 3, y 0 si no lo es.
Determine la funci´on de probabilidad conjunta de la variable aleatoria bidimensional ( X , Y ) as´ı como la funciones de probabilidad marginales de X y de Y . Adicio´ son independientes. nalmente, indique si las dos variables aleatorias en cuestion
´ Solucion Primero, debemos identificar el espacio muestral subyacente al experimento aleatorio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede definir (o modelar, si prefiere) mediante el siguiente conjunto de pares ordenados:
Ω = (d 1 , d 2 ) d 1 , d 2
{
|
∈ N, 1 ≤ d , d ≤ 6} 1
2
31
1.8. EJEMPLO PARA LAS SECCIONES 1.6 Y 1.7
En palabras, Ω es el conjunto de todos los pares ordenados de n´ umeros tal que cada n´umero representa una de las posibles seis caras del dado respectivo. Dicho conjunto tiene 36 elementos y asumiendo que los dados son justos y que el lanzamiento de un dado no condiciona el lanzamiento del otro, cada uno de estos 36 eventos elementales del espacio muestral tiene una probabilidad asociada de 1 . Traducci´on al castellano: todos los posibles resultados de lanzar dos dados son 36 equiprobables. A partir de este conjunto Ω definimos las dos variables aleatorias como en el enunciado del problema. Estas variables pueden considerarse como caracter´ısticas num´ericas que estar´an asociadas a cada evento elemental o individuo de la poblaci´on. En conjunto, se esquematiza todo esto en una tabla:
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
ωi (1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
X (ωi ) 2 3 4 5 6 7 3 4 5 6 7 8 4 5 6 7 8 9
Y (ωi ) 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1
i 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
ωi (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
X (ωi ) 5 6 7 8 9 10 6 7 8 9 10 11 7 8 9 10 11 12
Y (ωi ) 1 1 1 1 1 1 0 0 0 0 0 0 1 1 1 1 1 1
Observamos que la V.A. X asume valores entre 2 y 12 (11 posibles valores), mientras que Y asume dos posibles valores 0 y 1. Para obtener las probabilidades conjuntas, construimos una tabla de 11 columnas (cada columna representa un posible valor de X ) y 2 filas (los dos posibles valores de Y ). En cada celda, se indica la probabilidad respectiva con que ocurre el valor ( x, y). Estas probabilidades se obtienen a partir de la tabla anterior. Por ejemplo, el par ( X , Y ) = (8, 1) ocurre
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
32
4 veces en 36 casos. Por lo tanto su probabilidad es igual a 4/6 y este valor es el que colocamos en la celda respectiva. Para variables aleatorias bidimensionales discretas, dicha tabla se conoce comotabla de contingencia :
X
Y
2
3
4
5
6
7
8
9
10
11
12
0
1 36
0
1 36 2 36
1 36 3 36
2 36 3 36
2 36 4 36
1 36 4 36
1 36 3 36
1 36 2 36
1 36 1 36
0
1
1 36 1 36
1 36
A esta tabla de contingencia podemos agregarle las respectivas funciones de probabilidad marginales (que son f X ( x) y f Y ( y)) totalizando las probabilidades de las celdas y de las columnas:
X
Totales
2
3
4
5
6
7
8
9
10
11
12
f Y (y)
0
1 36
1 36
1 36
1 36
2 36
2 36
1 36
1 36
1 36
1 36
0
12 36
1
0
1 36
2 36
3 36
3 36
4 36
4 36
3 36
2 36
1 36
1 36
24 36
f X (x)
1 36
2 36
3 36
4 36
5 36
6 36
5 36
4 36
3 36
2 36
1 36
1
Y
Con las funciones de probabilidad marginales de X e Y podemos verificar si estas variables son independientes. Recordemos que una de las definiciones o ca´ de probabilidad conjunta racterizaciones de independencia requiere que la funcion sea factorizable por las respectivas funciones de probabilidad marginales, es decir, que se cumpla p( x, y) = p X ( x) pY ( y) para todo x,y.
·
1 Si tomamos, por ejemplo, x = 3 e y = 0, tenemos p( x, y) = p(3, 0) = 36 , pero 12 2 1 p X ( x) pY ( y) = 36 36 = 54 y claramente se tiene que p( x, y) = p X ( x) pY ( y) y por lo tanto X e Y no son independientes.
·
·
·
Han podido considerarse otras instancias de x e y, pero basta que no se cumpla p( x, y) = p X ( x) pY ( y) para una instancia para que el par X , Y no sea independiente. Este resultado tiene una lectura intuitiva: para que la suma X sea 2, es necesario que D1 no sea divisible entre 2 o 3. Por otro lado, para que X sea 12, es necesario que D1 sea divisible entre 2 y 3, porque tanto D1 como D2 son necesariamente iguales a 6. Por lo tanto, vemos que la divisibilidad de D1 por 2 o 3 condiciona la suma X ; de hecho, se observa que para distintos valores de X las proporciones de
·
33
1.9. PROBLEMAS PROPUESTOS
las probabilidades conjuntas para los casos Y = 0 o Y = 1 son distintas. Todo esto confirma que X e Y son mutuamente dependientes, aunque el grado de dependencia no es total. Otra cosa que seguramente habr´as notado es la raz´on por la cual las funciones de probabilidad individuales de X y de Y se denominan funciones de probabilidad marginales: siendo totales de columnas y de filas, se especifican en los m´argenes de la tabla de contingencia.
s 1.9.
Problemas propuestos
1. Defina, en sus propias palabras, los siguientes conceptos: a ) Espacio muestral b ) Evento c ) Variable aleatoria d ) Funci´on de distribuci´on de probabilidades e ) Funci´on de densidad de probabilidades f ) Funcion de probabilidad 2. Defina el espacio muestral asociado al siguiente experimento aleatorio: Un lote contiene 10 art´ıculos, 3 de los cuales son defectuosos. Se extrae un art´ıculo a la vez de este lote, sin reemplazo, hasta haber obtenido todos los art´ıculos defectuosos y se observa la cantidad de art´ıculos que quedan en el lote. 3. Si A y B son dos eventos asociados a un espacio muestral, ¿c´omo se interpreta A B? ¿ A B? ¿ A?
∪
∩
4. Demuestre que para dos eventos A y B cualesquiera, P( A B) = P( A) + P( B) P( A B).
−
∪
∩
5. Para un evento cualquiera A asociado a un espacio muestral Ω, demuestre que P( A) = 1 P( A).
−
6. Un jugador italiano expres´o su sorpresa a Galileo por observar que al jugar con tres dados, la suma 10 aparece con m´as frecuencia que la 9. Seg´ un el jugador los casos favorables al 9 y al 10 ser´ıan respectivamente:
34
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA Casos favorables al 9 126 135 144 225 234 333
Casos favorables al 10 136 145 226 235 244 334
Pero Galileo, en su libro Considerazione sopra il giuoco dei dadi , vio que estas combinaciones no se pueden considerar igualmente probables. Explique porque´ y calcule las probabilidades correspondientes. ´ 7. La correspondencia epistolar entre Pascal y Fermat, dos grandes matematicos del siglo XVII, que jug´o un papel hist´orico determinante en el desarrollo de la teor´ıa de la probabilidad, fu´e motivada por algunos problemas relativos ` a los juegos de azar. Se dice que el Chevalier de Mere, un aristocrata franc´es aficcionado a los juegos de dado, solicit´o la ayuda de ellos para esclarecer ´ ventajoso apostar a que un seis salga por lo menos una vez en 4 si era mas lanzamientos de un dado o apostar a que en 24 lanzamientos de dos dados, salga un doble seis por lo menos una vez. ¿C´omo hubiese aconsejado Ud. ` a de Mere? 8. Defina “independencia entre eventos” y “eventos mutuamente excluyentes”. ´ es la diferencia entre estos dos conceptos? ¿Cual ´ Ay 9. Si A y B son dos eventos mutuamente independientes, ¿lo son tambien B? Demuestrelo o verifique lo contrario mediante un contraejemplo. 10. Sean A y B dos eventos asociados a un espacio muestral. Justifique la siguiente igualdad: P( A) = P( A B) + P( A B).
∩
∩
11. Si A y B son dos eventos independientes, ¿son mutuamente excluyentes ´ tambien? Demuestrelo o verifique lo contrario mediante un contraejemplo. 12. Tanto en la definici´on frecuentista de la probabilidad como en la definici´on ´ clasica (seg´un Laplace) de la probabilidad se caracteriza la probabilidad de un evento A como el cociente nn A . ¿Cual es la diferencia entre ambas definiciones entonces? 13. En la definici´on del concepto de variable aleatoria, ¿porqu´e es necesaria la ´ de que la variable aleatoria sea una funci´on medible? condicion
35
1.9. PROBLEMAS PROPUESTOS
14. Sea X una variable aleatoria y F su funci´on de distribuci´on de probabilidad. Demuestre que F (+∞) = 1. 15. Sea X una variable aleatoria cont´ınua y f ( x) su funci´on de densidad de probabilidad. Explique porqu´e f ( x) y la probabilidad puntual P X = x no son lo mismo.
{
}
´ 16. Se lanza una moneda repetidas veces hasta obtener tres caras en sucesion y se observa el n´ umero total de lanzamientos efectuados ( X ). a ) Defina el espacio muestral. b ) Calcule las siguientes probabilidades P( X = 3), P( X = 4) y P( X = 5). 17. San Pedro llega muy borracho a su casa todas las noches. Para poderse acostar a dormir en su cuarto, tiene que abrir dos puertas cerradas con llave. Desgraciadamente (es San Pedro despu´es de todo), su llavero consta de 100 llaves, y est´a tan borracho que debe tantear las llaves en cada cerradura de manera aleatoria (cada llave tiene igual probabilidad de usarse en cada tanteo. Todas las noches su esposa lo observa en este trance. Como buena cuaima, ella decide que San Pedro dormir´a en el sof´a si tiene que tantear ´ de 7 llaves (pues en ese caso ella considera que estar´ıa demasiado mas borracho). Esta noche, San Pedro llega a su casa totalmente empapado en ron- ¿cual es la probabilidad de que le toque dormir en el sof´a? 18. En una l´ınea de producci´on de una f´abrica en China se produce cierto tipo de art´ıculo y de esta producci´on, el 10% de los art´ıculos salen defectuosos. Debido a la naturaleza del proceso de fabricaci´on, esta probabilidad es cons´ Un inspector de tante para cada art´ıculo individual en la l´ınea de produccion. calidad visita la fabrica y toma una muestra aleatoria de 4 art´ıculos. ¿Cu´al es la probabilidad de que encuentre uno o m´as art´ıculos defectuosos? 19. En la Rep´ublica Bolivariana de Venezuela se producen en promedio 200 casos de corrupci´on administrativa semanalmente, seg´un un proceso de Poisson. De estos casos de corrupci´on, solo el 1% concluye en c´arcel para los culpables. ¿Cu´al es la probabilidad de que en la pr´oxima semana se produzcan 2 o m´as delitos de corrupci´on punibles? 20. Sea T el tiempo de vida en horas de un componente distribuido exponencialmente con tiempo de vida promedio de 5 horas. Calcule las siguientes probabilidades: a ) P T > 3 .
{
}
´ DE PROBABILIDADES UNIDAD 1. REPASO DE TEOR IA
36 b ) P T = 5 .
{ } c ) P{4 ≤ T < 6}.
21. ¿Cu´al es la probabilidad de que una variable aleatoria exponencialmente distribuida tome valores mayores a su media? 22. Un estudiante de procesos estoc´asticos desea realizar una encuesta a 10 estudiantes de ingenier´ıa de sistemas, para lo cual se para en el port´on de la UNEFA a fin de seleccionar los 10 primeros alumnos de sistemas que pasen por ah´ı. Si N es la variable aleatoria que se define como el n´ umero total de estudiantes que pasan por el port´on (sean de sistemas o no), hasta obtener la muestra de los 10 alumnos de sistemas, y p es la probabilidad de que un estudiante cualquiera que pasa por el port´on sea un alumno de sistemas, demuestre que el valor esperado de N es 10/ p. (Ayuda: Encuentre primero la funci´on caracter´ıstica o generadora de momentos de N ). 23. Sea X una variable aleatoria uniformemente distribuida en (0, 1). Demuestre que la variable aleatoria Y = 2log ( X ) tiene una distribuci´on χ2 con dos grados de libertad. Ayuda: la funci´on de densidad de la χ2 con k grados de libertad es:
−
1
f ( x; k ) =
Γ
0
k 2
2k /2
x(k /2−1) e(− x/2) x > 0 x
≤0
Unidad 2
´ a la simulaci on ´ Introduccion ´ estocastica mediante R ´ como el proceso de dise nar ˜ Definimos simulaci on un modelo de un sistema real y conducir experi- mentos con este modelo a fin de entender el com- portamiento del sistema y/o evaluar varias estrate- ´ del sistema. Por lo tanto es gias para la operaci on ˜ un punto crucial que el modelo sea dise nado de tal manera que imite las respuestas del sistema real a eventos que ocurren en el tiempo.
` ´ PARALLELLES I NT ERFERENTES 1952 Jesus Soto
Robert Shannon Introducci´on al arte de la simulaci´on
37
38
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
Objetivos de la Unidad El objetivo general de esta Unidad es servir de introducci´on a la simulaci´on es´ tocastica como una herramienta para afianzar el aprendizaje de los contenidos de la teor´ıa de la probabilidad y los procesos estoc´asticos que se cubren en este libro. ´ Al termino de la misma, se quiere que el estudiante logre los siguientes objetivos espec´ıficos: Instalar o acceder al interprete de comandos del lenguaje R, que ser´a el lenguaje con el cual se implementar´an las simulaciones en este libro. Aprender y practicar los aspectos b´asicos de la sintaxis, los tipos de datos y las estructuras de control fundamentales de R. Construir scripts en R para resolver, mediante la simulaci´on, problemas de ´ calculo de probabilidades o valores esperados.
´ ´ al R 2.1. ¿Para qu´e la simulacion? Breve introduccion El uso de la teor´ıa de la probabilidad para deducir algunas propiedades de un modelo aleatorio entra˜na cierta dificultad- se presenta casos en donde el an´alisis ´ teorico de un matem´atico experimentado sobre alguna situaci´on que involucra el azar es errado. Si adem´as nuestra formaci´on te´orica sobre las probabilidades es deficiente (lamentablemente este es el caso m´as com´un), entonces se dificulta a´un ´ el abordaje de ciertos problemas. Pero teniendo una computadora, contamos mas con un instrumento epistemol´ogico que nos permite obtener conocimiento sobre el modelo aleatorio de forma experimental- este es el objetivo fundamental de la denominada simulaci´on. La simulaci´on, como la programaci´on misma, es un arte. No existe un procedimiento mec´anico para hacer simulaciones. Lo que se requiere del analista es determinar detalladamente las reglas y la secuencia de acciones que rigen el comportamiento de los componentes del sistema a simular. Se deben establecer bien las relaciones de dependencia entre los componentes y deslindar aquellos comportamientos de componentes que son independientes de los dem´as comportamientos. Esta secuencia de acciones y comportamientos conforma un ciclo, an´alogo a una
´ 2.2. C OMO CONSEGUIR EL INTERPRETE R
39
partida de un juego. Como en las simulaciones se pretende determinar las probabilidades o los valores esperados, se deben realizar muchas iteraciones de estos ciclos para ver cual es su comportamiento “a la larga”. Es en este punto donde estriba el poder del computador como instrumento epistemol´ogico- el computador realiza esta mir´ıada de c´alculos r´apidamente, obteniendo la probabilidad o el valor esperado deseado a trav´es de la fuerza de computo bruto. Existen diversos entornos de programaci´on para la investigaci´on num´erica o ´ estocastica. Entre estos, se escogi´o el lenguaje R para desarrollar los ejemplos y trabajos pr´acticos de este curso. El lenguaje R es un sistema para el an´alisis estad´ıstico y gr´afico, a la vez un entorno de programaci´on y aplicaci´on basado en el lenguaje S desarrollado por los Laboratorios AT&T Bell1 . Uno de los atractivos principales de R es que se distribuye libremente bajo los t´erminos de la GNU General ´ Public License. Aunado a esto, existen muchos programas en S disponibles a traves 2 del Internet que se pueden ejecutar directamente bajo R . El lenguaje R, siendo un lenguaje de programaci´on orientado a objetos, incorpora sentencias b´asicas de bucles y condicionamiento junto con herramientas sofisticadas de alto nivel para el ´ analisis estad´ıstico, lo cual le da una enorme flexibilidad. Por todas estas razones, el lenguaje R tiene cada vez m´as preponderancia en el mundo acad´emico y en la investigaci´on estoc´astica.
2.2.
´ Como conseguir el interprete R
Los binarios para la instalaci´on de R para los sistemas operativos m´as comunes (Linux, Windows, MacOs o Solaris) se encuentran disponibles para su descarga en ´ la p agina principal del proyecto R (CRAN): http://cran.r-project.org/ . Si se ha de usar el R bajo una instalaci´on Linux, que es lo que el autor recomienda, se sugiere tambi´en instalar un IDE3 como el Geany, el cual es bastante f´acil de usar. Junto con este libro se ha incluido un Live CD4 de Linux con R, algunas librer´ıas de utilidad y el Geany instalado. En el ap´endice se incluye un breve tutorial sobre el uso de Geany. La instalaci´on de R para Windows incluye un editor de scripts y 1
Ver Paradis (2002). Consultar en http://stat.cmu.edu/S/. 3 ´ compilaci on, ´ ejecuci on ´ y depuraLos IDE son entornos de desarrollo integrados para la edici on, ´ de programas en varios lenguajes. cion 4 ´ del sistema El Live CD es un CD de arranque para el sistema operativo Linux, e incluye, adem as operativo, otras aplicaciones, como en este caso R y las librer ´ıas. Arrancando el computador desde un Live CD en la unidad lectora, el sistema operativo se monta en memoria RAM y el usuario puede ´ trabajar sin afectar los contenidos del disco duro de la m aquina. 2
40
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
una consola de comandos.
Figura 2.1: Encabezado de un servidor RWeb. El recuadro de comandos se encuentra m´as abajo en la p´agina. Tambi´en existe la posibilidad de usar el R desde un servidor RWeb (Ver Fig. ´ de un servidor RWeb, el usuario puede ejecutar scripts de R sin ne2.1). A traves cesidad de instalar el int´erprete R como se indica arriba. No obstante, si es necesario disponer de una conexi´on internet para navegar a alguna de las p´aginas que ´ hospedan servidores RWeb. El procedimiento para esto se indica a continuacion: 1. Mediante el navegador web, acceda a alguna p´agina con servidor RWeb. Algunas de estas son: http://www.mzandee.net/˜zandee/statistiek/rweb/ http://pbil.univ-lyon1.fr/Rweb/ - d e l Pˆole Bioinformatique Lyonnais, adscrito a la Universidad de Lyon en Francia, corriendo R 2.11.1. http://claree.univ-lille1.fr/Rweb/ - de la Universit´ee Lille1 corriendo R versi´on 2.9.0. http://data-engine.tama.ac.jp/Rweb/Rweb.general.html - Tama University, versi´on 2.12.1 de R. Este servidor tiene la versi´on m´as actualizada de R. http://www.unt.edu/rss/Rinterface.htm - University of North Texas corriendo R versi´on 2.5.1. Este servidor contiene muchos paquetes complementarios.
2. Se escribe el c´odigo R del script a ejecutar en el recuadro correspondiente que se muestra en la p´agina (ver Fig. 2.2).
´ AL LENGUAJE R 2.3. BREVE INTRODUCCI ON
41
Figura 2.2: Recuadro de comandos de un t´ıpico servidor RWeb.
´ 3. Para ejecutar el codigo, presione el bot´on Submit debajo del recuadro para colocar el c´odigo, tal como se muestra en la figura. 4. Debe esperar cierto tiempo para que el servidor RWeb ejecute el script su´ ministrado. Luego se cargar´a una pagina web con los resultados.
2.3.
´ al lenguaje R Breve introduccion
R es un lenguaje de programaci´on con todas las de la ley. A pesar de que su fuerte es el c´omputo num´erico y el procesamiento estad´ıstico de datos, es un lenguaje de prop´osito general y es multiparadigma - lo cual quiere decir que soporta la programaci´on orientada a objetos (mediante el sistema S4) y la programaci´on funcional (gracias a su herencia de Scheme y otros lenguajes basados en Lisp). Desde luego, R soporta la programaci´on procedimental y estructurada, lo cual quiere decir que el lenguaje posee las estructuras de control usuales en otros lenguajes: for, while, if, etc. En esta secci´on daremos una breve introducci´on al lenguaje R, que no pretende ser un curso completo.
42
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
En primer lugar, debemos aclarar que R es un lenguaje interpretado, no compilado. Esto quiere decir que el usuario puede ingresar expresiones o comandos de R tras el caracter de petici´on5 que inmediatamente ser´an evaluados, devolviendo el ´ interprete un resultado. El usuario puede, si lo desea, encadenar una secuencia de instrucciones o expresiones en R para crear lo que se conoce como un programa solo que en R no los llamamos programas, sino scripts, porque R es un lenguaje interpretado. Dichos scripts se crean como un archivo de texto plano en un editor de textos como Notepad, gedit o el editor de scripts que se incluye en la versi´on para Windows de R6 . Los archivos con los scripts de R siempre tendr´an como extensi´on el sufijo .R. ´ En R, los tres tipos basicos de datos7 son el num´erico (constantes num´ericas reales o enteras, indistintamente), las cadenas de caracteres (que se encierran entre comillas ) y los l´ogicos o booleanos8 . A modo de ejemplo, indicaremos seguidamente algunas expresiones num´ericas junto con las salidas correspondientes del interprete R: > 2/4 [1] 0.5 > 2/3+1 [1] 1.666667 > 2/(3+1) [1] 0.5 > sqrt(2) [1] 1.414214 > 1.414214ˆ2 [1] 2.000001 5
´ o prompt, usualmente es >. El caracter de petici on, ´ ´ Para los usuarios de Linux con Geany, v ease el ap endice. 7 ´ los factores, que se utilizan para codificar valores de una variable categ orica. ´ Existen tambien Sin embargo, en este curso no nos ocuparemos de este tipo de datos. 8 ´ Las dos constantes l ogicas para verdadero y falso son, respectivamente TRUE o T y FALSE o F. La sintaxis de R es sensible a mayusculas y min usculas, ´ de modo que usar true o True en vez de TRUE generar´ıa un error. 6
´ AL LENGUAJE R 2.3. BREVE INTRODUCCI ON
43
En lo anterior se ilustra el uso de par´entesis como operadores de precedencia aritm´etica (n´otese la diferencia entre 2/3+1 y 2/(3+1)9 ), as´ı como el uso de funciones como sqrt para calcular la ra´ız cuadrada de su argumento y la exponenciaci´on mediante el operador ˆ. Desde luego, R posee muchas otras funciones matem´aticas como log, sin, cos disponibles en cualquier lenguaje de programaci´on (y otras ´ especificas que no est´an incluidas en cualquier lenguaje de programacion). ´ mas A continuaci´on algunos ejemplos de expresiones con cadenas de caracteres: > paste("procesos","estocasticos") [1] "procesos estocasticos" > paste("aritmetica",2+2) [1] "aritmetica 4" > paste("procesos","estocasticos",sep="") [1] "procesosestocasticos"
La funci´on paste() toma sus argumentos, los convierte a cadenas y concatena las cadenas en una sola. Cuando no se indica el caracter de separaci´on (mediante el argumento sep como se indica arriba), el caracter de separaci´on por defecto es un espacio en blanco (sep=). A continuaci´on algunas expresiones con datos ´ logicos: > 2+2==4 [1] TRUE > 2+2!=5 [1] TRUE > 3>5 [1] FALSE > TRUE & FALSE [1] FALSE > TRUE | FALSE [1] TRUE 9
´ de los par entesis ´ ´ se pueden utilizar las llaves {}. Ademas (), tambi en
44
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
> !TRUE [1] FALSE
´ En lo anterior, observe los operadores de comparaci´on logicos (==, !=, >, etc.), ´ los operadores booleanos propiamente dichos (| es el operador as´ı como tambien ´ ´ & es el operador de conjunci´on logica de disyunci´on logica, y ! es el operador de ´ negacion). Las variables en R se denotan mediante identificadores. Un identificador v´alido en R comienza por una letra (may´uscula o min´uscula), seguido de d´ıgitos y/u otras letras. Los caracteres . y tambi´en se pueden usar (nunca al comienzo del identificador) y son utiles ´ para indicar separaciones entre palabras o elementos del identificador. Las variables pueden ser asignadas a constantes (literales) o a otras variables mediante el operador de asignaci´on (<-). Observe los ejemplos a continuaci´on: > raiz2 <- sqrt(2) > raiz2 [1] 1.414214 > raiz2ˆ2 [1] 2 > raiz2ˆ2==2 [1] FALSE
El identificador “raiz2” denota una variable a la cual se le ha asignado el valor num´erico de la funci´on sqrt(2). Observe que a´un cuando raiz2ˆ2 se visualiza como “2”, no es exactamente igual a 2, debido a errores inherentes en la precisi´on de la representaci´on num´erica. En todo lo anterior, el lector se habr´a preguntado porqu´e aparece un [1] antes de los resultados que arroja el interprete R. La explicaci´on de esto tiene que ver con una estructura de datos fundamental en R: el vector. Un vector es una lista o arreglo que consta de datos de un mismo tipo (num´erico, l´ogico o cadenas de caracteres). Los vectores en R pueden crecer o decrecer din´amicamente - no hay que alocarlos en memoria de antemano, como ocurre en PASCAL por ejemplo. La ´ R para construir vectores es c(), que coerciona los argumentos al mismo funcion tipo y los concatena:
´ AL LENGUAJE R 2.3. BREVE INTRODUCCI ON
45
> vec <- c("a","b","c",1,2,3) > vec [1] "a" "b" "c" "1" "2" "3" > length(vec) [1] 6 > vec <- c(vec,"c","b","a") > vec [1] "a" "b" "c" "1" "2" "3" "c" "b" "a" > length(vec) [1] 9
Aqu´ı asignamos a la variable vec un vector cuyos tres primeros elementos son cadenas de caracteres y cuyos tres ultimos elementos son n´umeros. Como se ´ ´ intenta concatenar elementos de distintos tipos y los vectores son, por definicion, secuencias de datos del mismo tipo, se convierten todos los datos a cadenas de caracteres. La funci´on length() devuelve la longitud (cantidad de elementos) del vector en su argumento, que en este punto es 6. La segunda llamada a la funci´on c() concatena tres elementos de cadena adicionales al vector vec. Esto ilustra que los argumentos de c() pueden ser tanto vectores como datos elementales. Finalmente, invocamos a la funci´on length(vec) para constatar que ahora vec consta de 9 elementos. Otra manera de generar vectores es mediante secuencias, con el uso de : entre dos numeros ´ enteros, que indican desde donde hasta donde se genera la secuencia o mediante la funci´on seq(from,to,by). Sobre esta ultima, el argumento ´ from indica el n´umero de inicio de la secuencia, el argumento to indica el n´ umero final de la secuencia y el argumento by indica el paso, o incremento de la sucesi´on. Veamos: > 1:100 [1] [15] [29] [43] [57] [71] [85] [99]
1 2 15 16 29 30 43 44 57 58 71 72 85 86 99 100
3 17 31 45 59 73 87
4 18 32 46 60 74 88
5 19 33 47 61 75 89
6 20 34 48 62 76 90
7 21 35 49 63 77 91
8 22 36 50 64 78 92
9 23 37 51 65 79 93
10 24 38 52 66 80 94
11 25 39 53 67 81 95
12 26 40 54 68 82 96
13 27 41 55 69 83 97
14 28 42 56 70 84 98
46
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
> seq(0,1,0.1) [1] 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Este ultimo ´ ejemplo ayuda a dilucidar un poco la pregunta que nos hicimos anteriormente sobre el [1] al comienzo de las expresiones de salida en los primeros ejemplos. El 1 en [1] representa el primer elemento del vector10 . A lo largo de todos estos ejemplos, inclusive aquellas expresiones que generaban un solo dato elemental, el interprete R devuelve vectores al evaluar dichas expresiones, a´ un cuando en los primeros casos, los vectores eran de longitud 1. Seguidamente vamos a dar ejemplos sobre como acceder o referirnos a los elementos individuales de un vector, lo cual se conoce como indexaci´on. La inde´ en R se realiza colocando el o los elementos ´ındices entre los corchetes [] xacion que siguen al identificador del vector: > a <- seq(2,100,2) > a[1] [1] 2 > a[50] [1] 100 > a[80] [1] NA > a[5:9] [1] 10 12 14 16 18 > a[a>22 & a<50] [1] 24 26 28 30 32 34 36 38 40 42 44 46 48
Observamos que el vector a solo tiene 50 elementos, por lo cual al tratar de acceder al elemento numero ´ 80 (a[80]), el interprete devuelve un “NA” como salida, indicando efectivamente que el elemento en referencia no existe (NA significa not available ). La expresi´on que sigue, a[5:9], devuelve todos los elementos de a, desde el quinto al noveno. La ultima ´ expresi´on es m´as interesante e ilustra el poder 10
A diferencia del lenguaje C, donde el primer elemento de un arreglo es aquel cuyo ´ındice es 0, en R el ´ındice del primer elemento es 1.
´ AL LENGUAJE R 2.3. BREVE INTRODUCCI ON
47
de la indexaci´on en R. La expresi´on de indexaci´on entre corchetes puede ser una ´ condici´on logicaentonces el interprete R devuelve todos los elementos del vector que satisfacen dicha condici´on. En este caso, como a es la secuencia de los 50 primeros n´umeros pares positivos, a[a>22 & a<50] ser´ıa todos aquellos numeros ´ pares mayores a 22 y menores a 50. Vamos a ilustrar ahora el uso de estructuras de control mediante otro ejemplo: ´ supongase que queremos calcular los cuadrados de los 10 primeros n´ umeros enteros (del 1 al 10). Una primera forma de hacerlo, que no ser´ıa muy eficiente por cierto, ser´ıa generar la secuencia de los 10 primeros numeros, ´ recorrerla con un while e ir concatenando el cuadrado de cada elemento a otro vector: 1 2 3 4 5 6 7 8 9 10 11 12
# - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - # 2 _ 1. R # s cr ip t p ar a g en er ar e l c ua dr ad o d e l os u ´ n me ro s d el 1 al 1 0 # a u to r : ´ e J os L . R om er o P . # f ec ha : 1 3/ 08 / 2011 # - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - # i n i ci a l iz a m os l as v a ri a bl e s : a e s l a s e cu e nc i a d e u ´ n m e r os d e l # 1 a l 1 0 , b es i ni ci al me nt e u n v ec to r v ac io e i e s e l i nd ic e , # q ue i n ic i a lm e n te a p un t a a l p r im e r e l em e nt o d e a a <- 1:10
b <- NULL i <- 1
19
# r e c or r e mo s e l v e ct o r a e l ev a nd o c a da e l em e nt o a l c u ad r ad o # y c o nc a t en a n do s e lo a l v e ct o r b while ( i < = 10 ) { b <- c ( b , a[ i ]ˆ2) i <- i + 1 } # f i n al m e nt e h a ce m os q u e e l i n te r pr e t e d e vu e lv a e l v e ct o r b :
20
b
13 14 15 16 17 18
[1]
1
4
9
16
25
36
49
64
81 100
El de arriba fue nuestro primer script. Observe que los comentarios se indican colocando el caract´er numeral (#) como primer caract´er - a partir del s´ımbolo numeral, el resto de la l´ınea ser´a considerada como comentario. Es una buena ´ practica colocar comentarios abundantemente. M´as a´un, una buena pr´actica para programar consiste en elaborar el algoritmo en seudoc´odigo, coloc´andolo como comentarios, y luego rellenar el esqueleto del programa con c´odigo verdadero en el lenguaje de programaci´on. El while se sigue de una expresi´on entre par´entesis ´ que indica la condici´on logica que ha de cumplirse para seguir en el bucle. Des´ de la condici´on logica ´ pues entre par´entesis, todo el cuerpo del bucle se indica encerr´andolo entre llaves ... , tal como se hace en C. Aun ´ cuando la indenta-
{
}
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
48
´ 11 del c´odigo no es necesaria en R, es una buena pr´actica indentar el cuerpo cion interno de las estructuras de control. De esta forma, el programador puede visualizar f´acilmente el nivel de anidamiento de un c´odigo dentro de un programa, lo cual a su vez facilita enormemente su depuraci´on. Ya que estamos pontificando sobre las buenas pr´acticas en programaci´on, debemos observar nuevamente que recorrer un vector de longitud conocida mediante ´ a´un, un while no es precisamente lo m´as eficiente - es mejor usar un for. Mas como la variable ´ındice del for asume justamente los valores num´ericos que queremos elevar al cuadrado, no es preciso crear la secuencia a como al principio del script anterior:
8
# - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - # 2 _ 2. R # s cr ip t p ar a g en er ar e l c ua dr ad o d e l os ´ u n me ro s d el 1 a l 1 0 # a u to r : ´ e J os L . R om er o P . # f ec ha : 1 3/ 08 / 2011 # - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - # i n i ci a l iz a m os l as v a ri a bl e s : b e s i n ic i a lm e nt e u n v e ct o r # v ac io , i e s e l i nd ic e d el b uc le f or .
9
b <- NULL
1 2 3 4 5 6 7
15
#elevamos cada u ´ n me ro i a l c ua dr ad o y l o c o nc at e na mo s a l # v e c to r b for ( i in 1 : 10 ) { b <- c( b , i ˆ2 ) } # f i n al m en t e h a ce m os q ue e l i n t er p re t e d e vu e lv a e l v e ct o r b :
16
b
10 11 12 13 14
[1]
1
4
9
16
25
36
49
64
81 100
´ elegante y m´as breve (menos l´ıneas de c´odigo)No solo es el script 2 2.R mas ´ m´as r´apido que el script 2 1.R, aunque la diferencia entre un while es tambien y un for realmente se nota cuando se recorren secuencias mucho m´as largas. El uso del for como estructura de control para iterar en un bucle una cantidad predeterminada de veces es algo est´andar en los lenguajes de programaci´on procedimentales, pero en R, tampoco es lo m´as eficiente (o elegante). Cuando se est´a aprendiendo a programar en R, uno muchas veces lee en foros de ayuda o en manuales sobre la “vectorizaci´on” del c´odigo. En el argot de los programadores de R, vectorizar significa recorrer secuencias o vectores sin usar el for. Una forma de vectorizar es mediante la indexaci´on con expresiones l´ogi11
´ se refiere a la pr actica ´ La i ndentaci on de colocar espacios en blanco al principio de una l ´ınea de ´ codigo.
´ AL LENGUAJE R 2.3. BREVE INTRODUCCI ON
49
cas, como vimos arriba. Otra forma es aplicar una funci´on directamente a trav´es de todos los elementos de un vector, lo cual es posible porque R soporta la programaci´on funcional. De hecho, casi todas las funciones definidas o definibles en R son vectorizables. En nuestro caso, para hallar los cuadrados de los 10 primeros numeros ´ naturales, solo tendr´ıamos que ejecutar lo siguiente:
7
# - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - # 2 _ 3. R # s cr ip t p ar a g en er ar e l c ua dr ad o d e l os u ´ n me ro s d el 1 al 1 0 # a u to r : e ´ J os L . R om er o P . # f ec ha : 1 3/ 08 / 2011 # - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - b <- (1:10)ˆ2
8
b
1 2 3 4 5 6
[1]
1
4
9
16
25
36
49
64
81 100
Se han expuesto los rudimentos del lenguaje R. Aunque todav´ıa hay muchas funcionalidades del lenguaje por ver, estamos en condiciones de abordar un primer problema de simulaci´on.
50
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
´ El juego de Monty Hall 2.4. Dos problemas de simulacion: y el encuentro A modo de ilustrar lo que es una simulaci´on, se comienza con un ejemplo ex´ tra´ıdo de un concurso en un programa de televisi´on britanico que consiste en lo siguiente:
Problema Resuelto 2.1 (El juego de Monty Hall) El concursante se encuentra ante tres puertas entre las cuales debe escoger una. Detr´as de una de las puertas se encuentra un carro y detr´as de cada una de las otras dos un apestoso animal (una cabra). El trato es el siguiente, el animador (que sabe donde se encuentra el carro) abre una puerta obviamente diferente a la que el jugador escogi´o y a la que contiene el carro, revelando una flamante cabra. Luego se le pregunta al concursante si desea abrir otra puerta o mantiene su elecci´on. ¿Que es m´as ventajoso para el concursante? ¿Cu´al es la probabilidad de ganar si el jugador cambia de puerta? ´ “La Respuesta Inesperada” - Oleo sobre tela, 1933 - Ren e´ Magritte
´ Solucion Muchas personas, inclusive matem´aticos, concluyen err´oneamente que no es particularmente m´as ventajoso cambiar de puerta razonando que una vez que el animador abre una de las puertas que no contiene el carro, las probabilidades de ganar o perder son iguales ( 12 ) si se cambia de puerta o no. Sin embargo, un an´alisis cuidadoso de las probabilidades demuestra que la probabilidad de ganar cambiando de puerta es de 23 . Se deja como tarea verificar esto de forma te´orica. En lo que sigue nos interesa m´as bien simular la situaci´on. Para esto debemos especificar lo m´as detalladamente posible la secuencia de pasos en cada juego:
Paso 1 Primero, se esconde (aleatoriamente) el carro detr´as de una de las tres puertas. Paso 2 El jugador selecciona una de las tres puertas (escoge al azar).
´ 2.4. DOS PROBLEMAS DE SIMULACI ON
51
Paso 3 El animador (Monty Hall), sabiendo donde est´a el carro, escoge una puerta que no sea la que opt´o el concursante ni la que contiene el carro y la abre, revelando que hay una cabra detr´as de esa puerta. Si queda una sola puerta elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos puertas elegibles, Monty escoge cualquiera de las dos al azar. ´ queremos determinar la probabilidad de ganar si el Paso 4 Como en la simulacion concursante cambia de puerta, hacemos que el jugador opte una segunda vez por la puerta distinta a la que seleccion´o la primera vez y a la puerta que acaba de abrir Monty.
Paso 5 Si la segunda puerta que escogi´o el concursante al cambiar de puerta en el paso anterior es igual a la puerta detr´as de la cual estaba el carro el concursante gana.
Este ciclo se repite un n´umero N arbitrariamente elevado de veces a fin de determinar la proporci´on de veces que el concursante gana. Seg´un la ley de los grandes n´umeros, si el n´umero de iteraciones es lo bastante elevado, esta propor´ se acercar´a a probabilidad verdadera de 23 . A continuaci´on se indica el c´odigo cion en R para esta simulaci´on junto con el resultado arrojado por la misma, que es de 0.6688, lo cual como se podr´a apreciar, se acerca bastante a 23 . 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
# - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - # 2 _ 4. R # s i mu l ac i o n d e l c o nc u rs o d e M o nt y H a ll # a ut or : J os e L . R om er o P . # f ec ha : 1 0/ 8 / 2007 # - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - cnt <-0 puertas <- c (1,2,3) N <- 10000 for ( i in 1: N) { puerta. premio <- sample( puertas, size=1 , replace= TRUE) puerta1. jugador <- sample( puertas, size=1 , replace= TRUE) otras. puertas
52
24 25
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
cat( " La p ro b ab il i da d d e g an ar e n N = ", N , " e ns ay os d el j ue go e s " , cnt/ N , " . \ n ") La probabilidad de ganar en N=10000 ensayos del juego es 0.6688.
s Vale destacar algunos elementos en el c´odigo precedente:
sample - Esta funci´on se utiliza para generar muestras aleatorias a partir de un espacio muestral (el conjunto se representa como un vector). Mediante los otros argumentos se puede indicar el tama˜no de la muestra, si el muestreo es con o sin reemplazo y el vector de probabilidades de los eventos elementales correspondientes del espacio muestral. ´ de su primer argumento ifelse - Esta funci´on eval´ua la condici´on logica y devuelve la expresi´on del segundo argumento si la condici´on es TRUE o la expresi´on del tercer argumento si la condici´on es FALSE. ifelse es vectorizable, lo cual quiere decir que el primer argumento (la condici´on) puede ser un vector l´ogico. En tal caso, para cada componente l´ogico del vector con´ se devuelve un vector de la misma longitud que el vector condici´on dicion, cuyos componentes correspondientes ser´an el segundo argumento o el tercer argumento seg´un el valor del elemento correspondiente de la condici´on.
setdiff - Esta funci´on considera a los vectores suministrados en sus argumentos como conjuntos, devolviendo la diferencia de conjuntos entre el primer argumento y el segundo. As´ı por ejemplo, si A y B son dos vectores que representan conjuntos, setdiff(A,B) devuelve un vector que representa el conjunto A B = A B.
−
∩
union - Esta funci´on devuelve un vector que representa la uni´on de todos los conjuntos suministrados en sus argumentos.
cat - Es una funci´on que concatena las cadenas en sus argumentos e im´ prime el resultado al terminal. Es una funci´on de E/S basica del R. Otro ejemplo de c´omo determinar probabilidades mediante simulaciones se desarrolla a partir del siguiente problema:
´ 2.4. DOS PROBLEMAS DE SIMULACI ON
53
Problema Resuelto 2.2 (El Encuentro) Dos hombres de negocios deciden encontrarse en alg´ un lugar entre las 12 y la 1 pm, cada uno acordando no esperar m´as de 10 minutos por el otro. ´ es la probabilidad de que se ¿Cual encuentren si cada uno llega independientemente del otro y en cualquier instante aleatorio en el lapso de esa hora?
“El Encuentro” - Litograf´ıa 1944 - M.C. Escher
´ Solucion Para comenzar, denotemos por X e Y el instante de tiempo dentro de una hora a la cual llega cada empresario respectivamente. Seg´ un la ultima ´ parte del enunciado que establece que “cada uno llega independientemente del otro y en cualquier instante aleatorio en el lapso de esa hora”, se desprende que tantoX como Y son variables aleatorias continuas independientes y uniformemente distribuidas entre 0 y 60 (se trabajar´a el problema en base al lapso de 60 minutos). Para que los empresarios se encuentren, la diferencia en valor absoluto de los tiempos de llegada de uno y otro debe ser menor o igual a 10 minutos. Es decir, se quiere calcular 10 . Claramente, esta diferencia en valor absoluto varia entre 0 y 60 P X Y minutos, pero a´un no se ha determinado la distribuci´on de probabilidad de X Y .
{| − | ≤ }
| − |
´ haya podido llegar a este punto de la soluci´on, aunque quiz´as no seQuizas pa como proceder a partir de ah´ı- es precisamente en ayudar a dilucidar este tipo de situaciones en que radica la val´ıa de la simulaci´on. Para el problema en cues´ esta ´ tion, va a consistir b´asicamente en generar una distribuci´on emp´ırica de un numero ´ suficientemente grande de valores X Y basados en n´umeros aleatorios uniformemente distribuidos seg´ un lo expuesto en el an´alisis anterior. Sin m´as ´ preambulos, se da el c´odigo de la simulaci´on en R a continuaci´on:
| − |
1 2 3 4 5 6 7
# - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - # 2 _ 5 . R ( E l e n cu e nt r o ) # a ut or : J os e L . R om er o P . # f ec ha : 1 8/ 08 / 2007 # - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - # n u m er o d e r e p et i ci o n es N <- 1000000 # d et er m in a l a d is t ri bu c io n d e | X - Y| c ua nd o
54
8 9 10 11 12 13 14 15 16 17 18 19 20
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
#
X e Y s on U ni f (0 , 60 ) e i nd ep en di en te s . x <-abs( runif( n = N, min =0 , max =60)- runif( n = N , min=0 , max =60)) png( filename= "encuentro _ r . p n g ") hist( x, br =60, right= FALSE, freq = FALSE, main= " H i s t o g r a ma d e f r e c u e n c i a " , ylab= " d e n is d ad d e p r ob a b il i d ad e m pi r ic a " ) abline( a =(60 / 1800), b = -1 / 1800, col= " r e d ") legend ( x =25, y =0.033, legend = " F u nc i on d e d e ns i da d t e or i ca " , fill=" r e d ") # c u al e s l a p r ob a b il i d ad r e qu e ri d a ? probabilidad <- mean( as. integer( x <=10)) cat( " P r o ba b il i d ad d e q u e l as d os p e rs o na s s e e n cu e n tr e n : " , probabilidad , " \ n ")
Probabilidad de que las dos personas se encuentren:
0.305262
Figura 2.3: Histograma de frecuencias generado por la simulaci´on. La curva roja representa la funci´on de densidad de probabilidad te´orica. ´ ¿Como se realiz´o la simulaci´on y que´ significa la l´ınea roja en el histograma e la Fig. 2.3? En primer lugar, se genero una muestra de N = 1000000 de valo-
´ 2.4. DOS PROBLEMAS DE SIMULACI ON
55
| − |
res X Y aleatorios. Como X e Y son uniformemente distribuidos, las muestras de n´umeros aleatorios uniformemente distribuidos fueron generadas mediante las funciones runif. Seguidamente, se grafic´o el histograma de frecuencias con el ´ hist de R. Esto gener´o el histograma de la Fig. 2.3, pero sin la l´ınea roja metodo aun. ´ Obs´ervese que los rect´angulos son levemente irregulares, pero sus alturas ´ decrecen en forma sorprendentemente regular y lineal. La l´ınea roja, como funcion de densidad te´orica, parece ajustarse bien, por lo menos intuitivamente, a lo observado. En este punto nos damos cuenta que la funci´on de densidad de la variable X Y debe ser un segmento de recta decreciente entre 0 y 60, como la l´ınea roja en el gr´afico. Un an´alisis m´as profundo revela que la funci´on de densidad de probabilidad de X Y esta dada por
| − |
| − |
−
60 d
f | X −Y | (d ) = 2
·
1
60
dt = 2
60
− d
,donde d asume valores entre 0 y 60
1800
0
´ La motivaci´on de dicha formula viene de notar que el evento correspondiente a “la diferencia X Y es exactamente igual a d ” se verifica para X [0, 60 d ], Y = X + d (suponiendo X mayor o igual a Y ), la integral viene a representar la masa de probabilidad total para cada uno de estos casos. El factor de 2 a la izquierda de la integral se debe a que X Y o Y X . Dicha funci´on evidencia ser una funci´on de densidad leg´ıtima pues su integral a trav´es de los valores posibles de d es igual a uno:
| − |
∈
≥
≥
60
0
−
60 − z 60
f | X −Y | ( z)dz =
=
1800
dz
0
z
z2
− 30 3600
60 0
=1
´ se evidencia que el segmento lineal Observando el c´odigo R de la simulacion, rojo trazado sobre el histograma de frecuencias emp´ıricas se corresponde a la fun´ lineal f | X −Y | (d ), a partir de la cual se puede calcular f´acilmente la probabilidad cion deseada:
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON
56
10
{| − Y | ≤ 10} =
P X
=
0
f | X −Y | ( z)dz =
1
1 11 − = = 3 36 36
z
z2
− 30 3600 0, 3055
10 0
Como se puede ver, el resultado de la simulaci´on (0,305262) se corresponde con bastante exactitud al resultado te´orico.
s En este curso se har´a un uso intensivo de simulaciones como estas para apoyar resultados sobre los procesos estoc´asticos deducidos te´oricamente. La discusi´on detallada sobre las t´ecnicas de simulaci´on per se es marginal a los objetivos principales de curso y se cubre en el curso de Simulaci´on y Modelos. Sin embargo, en vista de los objetivos que se persiguen en este curso, es importante puntualizar las siguientes ideas sobre la t´ecnica de simulaci´on, tal como la emplearemos a lo largo del libro: Los programas de simulaci´on sirven para calcular, de modo aproximado, probabilidades, valores esperados o medidas de variabilidad. ´ Siempre ser´a mejor realizar los calculos de probabilidades, valores espe´ rados o medidas de variabilidad por medios anal´ıticos (sin simulacion). Sin embargo, cuando la complejidad de los mismos rebasa la capacidad de nuestras herramientas matem´aticas, simular es la unica forma de determinar tales ´ caracter´ısticas de un fen´omeno aleatorio, aunque solo de forma aproximada. En este libro se hace uso de las simulaciones para fines did´acticos - la simulaci´on apoyar´a o complementar´a ciertos resultados te´oricos deducidos anal´ıticamente. La simulaci´on es esencialmente la repetici´on, siempre bajo id´enticas condiciones y un n´ umero elevado de veces, de un experimento aleatorio. A partir de los resultados se generan estad´ısticas con las cuales se estiman las caracter´ısticas poblacionales del fen´omeno aleatorio bajo estudio. Mientras mayor cantidad de veces se repite el experimento aleatorio en una simulaci´on, m´as exactitud se tendr´a en los c´alculos de las probabilidades o valores esperados.
2.5. PROBLEMAS PROPUESTOS
57
La simulaci´on de un experimento aleatorio en el computador requiere generar numeros ´ aleatorios. Para ello, R tiene funciones como sample y la familia de funciones r*, donde el asterisco denota alguna distribuci´on (rexp genera n´umeros aleatorios exponencialmente distribuidos, runif numeros ´ uniformemente distribuidos, rpois numeros ´ aleatorios distribuidos seg´un Poisson, rnorm numeros ´ aleatorios normalmente distribuidos, etc.). Estas funciones son vectorizables.
Es importante seguir con detenimiento la exposici´on de cada uno de los ejemplos de implementaci´on de simulaciones y tratar de compaginar esto con el desarrollo te´orico de cada problema. As´ı mismo, se invita al lector a dilucidar cualquier otro aspecto te´orico de la teor´ıa de la probabilidad y de los procesos estoc´asticos por si mismo implementando simulaciones.
2.5.
Problemas propuestos
1. ¿Qu´e es simulaci´on, en qu´e consiste y para qu´e sirve? 2. ¿Porqu´e es mejor calcular probabilidades o valores esperados por medios anal´ıticos, siempre y cuando esto sea posible? 3. ¿Porqu´e mejora la precisi´on de los c´alculos en una simulaci´on a medida que aumenta el n´umero de veces que se repite el experimento aleatorio? 4. ¿Qu´e significa “vectorizar” el c´odigo en R? 5. Considere el siguiente script en R que recorre todos los n´umeros del vector vec y suma aquellos n´umeros que sean divisibles por 3: # v e ct o r d e p r ue b a vec <- c ( 2 , 6 , 1 5 , 1 7 , 5 , 9 , 1 8 , 3 , 1 , 7 ) suma <- 0 for ( i in 1: length( vec )) { if ( vec[ i ] % %3==0) suma <- suma+ vec[ i] }
suma [1] 51
´ ¿Como vectorizar´ıa este c´odigo? 6. En una simulaci´on, ¿para qu´e se quiere optimizar el tiempo de ejecuci´on de los bucles o mejor a´un, vectorizar el c´odigo?
58
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON 7. Respecto al problema propuesto N° 7, calcule mediante una simulaci´on en R las probabilidades de ganar apostando a que por lo menos un seis salga en 4 lanzamientos de un dado y de ganar apostando a que por lo menos un doble seis sale en 24 lanzamientos de dos dados. 8. Cuatro caballos, Pedro poco dientes , Tres pelos , El burro Machey y Mi potro siniestro han corrido juntos en el Cl´asico de M´ucura muchas veces. A conti´ se dan las frecuencias relativas con las que cada caballo ha ganado nuacion la carrera: Caballo
Frecuencia con la que ha ganado
Pedro poco dientes Tres pelos El burro Machey Mi potro Siniestro
0,40 0,10 0,30 0,20
Elabore un script en R que simule el resultado para n carreras de caballos con estos cuatro ejemplares. 9. Dos bolas id´enticas se distribuyen de manera aleatoria en tres urnas numeradas. Este experimento aleatorio tiene 6 resultados posibles, representados mediante vectores de tres componentes que indican la cantidad de bolas en cada urna. Los resultados y sus respectivas probabilidades son: Resultado (2,0,0) (0,1,1) (1,1,0) (0,2,0) (1,0,1) (0,0,2)
Probabilidad 1/9 2/9 2/9 1/9 2/9 1/9
Elabore un programa en R que calcule de forma aproximada la probabilidad de observar el resultado (2,0,0). Dicho programa debe simular el experimento aleatorio descrito un numero N suficientemente grande de veces y estimar dicha probabilidad mediante la proporci´on de veces que se obtiene el resultado (2,0,0) con respecto al n´ umero total de ensayos N . 10. En una partida de raquetball , un jugador contin´ ua sirviendo mientras vaya ganando. Un jugador gana un punto s´olo cuando ha ganado el turno que ha
59
2.5. PROBLEMAS PROPUESTOS
servido y el primero en alcanzar los 21 puntos gana la partida. Si el jugador A comienza la partida sirviendo y tiene una probabilidad de 0,6 de ganar cuando ha servido el turno y de 0,40 cuando no ha servido el turno, calcule, mediante una simulaci´on, la probabilidad de que el jugador A gane la partida. 11. Se efect´ua un curioso duelo con pistolas entre tres personas, cada uno con una determinada probabilidad de acertar el tiro seg´un se indica a continua´ cion: Participante del duelo
Probabilidad de acertar el tiro
A B C
0,3 1 0,5
En este duelo, comienza el participante A, luego le toca el turno a B y por ultimo a C. Comienza la ronda nuevamente en el mismo orden hasta que quede un solo hombre en pi´e, eliminando sucesivamente a aquellos que reciban un tiro. El participante A debe escoger entre dos estrategias al comienzo del duelo: disparar a B o disparar al aire. Si dispara al aire, no elimina a nadie. Toc´andole el turno a B, este elimina a C y cuando le toque el turno a A nuevamente, este tiene una probabilidad de 0,3 de eliminar a B y as´ı ganar el duelo. Si le dispara primero a B, podr´ıa eliminarlo e intercambiar disparos indefinidamente con C hasta eliminarlo. ¿Cu´al es la probabilidad de que A gane el duelo si emplea esta segunda estrategia? ¿Es menor o mayor que la probabilidad de ganar disparando al aire la primera vez? Determine esta probabilidad anal´ıticamente y mediante una simulaci´on en R. 12. Partiendo desde su casa en el v´ertice O, una persona decide visitar a sus amigos, ubicados en los v´ertices A, B, C y D del siguiente grafo:
t
A
t
B
d d d O d d d d
t
C
t
t
D
60
´ A LA SIMULACI ON ´ Y AL R UNIDAD 2. INTRODUCCI ON Al salir de su casa, escoge al azar uno de los cuatro caminos que conducen a la casa de alg´un amigo. Desde all´ı, escoge al azar uno de los tres caminos, que lo llevan a la casa de otro amigo o de vuelta al v´ertice O12 . El tour continua hasta que regresa de nuevo a su casa en el v´ertice O. Escriba un script en R para calcular, por medio de una simulaci´on, el promedio de la cantidad de amigos que se visitan antes de regresar a casa.
12
Suponga que sus amigos nunca se cansan de recibir sus visitas.
Unidad 3
´ a los procesos Introduccion ´ estocasticos. Terminolog´ıa y nociones preeliminares Pregunta en un foro del Guardian Weekly : ´ es la probabilidad de que un chim“¿Cual ´ ´ pance con una m aquina de escribir y con disponibilidad de tiempo infinita escriba las obras com´ pletas de Shakespeare, convirti endose en una es´ pecie de Shakespeare estoc astico?” Respuesta de un lector: “He tenido problemas anteriormente con esos si´ mios estocasticos. Tan pronto aprenden a escribir un ensayo de 12 l´ıneas, como ’Qu e´ hice durante las vacaciones de verano’, piensan que tienen un don de Dios para la literatura y antes de que pueda decir ’To be or not to be’, se marchan para Hollywood a conseguir trabajo como guionistas, donde sobran personas que les brinden daiquiris ´ de un tiempo se aburren y de banana. Despu es buscan trabajo como actores en peliculas de Tarzan. A partir de ah´ı comienza el declive...” T EPUY I 2008 Ini Toledo
61
62
´ A LOS PROCESOS ESTOC ASTICOS ´ UNIDAD 3. INTRODUCCI ON
Objetivos de la Unidad El objetivo general de esta Unidad es definir los conceptos b´asicos referentes a ´ los procesos estoc´asticos, as´ı como algunas de sus caracter´ısticas. Al termino de la misma, se quiere que el estudiante logre los siguientes objetivos espec´ıficos: Definir los procesos estoc´asticos y caracterizarlos seg´ un su espacio de estados y espacio de par´ametros. Definir las funciones de probabilidad condicional y las esperanzas condicionales, as´ı como manejar sus propiedades y aplicarlas en la resoluci´on de problemas y demostraciones matem´aticas. Definir e identificar los distintos tipos de procesos estoc´asticos.
´ y ejemplos de procesos estoc asticos. ´ 3.1. Definicion Los procesos estoc´asticos son b´asicamente fen´omenos cuyo comportamiento se desarrolla en el tiempo y se rige por las leyes de las probabilidades1 . Ejemplos de tales fen´omenos son: el movimiento browniano de una part´ıcula, el crecimiento de una poblaci´on tal como una colonia bacterial, el tama˜no de una cola en una ´ cliente/servidor, la recepci´on de una se˜nal en presencia de ruido o perturestacion baciones, los precios de un bien en un lapso de tiempo, las fluctuaciones de fortuna en un juego de azar, etc. Existen caracterizaciones de procesos estoc´asticos cuya variable no es el tiempo, sino la ubicaci´on espacial. Ejemplos de estos procesos ´ estocasticos espaciales son la distribuci´on geogr´afica de especies de plantas o animales y es estudio de epidemias, donde el contagio de una enfermedad en un sitio depende de su proximidad con otros sitios infectados. El inter´es principal de este curso es m´as bien sobre los procesos estoc´asticos temporales y no sobre los 1
´ La palabra “estoc asticos” es de origen griego, proviene de “Stokhos”, que significa objetivo, o ´ es h abil ´ blanco en el juego de dardos. “Stokhastikos” como adjetivo, alude a apuntar bien, a qui en ´ ´ ´ para conjeturar. El adjetivo “estoc astico” fue incorporado al l exico matematico en 1953- no est a´ del ´ pertinente a “aleatorio” usada hoy en d ´ıa. Rebolledo (2002), p. todo claro como adquiri o´ la acepci on 5
´ Y EJEMPLOS DE PROCESOS ESTOC ASTICOS. ´ 3.1. DEFINICI ON
63
espaciales. Otro concepto relacionado es el de series cronol´ogicas. Estas se refieren a las observaciones o realizaciones en el tiempo de un proceso estoc´astico impl´ıcito y son objeto de estudio para los economistas principalmente. Habiendo hecho la suposici´on que una serie cronol´ogica (correspondiente a los precios de una acci´on en la bolsa de valores, por ejemplo) es una realizaci´on de un proceso estoc´astico, los investigadores tratan de inferir estad´ısticamente a par tir de las observaciones, las leyes que gobiernan el proceso a fin de predecir ciclos o valores futuros. Para efectos matem´aticos, un proceso estoc´astico es una sucesi´on de variables aleatorias, cada una de las cuales describe el estado del sistema en un instante de tiempo dado. Esta definici´on es adecuada porque abarca los siguientes aspectos: 1) el estado del sistema en un tiempo determinado es variable, y su variabilidad se debe a mecanismos aleatorios, 2) la variable aleatoria del estado del sistema es ´ est´a deteruna funci´on que depende del tiempo y en consecuencia, su distribucion minada por el instante de tiempo que se considere, 3) si se consideran los estados de un sistema en distintos instantes de tiempo conjuntamente, se puede conceptuar un proceso estoc´astico como un vector aleatorio n-dimensional. Resumiendo: ´ ´ o con- ´ (Proceso estoc´astico). Un proceso estoc astico es una sucesi on Definicion junto de variables aleatorias X (t ) t T definidas sobre un espacio de probabi- lidad comun ´ (Ω, ℑ, P).
{
|∈ }
En esta definici´on, t es el par´ametro de tiempo, el cu´al toma valores en un conjunto T denominado conjunto ´ındice. Seg´un sea T un conjunto numerable o no, el proceso estoc´astico ser´a de par´ametro discreto o continuo respectivamente. Usualmente, el valor ´ınfimo de T es 0, pues se analizar´an los procesos estoc´asticos a partir de un instante de tiempo 0. Los procesos estoc´asticos de par´ametro discreto se denotan por X i i = 0, 1, 2 . . . . Las variables aleatorias X (t ) toman valores en un espacio medible llamado espacio de estados (state-space en ingles). Si se tiene un proceso estoc´astico y se fija alg´un ω Ω la funci´on t X t (ω) se llama trayectoria del proceso estoc´astico X . Para aclarar un poco estos conceptos, consid´erese el siguiente ejemplo: se cuenta el n´umero de personas que entran a un banco entre las 9 y 10 am. Definimos el conjunto ´ındice como el conjunto de todos los posibles instantes de tiempo entre las 9 y 10am el proceso estoc´astico es por lo tanto de par´ametro continuo. Considerando que estamos interesados en la cantidad de personas que han entrado en cierto instante de tiempo, definir´ıamos el espacio de estados como el conjunto de todos los valores enteros no negativos. Por ultimo, si consideramos una realizaci´on del proceso estoc´astico antes descri´ to para un d´ıa espec´ıfico, digamos el 29 de agosto de este a˜no, tendr´ıamos una
{ |
}
∈
→
64
´ A LOS PROCESOS ESTOC ASTICOS ´ UNIDAD 3. INTRODUCCI ON
trayectoria del proceso.
Dado un conjunto finito de n ´ındices en T t 1 , . . . , t n , X (t 1 ), . . . , X (t n ) es un vector aleatorio n-dimensional que genera la funci´on de distribuci´on en Rn dada a continuaci´on:
{
F t 1 ,...,t n x1 , . . . , xn = P X (t 1 )
{
}
≤ x , . . . , X (t ) ≤ x } 1
n
n
Tales funciones de distribuci´on se conocen como las funciones de distribuci´on finito-dimensionales del proceso estoc´astico y generalmente, un proceso estoc´astico se determina conociendo todas sus funciones de distribuci´on finito dimensionales, aunque esto no es siempre cierto, como se evidencia en el siguiente contraejemplo. Sea Ω = [0, 1] y P la distribuci´on uniforme en [0, 1], de modo que el experimento ´ basico consiste en escoger un n´ umero al azar en [0, 1]. Sobre este espacio de probabilidades se definen dos procesos:
{ ∈ [0, 1]} definido por X (t , ω) = 0 para todo t ,ω. =ω 0 si t b. {Y (t ), t ∈ [0, 1]} definido por X (t , ω) = 1 si t = ω
a. X (t ), t
Y (t ) se puede considerar como un proceso que da un salto discontinuo en un instante de tiempo aleatorio marcando la ocurrencia de alg´un evento en ese instante, tal como por ejemplo una explosi´on. Se puede ver intuitivamente que ambos procesos X e Y tienen las mismas funciones de distribuci´on finito dimensionales y sin embargo, no son el mismo proceso. ´ En la practica, es muy dif´ıcil, sino imposible, obtener las funciones finito- dimensionales para todo conjunto de ´ındices (t 1 ,. . .,t n ) y todo n, por lo cual se definen las funciones de distribuci´on de primer y segundo orden. La funci´on de distribuci´on de primer orden se corresponde a la distribuci´on de la variable aleatoria en un tiempo determinado:
F t 0 ( x) = P X (t 0 )
{
≤ x}
Si estamos interesados en relacionar el comportamiento de un proceso es´ tocastico en dos instantes de tiempo utilizamos la funci´on de distribuci´on de segundo orden:
65
3.2. PROBABILIAD Y ESPERANZA CONDICIONAL
F t 1 ,t 2 ( x1 , x2 ) = P X (t 1 )
{
≤ x , X (t ) ≤ x } 1
2
2
3.2. Probabilidad y esperanza condicional. Definiciones y propiedades. Las nociones de probabilidad y esperanza condicional juegan un papel importante dentro del estudio de los procesos estoc´asticos. Seguramente el lector esta familiarizado con las nociones de probabilidad condicional relativas a eventos y de algunos resultados consecuentes como el teorema de la probabilidad total y el teorema de Bayes- estas nociones generalmente se exponen en las primeras partes de cualquier curso elemental de probabilidades. Repasando, la probabilidad condi- cional de que ocurra un evento A conociendo la ocurrencia de un evento B es:
P ( A B) =
|
P ( A B) P ( B)
la cual tiene sentido si la probabilidad de B es no-nula. Esta noci´on se puede extender al condicionamiento de una variable Y por otra variable X si X e Y son discretas.
P (Y = yn X = xm ) =
|
P Y = yn X = xm
{
∩
P X = xm
{
}
} = p , ( x
m , yn )
X Y
(3.2.1)
p X ( xm )
donde p X ,Y es la funci´on de probabilidad conjunta del par aleatorio ( X , Y ). La variable aleatoria discreta que tiene tal funci´on de probabilidad se denota por Y X = xm . Se recalca que Y X = xm es una variable aleatoria que asume valores yn con las probabilidades condicionales indicadas arriba. Adem´as, si X e Y son independientes, Y X = xm e Y tienen la misma distribuci´on. Siendo Y X = xm una variable aleatoria, tiene su esperanza matem´atica asociada, que es:
|
|
|
|
E [Y X = xm ] =
|
∑
y P (Y = y X = xm )
sobre y
y que esta´ definida para p X ( xm ) no nulo.
·
|
66
´ A LOS PROCESOS ESTOC ASTICOS ´ UNIDAD 3. INTRODUCCI ON
A medida que xm varia a trav´es del espacio de probabilidad inducido por X , la esperanza anterior asume los valores correspondientes por lo cual se puede ´ considerar esta como una funci´on dependiente de las instancias particulares de X:
f (α) = E [Y X = α] =
|
∑
y P (Y = y X = α)
·
sobre y
|
(3.2.2)
La expresi´on (3.2.2) se lee “esperanza condicional de Y dado que X vale α”. Como α representa los posibles valores que toma la variable aleatoria X , se tiene que f ( X ) es una variable aleatoria tambi´en. f ( X ), mejor denotada por E [Y X ] , es de hecho la esperanza condicional de la variable aleatoria Y condicionada por X . Se enfatiza que E [Y X ] es una variable aleatoria, lo cual le puede parecer a primera vista extra˜no al lector si est´a acostumbrado a considerar el valor esperado como una caracter´ıstica num´erica fija de la distribuci´on. No obstante, para que esta ´ nos sea de utilidad en el estudio de los procesos estoc´asticos, debemos definicion generalizarla a´ un m´as:
|
|
´ (Esperanza condicional de Y dadas X 1 , . . . , X n ). Sean X 1 , . . . , X n varia- Definicion bles aleatorias que toman valores en un conjunto E y sea Y otra variable aleatoria. ´ X 1 , . . . , X n es: La esperanza condicional de Y dada la sucesi on
E [Y X 1 , . . . , X n ] = f ( X 1 , . . . , X n )
|
donde f esta definida para cualquier vector (α1 , . . . , αn ), con αi
∈ E por
f (α1 , . . . , αn ) = E [Y X 1 = α1 , . . . , X n = αn ]
=
∑
|
y P(Y = y X 1 = α1 , . . . , X n = αn )
sobre y
·
|
Esta definici´on de esperanza condicional se puede extender al caso de condi´ de dencionamiento por variables aleatorias continuas si consideramos la funcion sidad de probabilidad condicional en vez de la funci´on de probabilidad dada en la ´ (3.2.1). En efecto ecuacion
f Y | X 1 ,..., X n ( y x1 , . . . , xn ) =
|
f X 1 ,..., X n ,Y ( x1 , . . . , xn , y) f X 1 ,..., X n ( x1 ,..., xn )
(3.2.3)
La consecuente redefinici´on de la esperanza condicional para el caso de las X 1 , . . . , X n continuas es dada a partir de
67
3.2. PROBABILIAD Y ESPERANZA CONDICIONAL
g(α1 , . . . , αn ) = E [Y X 1 = α1 , . . . , X n = αn ] =
|
y f ( y α1 , . . . , αn ) dy (3.2.4)
sobre y
· |
La esperanza condicional comparte muchas de las propiedades de la esperanza matem´atica que se trata en los cursos elementales de probabilidad, tales como:
Propiedad 1 (Linealidad del operador esperanza)
E [c1Y 1 + . . . + cnY n X 1 , . . . , X m ] =c1 E [Y 1 X 1 , . . . , X m ]
|
|
+ . . . + cn E [Y n X 1 , . . . , X m ]
|
Propiedad 2 Si Y puede escribirse como funci´on de X 1 , . . . , X n , es decir Y = f ( X 1 , . . . , X n ), entonces E [Y X 1 , . . . , X n ] = Y
|
Propiedad 3 Como E [Y X 1 , . . . , X n ] es una variable aleatoria, esta tiene esperanza y es E E [Y X 1 , . . . , X n ] = E [Y ]
|
|
Propiedad 4 Para n, m
≥ 1 se tiene E [ E [Y | X , . . . , X + ] | X , . . . , X ] = E [Y | X , . . . , X ] 1
n m
1
n
1
n
Propiedad 5 Sean X 1 , . . . , X n y Y 1 , . . . , Y m dos conjuntos de variables aleatorias tales que si se conoce los valores de uno se puede determinar los valores del otro, entonces, para cualquier Y se tiene E [Y X 1 , . . . , X n ] = E [Y Y 1 , . . . , Y m ].
|
|
Propiedad 6 Si X e Y son independientes, entonces E [ X Y ] = E [ X ] y E [Y X ] = E [Y ], casi siempre.
|
|
Los conceptos de probabilidad y esperanza condicional son imprescindibles para caracterizar los diversos tipos de procesos aleatorios- es a trav´es de las probabilidades y la esperanza condicional que se definen las relaciones de dependencia (o de independencia) entre los estados de un proceso aleatorio en distintos instantes de tiempo. Adem´as, la esperanza condicional y las probabilidades condicionales
´ A LOS PROCESOS ESTOC ASTICOS ´ UNIDAD 3. INTRODUCCI ON
68
permiten abordar problemas como el que se enuncia a continuaci´on:
´ de Bagdad) Problema Resuelto 3.1 (El Ladron El Ladr´on de Bagdad se encuentra en un calabozo con tres puertas. Una de las puertas conduce a un tunel ´ que luego de un d´ıa de camino regresa al mismo punto de partida. Otra de las puertas conduce a un t´unel similar al anterior cuya traves´ıa toma tres d´ıas. La tercera puerta conduce a la libertad. Asumiendo que el Ladr´on escoge cualquiera de las tres puertas aleatoriamente con igual probabilidad y que cada vez que va a escoger una puerta se le ha olvidado las escogencias pasadas 2 , encuentre la cantidad de d´ıas en promedio que el ladr´on pasar´a encerrado en el calabozo desde el momento en que primero escoge entre las tres puertas hasta que haya escogido la puerta que lo lleva a la libertad.
´ Solucion Cada vez que el Ladr´on de Bagdad escoge una de las tres puertas constituye un ´ ´ ensayo de Bernoulli con 1/3 probabilidad de exito, entendiendo por exito abrir la puerta que conduce a la libertad. Un primer abordaje del problema nos motiva a considerar el n´umero de ensayos N que realiza el ladr´on antes de conseguir su libertad, lo cual ser´ıa una variable aleatoria geom´etricamente distribuida. Pero aclarando que N representa el n´ umero de ensayos fallidos antes de escoger la puerta hacia la libertad, por lo cual su funci´on de probabilidad y su valor esperado son los que se dan a continuaci´on:
p N (n) = pqn ∞
E [ N ] =
n
∑ npq
n=0
= pq
∞
= p ∑ nq n=1
1
(1
n
2
− q)
=
q p
para n = 0, 1, 2, . . . ∞
= pq ∑ nq − n=1
n 1
∞
= pq ∑ nq − n=0
1
2
3
3
= 2 , ya que p = , q =
n 1
1 ∂ = pq ∂q 1 q
·
−
La variable geom´etrica difiere un poco de la indicada en la tabla 1.1 porque 2
´ desmemoriado y adem as, ´ tampoco tiene GPS ni mucho menos GoogleMaps. Es un ladr on
69
3.2. PROBABILIAD Y ESPERANZA CONDICIONAL
en este contexto, la variable aleatoria de inter´es es el n´umero de ensayos fallidos ´ antes de conseguir el primer exito. En cambio en la tabla 1.1, se plantea la variable ´ geometrica como el numero ´ total de ensayos efectuados hasta conseguir el primer ´ exito. En aquellos ensayos fallidos, el ladr´on escoge una puer ta que adiciona 1 d´ıa de permanencia en el calabozo u otra puerta que adiciona 3 d´ıas de permanencia en el calabozo. Por lo tanto la variable de inter´es es
S n = X 1 + . . . + X N Donde N es la variable aleatoria geom´etricamente distribuida que se menciono´ anteriormente y los X i son cada uno variables aleatorias independientes semejantes a las de tipo Bernoulli con
P X i = 1 = P X i = 3 =
{
}
{
}
1 2
´ En terminos de esperanzas condicionales, estamos interesados en encontrar E E [S n N ] = E E [ X i + . . . + X n N ] . Habida cuenta que E [S n N ] es una variable aleatoria, que los X i son variables aleatorias independientes con igual esperanza y que a su vez son independientes de N , se tiene que:
|
|
|
|
E E [S n N ] = E E [ X 1 + . . . + X n N ] = E [ N ] E [ X i ] =
=2 2= 4
·
||
·
q p
· · 1
1 2
+3
· 1 2
La cantidad esperada de d´ıas que el Ladr´on de Bagdad permanecer´a en el calabozo antes de salir libre es de cuatro d´ıas. Veamos si la simulaci´on confirma el resultado hallado anal´ıticamente: 1 2 3 4 5 6
# - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - # 3 _ 1 . R : S i mu l a ci o n d el p r ob l em a d e l L a d r on d e B a gd a d # a ut or : J os e L . R om er o P . # f ec ha : 2 3/ 08 / 2007 # - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - -- - - - - - - - - - - - - -- - - - - - - - - - - - N <- 100000
7 8 9 10 11
# e l s i gu i en t e c o di g o g e ne r a u n v e ct o r d e l o ng i tu d N # c on l a c an ti da d d e d ia s q ue e l l ad ro n p as a e n l a c ue va # p or c a da c i cl o d e s i mu l ac i o n
x <- NULL
´ A LOS PROCESOS ESTOC ASTICOS ´ UNIDAD 3. INTRODUCCI ON
70
12 13 14 15 16 17
for ( i in 1: N ) { total. dias <- 0 dia. i <- sample( c (0,1,3),1, replace= TRUE) while ( dia. i!= 0) { total. dias <- total. dias+ dia. i dia. i <- sample( c (0,1,3),1, replace= TRUE)
18
}
19
x<-c( x , total. dias)
20
}
21 22 23 24 25 26 27 28 29
# e l s i g ui e nt e c o di g o e s e q u iv a le n t e a l a n te r io r , o b s er v an d o q ue # l a c a nt i da d d e e n sa y os d e p u er t as e s u n a v a ri a bl e a l ea t or i a # g e o me t ri c a c on p r o ba b i li d ad d e e x it o i g ua l a 1 / 3 . L a c a nt i da d # d e d i as q ue s e a d i ci on a n e n c ad a e ns ay o n o e x i to so e n 1 o 3 , # c o n i g ua l p r o ba b il i d ad p a ra a m bo s v a lo r es .
x <- NULL for ( i in 1: N ) { x<-c( x, sum ( sample( c (1,3), rgeom (1 , p =1 / 3) , replace= TRUE )) )
30
}
31
cat(" C an ti da d e sp er ad a d e d ia s e n e l c al ab oz o : " , mean( x ))
Cantidad esperada de dias en el calabozo:
4.012
s ´ de los procesos aleatorios: valor me3.3. Caracterizacion dio y n´ucleo de covarianza. Para caracterizar completamente un proceso estoc´astico se requiere conocer sus funciones de distribuci´on finito-dimensionales. Sin embargo, existen caracter´ısticas de los procesos aleatorios que resumen, por lo menos parcialmente, su comportamiento. En el caso de la variable aleatoria que estudiamos en los cursos de probabilidades, la esperanza y la varianza juegan este papel. De forma an´aloga, para los procesos estoc´asticos se tiene la funci´on de valor medio y el n´ucleo de covarianza.
´ 3.3. VALOR MEDIO Y N UCLEO DE COVARIANZA
71
´ de valor medio). Sea X (t ), t T un proceso estoc astico. ´ ´ (Funcion Definicion ´ de valor medio se denota por m x (t) y se define por: Su funci on
{
∈ }
m x (t ) = E [ X (t )] =
x f x(t ) ( x)dx
Ω
´ de densidad de primer orden del proceso. Es de donde f x(t ) ( x) es la funci on ´ determinista, dependiente a lo sumo del instante notar que m x (t ) es una funci on de tiempo t. ´ ´ (Nucleo de covarianza). Sea X (t ), t T un proceso estoc astico Definicion ´ con segundo momento finito. Su n ucleo de covarianza, denotado por K (s, t ), se ´ define como:
{
K (s, t ) = Cov[ X (s), X (t )] = E [( X (s)
∈ }
− m (s))( X (t ) − m (t ))] x
x
Muchos procesos surgen como funci´on de un n´umero finito de variables aleatorias. Por ejemplo, sup´ongase que X(t) representa la posici´on de una part´ıcula en movimiento rectil´ıneo no acelerado con velocidad constante. X (t ) se define en ´ de una posici´on inicial X 0 y una velocidad V de la siguiente forma: funcion
X (t ) = X 0 + V t
·
Si X 0 y V son variables aleatorias, X (t ) es en efecto un proceso estoc´astico. Su funci´on de valor medio y su nucleo ´ de covarianza se calculan a continuaci´on:
m x (t ) = E [ X (t )] = E [ X 0 + V t ] = E [ X 0 ] + t E [V ]
·
·
K (s, t ) = Cov[ X (s), X (t )] = E [( X (s)
− m (s))( X (t ) − m (t ))] = E [( X + sV − E [ X ] − sE [V ])( X + tV − E [ X ] − tE [V ])] = E [( X − E [ X ]) + (s + t ) · ( X − E [ X ])(V − E [V ]) + st (V − E [V ]) ] = V [ X ] + (s + t )Cov[ X , V ] + st · V [V ] 0 0
0
x
0
0
x
0
2
0
0
0
2
0
Observamos que para calcular la funci´on de valor medio y el n´ucleo de covarianza no se requiere conocer la ley de probabilidad conjunta de X 0 y V , basta con conocer los valores esperados, las varianzas y la covarianza de X 0 y V . Mediante este ejemplo tomado de la f´ısica se aclaran a´un m´as las ideas expuestas hasta