NOTAS PARA EL CURSO DE INTRODUCCION ´ A LOS PROCESOS ESTOCASTICOS. 2o. SEMESTRE DE 2003. Mario Wschebor E mail:
[email protected] February 27, 2004
1
MARTINGALAS CON TIEMPO DISCRETO.
1.1
Esperanzas condicionales
Definici´ on. (Ω, A, P ) espacio de probabilidad X : Ω → R variable aleatoria, X ∈ L1 . F sub-σ-algebra de A. Se define, para cada A ∈ F, µ(A) = E (X.1A ) µ es una medida finita signada sobre F, absolutamente continua con respecto a P/F. Por la tanto, existe la derivada (de Radon-Nykodim) de µ con dµ . respecto a P/F, que denotamos dP Se define la ”esperanza condicional de la variable aleatoria X dada la σ-´algebra F”: dµ E (X/F) = . dP es decir que E (X/F) es la u ´nica funci´on (m´odulo la probabilidad P ) de Ω → R tal que 1. E (X/F) es F-medible, 2.
Z
Z X dP =
A
E (X/F) dP A
1
∀A∈F
Propiedades de las esperanzas condicionales. 1. X
E (X/F) es lineal y mon´otona.
2. Si F = {φ, Ω}, entonces E (X/F) = E(X) c.s. [notar que E [E (X/F)] = E(X)]. 3. M´as en general, si F ⊂ G son sub σ-´algebras de A, se verifica que c.s. E (X/F) = E [E (X/G) /F] 4. Xn ≥ 0, Xn ↑ X c.s. =⇒ E (Xn /F) ↑ E (X/F) c.s. 5. Si X es F-medible y XY ∈ L1 , entonces E (XY /F) = XE (Y /F)
c.s.
Para probar esto, hacerlo primero cuando Y ≥ 0, X = 1B , b ∈ F. Luego extender. 6. X independiente de F (i.e. las variables aleatorias X y 1A son independientes ∀ A ∈ F ) =⇒ E (X/F) = E(X). 7. (caso finito) Sea {A1 , ..., Am } una partici´ S on medible de Ω (es decir que A1 , ..., Am ∈ A, son 2 a 2 disjuntos y j=m j=1 Aj = Ω). Suponemos que P (Aj ) > 0, j = 1, ..., m y denotamos F = σ (A1 , ..., Am ) = m´ınima σ-´algebra de partes de Ω que contiene a los conjuntos A1 , ..., Am = familia de todas las posibles uniones de los conjuntos dados A1 , ..., Am . Sea X : Ω → R una variable aleatoria que toma un n´ umero finito de valores, {x1 , ...., xn }. Entonces, E (X/F) (ω) =
n X
xk .P (X = xk /Aj )
k=1
donde si P (F ) > 0, P (E/F ) =
P (E∩F ) P (F ) .
2
∀ω ∈ Aj
(1)
Es decir que sobre cada conjunto Aj , E (X/F) es constante y asume el valor indicado; es claro que esa funci´on es .F-medible. De modo que para probar (1) hay que probar que Z X dP = A
Z X m A j=1
1Aj
n X
xk .P (X = xk /Aj ) dP
∀ A ∈ F.
k=1
Basta hacerlo para A = Aj . Es inmediato. En particular, si Y es una nueva variable aleatoria que toma un n´ umero finito de valores (2 a 2 6=) y1 , ..., ym y Aj = {Y = yj }, usaremos la notaci´on n X E(X/Y = yj ) = xk .P (X = xk /Y = yj ) k=1
donde el primer miembro se debe interpretar como E (X/F) (ω) con Y (ω) = yj . Observaciones. • Si en lugar de una partici´on finita consideramos una partici´on numerable de Ω, todo lo anterior vale sin cambios significativos. • Heur´ısticamente, el significado de E(X/Y = yj ) es el del valor esperado de la variable aleatoria X, ”cuando sabemos ocurri´o el evento de que la variable aleatoria Y toma el valor yj ”, es decir, el valor esperado de una variable aleatoria que toma los mismos valores posibles que X, o sea x1 , ...., xn , pero no con las probabilidades originales (que son P (X = xk ) , k = 1, ..., n) sino con las probabilidades condicionales P (X = xk /Y = yj ). Claro que esto es posible si P (Y = yj ) > 0, aplicando la definici´on elemental de probabilidad condicional. En cambio, si la variable aleatoria Y no es discreta (es decir, si la distribuci´on de Y no es puramente at´omica) tenemos dificultades, porque el evento {Y = yj } que figura como condici´on, puede tener probabilidad nula. Podr´ıamos tratar de aproximar ese evento por eventos ”pr´oximos” con probabilidad peque˜ na, escribir la probabilidad condicional como cociente y luego pasar al l´ımite; ´esta es la idea de derivar la probabilidad, aunque la forma rigurosa de hacerlo en el caso general es mediante el teorema de ´ Radon-Nykodim. Este es el motivo de la definici´on formal de esperanza condicional que dimos al principio. 3
8. (pareja de variables aleatorias con densidad conjunta) Consideremos como espacion de probabilidad el espacio producto E1 × E2 , donde E1 ' R, E2 ' R, y una medida P sobre la σ-´algebra de Borel, absolutamente continua con respecto a la medida de Borel, con densidad f (x, y). Denotamos mediante X, Y las variables aleatorias coordenadas (es decir, X(x, y) = x, Y (x, y) = y), que son variables aleatorias a valores reales, cuyas distribuciones de probabilidad tienen densidades respectivas Z +∞ Z +∞ pX (x) = f (x, y)dy, pY (y) = f (x, y)dx −∞
−∞
(las ”densidades marginales”). Sea F la sub σ-´algebra de la σ-´algebra de Borel de E1 ×E2 engendrada por todos los conjuntos de la forma E1 × B, donde B es un Boreliano en E2 . Observar que una funci´on definida en E1 × E2 , medible con respecto a F, es s´olo funci´on de la segunda coordenada y. Eso ocurre, por lo tanto con E (X/F) y tenemos derecho a escribir ϕ(y) = E (X/F) (x, y). Entonces, para cada pareja de reales y1 , y2 , y1 < y2 : E X1[y1 ,y2 ] (Y ) = E E (X/F) 1[y1 ,y2 ] (Y )
(2)
usando 2. y 4. ut supra (observar que la variable aleatoria 1[y1 ,y2 ] (Y ) es F-medible). Reemplazando en ambos miembros de (2), se tiene la igualdad: Z +∞ Z y2 Z +∞ Z y2 dx x.f (x, y)dy = dx ϕ(y).f (x, y)dy −∞
−∞
y1
y1
que implica (Teorema de Fubini mediante): Z +∞ Z +∞ 1 ϕ(y) = x.f (x, y)dx = x.f (x/y)dx pY (y) −∞ −∞
con
f (x/y) =
f (x, y) pY (y)
donde la igualdad vale m´ odulo PY , la distribuci´on de probabilidad de Y. f (x/y) es la ”densidad condicional de X dado que Y = y”. 4
9. (desigualdad de Jensen para esperanzas condicionales) Sean Φ : R1 → R1 convexa, X una variable aleatoria en L1 y tal que Y = Φ ◦ X ∈ L1 . Entonces Φ [E (X/F)] ≤ E (Φ (X) /F)
c.s.
(3)
Para probar (3), como Φ es convexa, para cada x ∈ R podemos encontrar λ(x) (coeficiente angular de una recta de apoyo al gr´afico de Φ en x), de modo que Φ(y) ≥ Φ(x) + λ(x)(y − x) ∀ y ∈ R
(4)
M´as a´ un, podemos elegir la funci´on λ de modo que sea Borel-medible, ya que una elecci´on posible es Φ(x + n1 ) − Φ(x)
λ(x) = lim
1 n
n→+∞
y para cada n, la funci´on x
Φ(x + n1 ) − Φ(x) 1 n
es continua y, por lo tanto, Borel medible. (Recordar que el l´ımite puntual de funciones medibles es medible). Reemplazando en (4) y por X(ω) y x por E (X/F) (ω) se obtiene: Φ(X) ≥ Φ (E (X/F)) + λ (E (X/F)) [X − E (X/F)] (donde, como es habitual, hemos suprimido ”ω” en ambos miembros). Ahora tomamos esperanza condicional dada F en ambos miembros y usamos que la variable aleatoria ω
λ (E (X/F) (ω))
es F-medible (composici´on de una funci´on F-medible con una funci´on Borel-medible), conjuntamente con la propiedad 4. ut-supra. Esto prueba (3). 10. Xn → X en L1 =⇒ E (Xn /F) → E (X/F) en L1 . Aplicando la desigualdad de Jensen: E [|E (Xn /F) − E (X/F)|] ≤ E [E (|Xn − X| /F)] = E (|Xn − X|) → 0. 5
11. (La esperanza condicional como proyecci´ on ortogonal en L2 ) Sea S el subespacio de L2 = L2 (Ω, A, P ) de las variables aleatorias a valores reales que son F-medibles. Es obvio que S es cerrado. Sea π S la proyecci´on ortogonal de L2 sobre S. Entonces, si X ∈ L2 se tiene π S (X) = E (X/F)
(5)
Observar que si X ∈ L2 , entonces tambi´en X ∈ L1 , de modo que la esperanza condicional est´a bien definida. Notar adem´as que E (X/F) ∈ L2 ya que: E [E (X/F)]2 ≤ E E X 2 /F = E X 2 < ∞ (5) se sigue de que E [(X − E (X/F)) Y ] = 0 para toda variable aleatoria Y ∈ S.
1.2
Filtraciones. Definici´ on de martingala discreta.
Definici´ on. (Ω, A, P ) espacio de probabilidad. En lo que sigue, una ”filtraci´on” {Fn }n∈T es una sucesi´on de sub σ´algebras de A, creciente, i.e. Fn ⊂ Fn+1 ∀n. Por un largo trecho, supondremos que el conjunto T es el de los naturales o el de los enteros; m´as adelante, tendremos que modificar una serie de puntos para encarar los problemas cuando el par´ametro var´ıa en los reales, o en alg´ un otro conjunto de ´ındices. Usamos las notaciones _ F∞ = Fn n
y F−∞ =
\
Fn
n
para representar, respectivamente, la σ-´algebra engendrada por la uni´on de las Fn ’s y la σ-´algebra intersecci´on de las Fn ’s. Definici´ ones. Un proceso estoc´astico definido en el mismo espacio de probabilidad (o lo que es lo mismo en nuestro caso, una sucesi´on de variables aleatorias) 6
{Xn }n∈T es adaptado a la filtraci´on {Fn }n∈T si Xn es Fn -medible para todo n ∈ T. El proceso estoc´astico {Xn }n∈T es previsible con respecto a la filtraci´on {Fn }n∈T si Xn es Fn−1 -medible para todo n ∈ T. Un proceso estoc´astico {Xn }n∈T es una submartingala (respectivamente supermartingala, martingala) con respecto a la filtraci´on {Fn }n∈T si cumple las siguientes condiciones: 1. {Xn }n∈T es adaptado a {Fn }n∈T . 2. Xn ∈ L1 ∀n ∈ T . 3. casi seguramente E(Xn+1 /Fn ) ≥ Xn (respectivamente ≤, =) Observaciones. - En la definici´on la condici´on 2. puede reemplazarse por Xn+ ∈ L1 (respectivamente Xn− ∈ L1 , Xn ∈ L1 ) ∀n ∈ T . - Un caso especial importante, es aqu´el en que el proceso estoc´astico {Xn }n∈T est´ a dado y se define la filtraci´on mediante Gn = σ (Xm : m ≤ n), la m´ınima σ-´ algebra con respecto a la cual las variables aleatorias {Xm : m ≤ n} son medibles. Es decir que Gn contiene la informaci´on generada por el proceso hasta el instante n. La filtraci´on {Gn }n∈T as´ı definida, se denomina la ”filtraci´on engendrada por el proceso dado”.
1.2.1
Propiedades iniciales y ejemplos.
1. (Paseo al azar) Sea ξ 1 , ξ 2 , .... una sucesi´on de variables aleatorias independientes, ξ n ∈ L1 , E (ξ n ) = 0 ∀n. Definimos X0 = 0, Xn = ξ 1 + ... + ξ n para n ≥ 1 F0 = {φ, Ω} , Fn = σ (ξ m : m ≤ n) para n ≥ 1 Entonces, {Xn } es una Fn -martingala. 2. Si en el ejemplo anterior se reemplaza E (ξ n ) = 0 por E (ξ n ) ≥ 0, se obtiene una submartingala.
7
3. Si {Xn } , {Yn } son Fn -martingalas y a,b n´ umeros reales, entonces {aXn + bYn } es tambi´en Fn -martingala. Del mismo modo, si {Xn } , {Yn } son Fn submartingalas (respectivamente supermartingalas) y a,b n´ umeros reales no negativos, entonces {aXn + bYn } es tambi´en Fn -submartingala (resp. supermartingala). 4. Sea {Xn } una Fn -martingala y Φ : R → R una funci´on convexa. Se define Yn = Φ(Xn ). Entonces, si Yn ∈ L1 ∀n, resulta que {Yn } es una Fn -submartingala. En particular, si Xn ∈ Lp ∀n, p ≥ 1, entonces {|Xn |p } es una Fn submartingala. 5. Sea {Xn } una Fn -submartingala y Φ : R → R una funci´on convexa y creciente. Se define Yn = Φ(Xn ). Entonces, si Yn ∈ L1 ∀n, resulta que {Yn } es una Fn -submartingala. En particular, {Xn+ } es una Fn -submartingala. 6. Sea Y ∈ L1 y {Fn }n∈T una filtraci´on. Definimos Xn = E(Y /Fn )
(n ∈ T )
(6)
Se prueba f´acilmente que {Xn }n∈T es una {Fn }n∈T -martingala. M´as adelante consideraremos la pregunta inversa, a saber ¿en qu´e condiciones, dada una {Fn }n∈T -martingala {Xn }n∈T , se puede encontrar una variable aleatoria Y tal que (6) se cumpla para todo n? Y m´as a´ un, ¿c´omo se puede describir Y ? 7. (Derivaci´ on en un espacio abstracto) • (X, F, µ) espacio de probabilidad. • π n = {A1 , ...., Amn } partici´on medible finita de X, creciente con n en el sentido de que π n+1 es un refinamiento de π n . • Fn = σ(π n ) ⊂ Fn+1 • Sea ν otra medida signada finita sobre (X, F, µ), ν µ y µn , ν n las restricciones de µ, ν respectivamente a Fn . Es claro que mn X ν(Aj ) dν n = 1A Ln = dµn µ(Aj ) j j=1
8
con la convenci´on de que
ν(Aj ) µ(Aj )
= 0 is µ(Aj ) = 0.
Veamos que {Ln } es una {Fn }-martingala. Es claro que Ln es Fn -medible, ya que las funciones Fn -medibles son justamente las que son constantes sobre los conjuntos de la partici´on que define a Fn . Hay que ver que E (Ln+1 /Fn ) = Ln c.s., es decir, que E (Ln+1 1A ) = E (Ln 1A )
∀ A ∈ Fn
(7)
Basta verificar (7) para A = Aj (j = 1, ..., mn ), ya que cada A ∈ Fn es una uni´on finita disjunta de esos Aj . Pero si Aj ∈ Fn , entonces, dado que ∈ Fn+1 es un refinamiento de ∈ Fn , se puede escribir k=ν j
Aj =
[
A0k con A0k ∈ Fn+1 , 2 a 2 disjuntos
k=1
con lo cual k=ν j
E Ln+1 1Aj =
X
E
k=1
ν(A0k ) 1 0 µ(A0k ) Ak
k=ν j
=
X
ν(A0k ) = ν(Aj ) = E Ln 1Aj .
k=1
Una pregunta natural es bajo qu´e condiciones Ln converge cuando n → ∞ y en ese caso, si el l´ımite es la derivada de Radondν Nydodim dµ , dando una interpretaci´on de ´esta similar a la derivaci´on ordinaria en un espacio euclidiano.
1.3
Compensador de una sucesi´ on adaptada de variables aleatorias. Descomposici´ on de Doob elemental (caso discreto).
Sea (Ω, A, P ) un espacio de probabilidad, {Fn }n=0,1,2,... una filtraci´on definida en ´el y {Xn }n=0,1,2,... una sucesi´on de variables aleatorias adaptada a {Fn }n=0,1,2,... , Xn ∈ L1 ∀n. n o en Proposici´ on. ∃ una u ´nica sucesi´on de variables aleatorias X n=0,1,2,...
tal que: e0 = 0. 1. X n o en 2. X
n=0,1,2,...
es previsible
9
3.
n o en Xn − X
es una {Fn }-martingala.
n=0,1,2,...
Demostraci´ on. Definimos: e0 = 0 X n X e Xn = E (Xj − Xj−1 /Fj−1 )
n≥1
j=1
1. y 2. son obvias. En cuanto a 3., si n ≥ 1: h i en /Fn en+1 − Xn − X E Xn+1 − X = E [Xn+1 − Xn /Fn ] −
n+1 X
E (Xj − Xj−1 /Fj−1 ) +
j=1
n X
E (Xj − Xj−1 /Fj−1 ) = 0
j=1
Si n = 0, se verifica de manera igualmente trivial. n o n o e bn veriEn cuanto a la unicidad, supongamos que Xn y tambi´en X fican 1.,2.,3. Entonces, e1 /F0 e0 = X0 c.s. E X1 − X = X0 − X b1 /F0 b0 = X0 c.s. E X1 − X = X0 − X por lo que b1 − X e1 = E X b1 − X e1 /F0 = 0 c.s. X b1 − X e1 es F0 -medible. El mismo tipo de argumento permite probar ya que X b e por inducci´on completa n o que Xn − Xn = 0 c.s. ∀n. en Definici´ on. X se denomina el compensador (previsible) de n=0,1,2,...
la sucesi´on {Xn }n=0,1,2,... . Notas y ejemplo b´ asico. en = 0 ∀n si y s´olo si el proceso dado {Xn } es una {Fn }-martingala. • X n o en es creciente (en sentido amplio) si y s´olo si el proceso dado {Xn } • X es una {Fn }-submartingala.
10
• Sea {Xn }n=0,1,2,... una {Fn }n=0,1,2,... -martingala, y supongamos adem´as que Xn ∈ L2 ∀n. Entonces Yn = Xn2 (n = 0, 1, 2, ...) es una submartingala y el compensador es, para n ≥ 1 : Yen =
n X
E (Yj − Yj−1 /Fj−1 ) =
j=1
=
n X
n X
2 /Fj−1 E Xj2 − Xj−1
j=1
E (Xj − Xj−1 )2 /Fj−1 .
j=1
De modo que
n o Xn2 − Yen es una martingala.
• Un caso particular de lo anterior es el siguiente. Sea X0 = 0, Xn = ξ 1 + ... + ξ n (n ≥ 1), donde ξ 1 , ξ 2 , ... es una sucesi´on de variables aleatorias independientes, E(ξ n ) = 0, V ar(ξ n ) = σ 2n . n o P P Entonces, el compensandor de Xn2 es nj=1 σ 2j , es decir que Xn2 − nj=1 σ 2j es una martingala con respecto a la filtraci´on engendrada por {ξ n }. Obs´ervese que en este caso el compensador es determin´ıstico. La situaci´on es ligeramente distinta si consideramos un proceso indizado en Z en lugar de N . Vemos la modificaci´on con respecto a la proposici´on anterior en la proposici´on siguiente: Proposici´ on. Sea (Ω, A, P ) un espacio de probabilidad, {Fn }n∈Z una filtraci´on definida en ´el y X = {Xn }n∈Z una submartingala adaptada a {Fn }n∈Z . Suponemos adem´as que sup E Xn− < ∞. n<0
Entonces, ∃ una martingala M = {Mn }n∈Z y un proceso A = {An }n∈Z previsible, integrable y creciente, tales que X =M+A Si adem´as lim An = 0, entonces la descomposici´on (8) es u ´nica. n→−∞
Si adem´as es Xn ≥ 0 ∀n =⇒ E(An ) ≤ E(Xn ) ∀n. Demostraci´on. Ponemos Yj = E (Xj − Xj−1 /Fj−1 ) ≥ 0 11
(8)
Para n < m: E
X
Yj = E (Xm − Xn ) ≤ E (Xm ) + sup E Xn−
n≤m
n
Por lo tanto (Beppo-Levi), ∃ lim
n↓−∞
X
Yj = Am ∈ L1
n
y A = {An }n∈Z es previsible, integrable y creciente. Poniendo Mn = Xn − An , se verifica que M es una martingala. Si hubiera dos descomposiciones, X = M(i) + A(i) (i = 1, 2) =⇒ A(2) − (1) A = M(1) − M(2) es a la vez una martingala y es previsible =⇒ (2) (1) (2) (1) (1) An+1 − An+1 = E An+1 − An+1 /Fn = A(2) n − An donde la primera igualdad es por ser previsible y la segunda por ser mar(2) (1) tingala. Es decir que An − An no depende de n y como tiende a cero en −∞, es id´enticamente nula. Finalmente, si Xn ≥ 0 =⇒ Xn− = 0 y lo indicado resulta de la acotaci´on de E (Am ) .
1.4
Tiempos de parada.
Definiciones. Como antes, sea {Fn }n∈T una filtraci´on (T = N ´o T = Z). Una variable aleatoria τ : Ω → T ∪ {∞} es un tiempo de parada - o un {Fn }-tiempo de parada) si {τ = n} ∈ Fn
∀n
(esto incluye el caso n = ∞; hay una cierta imprecisi´on aqu´ı en el caso T = Z, en el que se debe agregar +∞ y tambi´en -∞, pero esto no ser´a una fuente de problemas). Tambi´en se define la ”σ-´algebra de los sucesos anteriores a τ ”: Fτ = {A ∈ F∞ : ∀n < ∞ se cumple que A ∩ {τ = n}} ∈ Fn Ejemplo b´ asico (tiempo que demora un proceso estoc´astico en llegar a un conjunto). 12
• {Xn }n=0,1,2,... sucesi´on de variables aleatorias a valores reales. • Fn = σ {Xm : m ≤ n} filtraci´on engendrada por la sucesi´on. • a∈R Se define el ”tiempo que demora el proceso en llegar al conjunto [a, +∞)” mediante τ a = inf {n : Xn ≥ a} τ a = +∞ 1.4.1
si {} = 6 φ
si {} = φ
Propiedades de los tiempos de parada.
(a) Una variable aleatoria τ a valores en T ∪ {∞} es un tiempo de parada si y s´olo si {τ ≤ n} ∈ Fn ∀n. (b) Fτ es una σ-´algebra. (c) Generalizaci´on del ejemplo anterior. • {Xn }n=0,1,2,... sucesi´on de variables aleatorias a valores en un espacio medible (E, E) . • A∈E • τ A = inf {n : Xn ∈ A} τ A = +∞
si {} = 6 φ
si {} = φ
(d) τ ≡ n es tiempo de parada (e) Si τ 1 , τ 2 son {Fn }-tiempos de parada, entonces τ 1 ∨ τ 2 y τ 1 ∧ τ 2 tambi´en son {Fn }-tiempos de parada. (f) Si τ 1 , τ 2 son {Fn }-tiempos de parada, τ 1 ≤ τ 2 , entonces Fτ 1 ⊂ Fτ 2 . En efecto, si A ∈ Fτ 1 =⇒ A ∈ F∞ , A ∩ {τ 1 = n}. Por lo tanto: [ A ∩ {τ 2 = n} = [A ∩ {τ 2 = n} ∩ {τ 1 = m}] ∈ Fn m≤n
ya que en la uni´ on, A ∩ {τ 1 = m} ∈ Fm ⊂ Fn . (g) (Proceso estoc´ astico parado)
13
Sean X = {Xn }n∈T un proceso {Fn }n∈T -adaptado y τ un tiempo de parada con respecto a esta filtraci´on. Se define el ”proceso estoc´astico parado en τ ”:X τ = {Xnτ }n∈T mediante: Xnτ (ω) = Xn∧τ (ω) (ω) Proposici´ on. Si {Xn }n=0,1,2,.. es {Fn }n=0,1,2,... -martingala (resp. supermartingala, submartingala) entonces X τ es {Fn }n=0,1,2,... martingala (resp. supermartingala, submartingala). Demostraci´on. Probamos, lo que es m´ as general, que si {ξ n }n=1,2,... es un proceso estoc´astico predecible, acotado y ≥ 0, la misma conclusi´on del enunciado vale para el proceso {Yn }n=0,1,2,.. definido mediante: Y0 = X0 Yn = Yn−1 + ξ n (Xn − Xn−1 )
para n ≥ 1
La proposici´on resultar´ a de aplicar esto a ξ n = 1{τ ≥n} , porque en ese caso se verifica f´acilmente que Yn = Xnτ . Para el caso martingala, tenemos que ver que para n ≥ 1 : E (Yn /Fn−1 ) = Yn−1
c.s.
(9)
Para los otros casos, es similar. Pero: E [ξ n (Xn − Xn−1 ) /Fn−1 ] = ξ n E [(Xn − Xn−1 ) /Fn−1 ] = 0
c.s.
lo que prueba (9).
1.5
Desigualdades para martingalas, convergencia, leyes de grandes n´ umeros.
Teorema (del muestreo opcional de Doob). Sea X = {Xn }n∈0,1,2,... una {Fn }n∈0,1,2,.. -martingala (resp. supermartingala, submartingala). Consideramos una sucesi´on (finita) creciente de tiempos de parada τ 1 ≤ τ 2 ≤ ... ≤ τ n , que suponemos uniformement acotados superiormente, en el sentido de que existe una constante C tal que τ k ≤ C ∀k = 1, ..., n. Entonces, {Xτ k }k=1,...,n es una {Fτ k }k=1,...,n -martingala (resp. supermartingala, submartingala). 14
Demostraci´on. Basta probar el enunciado para n = 2. Empecemos por probar que E (Xτ 2 ) = E (Xτ 1 )
(resp. ≤, ≥)
(10)
Aplicamos lo visto en la demostraci´on de la proposici´on anterior, con la misma notaci´on, poniendo ξ n = 1{τ 1
∀n
Poniendo n ≥ C, resulta (10). Probemos ahora que E (Xτ 2 /Fτ 1 ) = E (Xτ 1 ) (resp. ≤, ≥) c.s. Es decir, se trata de probar que ∀ B ∈ Fτ 1 se verifica E (Xτ 2 1B ) = E (Xτ 1 1B ) (resp. ≤, ≥)
(11)
Veamos el caso de la igualdad; los otros son similares. Definimos, para i = 1, 2 : τ i,B = τ i 1B + C1B C τ 1,B es un tiempo de parada, ya que si n ≥ C, {τ 1,B ≤ n} = Ω, y si n < C, entonces {τ 1,B ≤ n} = {τ 1 ≤ n} ∩ B ∈ Fn por ser B ∈ Fτ 1 . An´alogamente, como B ∈ Fτ 1 ⊂ Fτ 2 , si n < C, entonces {τ 2,B ≤ n} = {τ 2 ≤ n} ∩ B ∈ Fn . Adem´as es obvio que τ 1,B ≤ τ 2,B , de modo que se puede aplicar (10) a la pareja de tiempos de parada τ 1,B , τ 2,B y resulta E(Xτ 1,B ) = E(Xτ 2,B ), es decir que E (Xτ 2 1B ) + E (XC 1B C ) = E (Xτ 1 1B ) + E (XC 1B C ) lo que prueba (11).
15
Teorema (desigualdades de Doob). Sea {Xn }0≤n≤N una submartingala con respecto a la filtraci´on {Fn }0≤n≤N y λ > 0. Entonces: (i) + λP max Xn ≥ λ ≤ E XN 1{max0≤n≤N Xn ≥λ} ≤ E XN ≤ E (|XN |) 0≤n≤N
(12) + λP min Xn ≤ −λ ≤ −E(X0 )+E XN 1{min0≤n≤N Xn ≤−λ} ≤ E X0− +E XN 0≤n≤N (13) p (ii) Si {Xn }0≤n≤N es martingala y E (|Xn | ) < ∞ ∀n = 0, ..., N y para alg´ un p ≥ 1, entonces 1 (14) P max |Xn | ≥ λ ≤ p E (|XN |p ) 0≤n≤N λ
(iii) Si adem´as de las hip´otesis de (ii) es p > 1, entonces: p p p E max |Xn | ≤ E (|XN |p ) 0≤n≤N p−1
(15)
Demostraci´on. (i) Probamos (12). (13) es similar. Sea τ
= min {n : 0 ≤ n ≤ N, Xn ≥ λ} = N
si {} = 6 φ
si {} = φ
En virtud del teorema del muestreo opcional de Doob, {Xτ , XN } es una submartingala con respecto a la filtraci´on {Fτ , FN } . Por lo tanto, E (XN ) ≥ E (Xτ ) = E Xτ 1{max0≤n≤N Xn ≥λ} + E XN 1{max0≤n≤N Xn <λ} ≥ λP max Xn ≥ λ + E XN 1{max0≤n≤N Xn <λ} 0≤n≤N
Pasando el u ´ltimo t´ermino al primer miembro resulta (12). (ii) Aplicar (i) a la submartingala {|Xn |p }. (iii) Sea M = max0≤n≤N |Xn |. Entonces: Z +∞ Z +∞ E (M p ) = p λp−1 P (M ≥ λ) dλ ≤ p λp−2 E(|XN | 1{M ≥λ} ) dλ 0
=
0
p E |XN | M p−1 p−1 16
R +∞ ya que (p − 1) 0 λp−2 1{M ≥λ} dλ = M p−1 . Aplicando la desigualdad de H¨older: E (M p ) ≤
p−1 1 p [E (|XN |p )] p [E (M p )] p p−1
Pasando el u ´ltimo factor al primer miembro, resulta (iii). 1.5.1
Teorema de convergencia de martingalas.
1. {Xn }n=0,1,2,.. submartingala, supn E (Xn+ ) < ∞ =⇒ c.s. X∞ , X∞ ∈ L1 .
∃ limn→+∞ Xn =
2. Bajo las condiciones de 1., se puede extender {Xn }n=0,1,2,.. a una submartingala definida en {0, 1, 2...} ∪ {+∞} agregando +∞ X∞ , si y s´olo si, {Xn+ }n=0,1,2,.. es uniformemente integrable. 3. Sea Y ∈ L1 y {Fn }n=0,1,2,... una filtraci´on. Entonces, Xn = E (Y /Fn ) es una martingala adaptada a {Fn }n=0,1,2,... , uniformemente integrable y existe limn→+∞ Xn = X∞ , casi seguramente y en L1 . Adem´as, X∞ = E (Y /F∞ ). 4. X = {Xn }n=0,−1,−2,.. submartingala, inf n E (Xn ) > −∞ =⇒ X es uniformemente integrable y ∃ limn→−∞ Xn = X−∞ , c.s. y en L1 . La demostraci´on se basa en el lema siguiente, debido a Doob. Lema (sobre cruces). Sea {Xn }n=0,1,2,.. una submartingala con respecto a la filtraci´on {Fn }n=0,1,2,.. y a, b dos n´ umeros reales, a < b. Entonces: X E UN (a, b) ≤
1 E (XN − a)+ − (X0 − a)+ b−a
(16)
X (a, b) = n´ Aqu´ı, UN umero de cruces hacia arriba de la banda [a, b] entre 0 y N, que se puede definir formalmente de la manera siguiente:
17
Para cada trayectoria {Xn }n=0,1,2,.. , definimos por recurrencia la sucesi´on τ0 = 0 τ 1 = min {n : Xn ≤ a} τ 2 = min {n : n ≥ τ 1 , Xn ≥ b} ................................ τ 2k+1 = min {n : n ≥ τ 2k , Xn ≤ a} τ 2k+2 = min {n : n ≥ τ 2k+1 , Xn ≥ b} donde se usa la convenci´on de que min(φ) = +∞, y si un cierto τ es igual a +∞, desde all´ı en adelante los τ sucesivos tambi´en valen +∞. Entonces, X UN (a, b) = max {k : τ 2k ≤ N } Demostraci´on del lema. Consideramos el nuevo proceso Y = {Yn } definido por Yn = (Xn − a)+ , que tambi´en es una submartingala, ya que la funci´on x x+ es convexa y creciente (en sentido amplio). Es claro que X Y UN (a, b) = UN (0, b − a) Definimos la sucesi´on τ 0 , τ 1 , τ 2 , ... como antes, pero para el proceso Y en lugar de X . Es inmediato que es una sucesi´on creciente de tiempos de parada. Sea τ 0n = τ n ∧ N. {τ 0n }n=0,1,2,... es tambi´en una sucesi´on creciente de tiempos de parada, acotada por N. Elegimos adem´as el natural K de tal modo que 2K > N. Dado que mientras que los τ n son finitos, forman una sucesi´on estrictamente creciente, tiene que ser τ 2K > N y, por lo tanto, τ 02K = N . Se tiene: YN − Y0 =
2K X n=1
Yτ 0n − Yτ 0n−1 =
K X
Yτ 02n − Yτ 02n−1 +
n=1
K−1 X
Yτ 02n+1 − Yτ 02n
n=0
Y (0, b − a). Tomando esperEl primer t´ermino est´a minorado por (b − a)UN anzas:
i Xh K−1 Y E(YN ) − E(Y0 ) ≥ (b − a)E UN (0, b − a) + E(Yτ 02n+1 ) − E(Yτ 02n ) n=0
18
Por el teorema del muestreo opcional de Doob, Yτ 0n es una submartingala y cada t´ermino en la u ´ltima suma es ≥ 0. Se deduce que Y E (XN − a)+ − (X0 − a)+ = E(YN ) − E(Y0 ) ≥ (b − a)E UN (0, b − a) Esto prueba (16). Disgresi´ on. (Sobre integrabilidad uniforme). A t´ıtulo de repaso, recordemos que la sucesi´on de variables aleatorias {Zn }n=0,1,2,.. , definidas en el espacio de probabilidad (Ω, A, P ) , Zn ∈ L1 , es uniformemente integrable si sup E |Zn | 1{|Zn |≥a} → 0 n
cuando a → +∞. El lector verificar´a que si la sucesi´on {Zn } es acotada en Lp para alg´ un p > 1, entonces es uniformemente integrable. Tambi´en que si, casi seguramente, Zn → Z∞ cuando n → +∞, entonces Zn → Z∞ en L1 si y s´olo si {Zn } es uniformemente integrable. Mostrar un ejemplo en el cual esto u ´ltimo se verifica, pero no se cumplen las condiciones del teorema de convergencia dominada de Lebesgue. Demostraci´on del teorema de convergencia. Para la parte 1. se trata de probar que P (limXn < limXn ) = 0. Y (a, b) = lim Y Sea U∞ N →+∞ UN (a, b). Entonces: [ Y limXn < limXn = U∞ (r, s) = +∞ r,s∈Q, r
Usando Beppo Levi y el lema sobre cruces (para r, s fijos, r < s: Y E U∞ (r, s) =
1 Y lim E UN (r, s) ≤ limN →+∞ E (XN − r)+ − (X0 − r)+ < ∞ N →+∞ s−r
Y (r, s) < ∞ con probaLa finitud se deduce de la hip´otesis. Por lo tanto, U∞ bilidad 1. Esto prueba que c.s.∃ limn→+∞ Xn = X∞ . Para ver que X∞ ∈ L1 , i.e. E(|X∞ |) < ∞, notar que
E(|Xn |) = 2E(Xn+ ) − E(Xn ) ≤ 2E(Xn+ ) − E(X0 ) donde la desigualdad se sigue de que {Xn } es submartingala. Usar ahora la hip´otesis y el lema de Fatou. 19
Para probar 2. supongamos que {Xn+ } es uniformemente integrable. Entonces, ∀a > 0, c.s. Xm ∨ (−a) → X∞ ∨ (−a) no s´olo casi seguramente sino tambi´en en L. Por lo tanto, para cada n fijo, E (Xm ∨ (−a)/Fn ) → E (X∞ ∨ (−a)/Fn ) en L1 cuando m → +∞ y casi seguramente sobre una subsucesi´on {mk }. Como {Xn ∨ (−a)} es submartingala, E (X∞ ∨ (−a)/Fn ) = lim E (Xmk ∨ (−a)/Fn ) ≥ Xn ∨ (−a) c.s. k→+∞
Haciendo a ↑ +∞, resulta E (X∞ /Fn ) ≥ Xn
c.s.
Rec´ıprocamente, si E (X∞ /Fn ) ≥ Xn c.s. ∀n, entonces (desigualdad de Jensen) + E X∞ /Fn ≥ [E (X∞ /Fn )]+ ≥ Xn+ c.s. y como {Xn+ ≥ x} es Fn -medible, + E Xn+ 1{Xn+ ≥x} ≤ E X∞ 1{Xn+ ≥x}
(17)
+ Setrata de probar que {Xn } es uniformemente integrable, es decir que E Xn+ 1{Xn+ ≥x} → 0 cuando x → +∞, uniformemente en n. En virtud de + ∈ L1 , basta probar que P (X + ≥ x) → 0 cuando x → +∞, (17) y de que X∞ n uniformemente en n. Esto se deduce de (x > 0):
P (Xn+ ≥ x) ≤
1 1 + E(Xn+ ) ≤ E(X∞ ). x x
La demostraci´on de 3. es an´aloga. Para probar que X∞ = E(Y /F∞ ) basta ver que E(X∞ 1B ) = E(Y 1B ) ∀B ∈ F∞ . Para esto, observar que la familia {B : E(X∞ 1B ) = E(Y 1B )} es un ´algebra y tambi´en una clase mon´otona que contiene a Fn ∀n, por lo que contiene a F∞ . La parte de convergencia casi segura en la demostraci´on de 4. es igual a la an´aloga de 1. La parte de la integrabilidad uniforme se ve como sigue. E(Xn ) decrece cuando n decrece. La hip´otesis dice que limn→−∞ E(Xn ) es finito. Sea n0 tal que E(Xn ) > E(Xn0 ) − ε si n ≤ n0 . Entonces, si n ≤ n0 y x > 0: E |Xn | 1{|Xn |≥x} = E Xn 1{Xn ≥x} + E Xn 1{Xn >−x} − E (Xn ) ≤ E Xn0 1{Xn ≥x} + E Xn0 1{Xn >−x} − E (Xn0 ) + ε = E Xn0 1{Xn ≥x} − E Xn0 1{Xn ≤−x} + ε ≤ E |Xn0 | 1{|Xn |≥x} + ε 20
An´alogamente a lo anterior, falta ver que P (|Xn | ≥ x) → 0 cuando x → +∞, uniformemente en n. Esto se deduce de: 1 1 E(|Xn |) = 2E(Xn+ ) − E(Xn ) x x 1 + 2E(X0 ) − E(Xn0 ) + ε . x
P (|Xn | ≥ x) ≤ ≤ 1.5.2
Aplicaci´ on. Teorema de Wald.
Teorema (Wald). Sea S0 = 0, Sn = ξ 1 + ... + ξ n (n ≥ 1), donde ξ 1 , ξ 2 , ... es una sucesi´on de variables aleatorias independientes, E(ξ n ) = µ, E(|ξ n |) = µ e ∀n. Denotamos por {Fn }n=0,1,2,.. la filtraci´on engendrada por {ξ n }n=o 1,2,... F0 = {φ, Ω}. Sea τ un tiempo de parada con respecto a {Fn }n=0,1,2,.. y supongamos que E (τ ) < ∞. Entonces, (a) E (Sτ ) = µE (τ ) (b) Si adem´as V ar(ξ n ) = σ 2 < ∞, entonces E (Sτ − τ µ)2 = σ 2 E(τ ) Demostraci´on. {Sn − nµ}n=0,1,... es una {Fn }n=0,1,2,.. -martingala =⇒ (usando el teorema del muestreo opcional) que tambi´en {Sn∧τ − (n ∧ τ )µ}n=0,1,... es una {Fn }n=0,1,2,.. -martingala =⇒ E [Sn∧τ − (n ∧ τ )µ] = 0 o sea que E (Sn∧τ ) = µ E(n ∧ τ )
(18)
Queremos hacer n ↑ +∞. El segundo miembro tiende a E(τ ). En cuando al primero, si las variables aleatorias ξ n son todas ≥ 0, se pasa al l´ımite en el primero aplicando el teorema de Beppo Levi y eso prueba (a). En caso contrario, se aplica el teorema a la sucesi´on {|ξ n |}n=1,2,... en lugar de {ξ n }n=1,2,... Si ponemos Se0 = 0, Sen = |ξ 1 | + ... + |ξ n | (n ≥ 1), resulta entonces E Seτ = µ eE (τ ) < ∞ 21
y como |Sn∧τ | ≤ Seτ ∀n, podemos aplicar el teorema de convergencia dominada para pasar al l´ımite en el primer miembro de (18). La demostraci´on de (b) es similar, teniendo en cuenta que (Sn − nµ)2 − nσ 2 es martingala. Ejemplo. Se considera un paseo al azar (p, q). Esto significa que en el ejemplo anterior, las variables aleatorias independientes de la sucesi´on {ξ n } tienen todas la misma distribuci´on y es la siguiente: P (ξ n = 1) = p, P (ξ n = −1) = q, p + q = 1. Sean adem´as a, b dos enteros positivos y τ a,b = min {n : Sn = a ´o Sn = b}. τ a,b es un tiempo de parada con respecto a la filtraci´on engendrada por el proceso. Entonces: 1. P (τ a,b < ∞) = 1, lo que significa que la probabilidad de que el proceso quede eternamente comprendido estrictamente entre las barreras −a y b es igual a cero. 2. Denotamos π a = P (Sτ a,b = −a),
π b = P (Sτ a,b = b)
donde π a + π b = 1
π a (resp. π b ) es la probabilidad de que el proceso llegue antes a la barrera −a (resp. b) que a la barrera b )(resp. −a). Entonces: E(Sτ a,b ) = −aπ a + b(1 − π a ) = (p − q)E(τ a,b ) Esta igualdad resultar´a del teorema de Wald, una vez que probemos que τ a,b ∈ L1 , lo cual implicar´a a su vez la validez de la afirmaci´on hecha en 1. 3. Para el caso en que p = q = 1/2 se deduce que π a =
b a+b .
En el ejemplo anterior, podemos modificar las cosas de modo que los c´alculos combinatorios que hacen posible la obtenci´on de las f´ormulas sin recurrir al teorema de Wald, resulten muy complicados o imposibles. Por
22
ejemplo, supongamos que en cada paso, el salto del paseo al azar pueda tomar 3 valores en lugar de 2, a saber −1, 0, 1 y que P (ξ n = 1) = pn ,
P (ξ n = −1) = qn ,
P (ξ n = 0) = rn
pn + qn + rn = 1. Adem´as, suponemos que inf(pn ) > 0, inf(qn ) > 0. b Las f´ormulas anteriores permanecen v´alidas, incluyendo π a = a+b cuando P 1 (pn − qn ) → 0. n Tambi´en podemos modificar el teorema de Wald, permitiendo que las medias de los saltos no sean todas iguales, i.e. E(ξ n ) = µn , con las hip´otesis µ1 + ... + µn |µ1 + ... + µn | → µ, acotada n n La f´ormula (a) del teorema de Wald permanece v´alida. El u ´nico punto que queda pendiente es que τ a,b ∈ L1 . Esto es un caso particular de la proposici´on siguiente, que tiene inter´es en si misma, por sus numerosas aplicaciones. Proposici´ on. Sea {ξ n }n=1,2,.. una sucesi´on de variables aleatorias reales, independientes con igual distribuci´on F . Suponemos que F no se reduce a un ´atomo en el origen. Entonces, P (limn→+∞ |Sn | = +∞) = 1 M´as a´ un, si P (ξ 1 > 0) > 0 y P (ξ 1 < 0) > 0, entonces P (limn→+∞ Sn = +∞, limn→−∞ Sn = −∞) = 1. Si P (ξ 1 > 0) > 0 y P (ξ 1 < 0) = 0, es inmediato que casi seguramente {Sn } es mon´otona creciente y tiende a +∞. Demostraci´on. Basta demostrar que ∀a, b reales, a < b, se tiene P (τ a,b < ∞) = 1. Probamos un resultado m´as fuerte, que implica que h i E (τ a,b )k < ∞ ∀k = 1, 2, .. (19) Sean δ, ε > 0 tales que P (ξ 1 ≥ δ) ≥ ε y P (ξ 1 ≤ −δ) ≥ ε y ν tal que δ.ν ≥ a + b. Se tiene: P (τ a,b > n.ν) ≤ P |Sν | < a + b, |S2ν − Sν | < a + b, ....., Snν − S(n−1)ν < a + b = [P (|Sν | < a + b)]n = [1 − P (|Sν | ≥ a + b)]n 23
Por otra parte, P (Sν ≥ a + b) ≥ P (ξ 1 ≥ δ, ..., ξ ν ≥ δ) = [P (ξ 1 ≥ δ)]ν ≥ εν P (Sν ≤ −(a + b)) ≥ P (ξ 1 ≤ −δ, ..., ξ ν ≤ −δ) = [P (ξ 1 ≤ −δ)]ν ≥ εν Por lo tanto, P (τ a,b > n.ν) ≤ η n donde 0 < η < 1 y η depende de la pareja a, b de partida. En conclusi´on, P (τ a,b > m) ≤ η m 1
(20)
para m ≥ m0 , donde η 1 es una nueva constante, 0 < η 1 < 1. Es f´acil ver que (20) implica (19). En efecto, para cada entero positivo k, 1 ∞ ∞ h i X X jk 1 k (η 1 ) E (τ a,b ) = P (τ a,b ≥ j k ) ≤ j=1
j=1
donde [] denota la parte entera. La u ´ltima serie es convergente. 1.5.3
Leyes fuertes de los grandes n´ umeros para sumas de variables aleatorias independientes.
Teorema (Kolmogorov). Sea {Yn }n=0,1,... una sucesi´on de variables aleatorias reales, independientes, con los dos primeros momentos finitos, E(Yn ) = 0, V ar(Yn ) = σ 2n . Si se cumple que ∞ X σ 2n <∞ (21) n2 n=1
entonces se tiene P
Y1 + .... + Yn =0 =1 n→+∞ n lim
(en otros t´erminos, casi seguramente, los promedios n → +∞). Demostraci´on. Se define la sucesi´on de variables aletorias X0 = 0,
Xn =
n X Yj j=1
24
j
Y1 +....+Yn n
si n ≥ 1
(22) → 0 cuando
y se considera la filtraci´on {Fn } engendrada por el proceso {Yn }. Es inmediato que {Xn }n=0,1,... es una {Fn }n=0,1,... -martingala y que verifica la parte 1. del teorema de convergencia de martingalas, ya que 1 E Xn+ ≤ E (|Xn |) ≤ E Xn2 2 y E
Xn2
=
∞ X σ2
n
n=1
n2
<∞
por hip´otesis. Por lo tanto, casi seguramente la sucesi´on de variables aleatorias {Xn }n=0,1,... converge, i.e. para casi todo ω, existe el limn→+∞ Xn y es finito. La conclusi´on del teorema se sigue del siguiente lema (de Kronecker). Lema. Sea {yn }n=1,2,... una sucesi´on de n´ umeros reales y {xn }n=0,1,... definida mediante x0 = 0,
xn =
n X yj j=1
Entonces, {xn } convergente implica que Demostraci´on. Se tiene que
j
si n ≥ 1
y1 +....+yn n
→ 0 cuando n → +∞.
y1 + .... + yn n (x1 − x0 ) + 2(x2 − x1 ) + .... + (xn − xn−1 ) = n x1 + .... + xn−1 = xn − →0 n ya que la convergencia de la sucesi´on implica la de los promedios, al mismo l´ımite. Observaci´ on. En el enunciado del teorema anterior, si la esperanza de las variables aleatorias Yn en lugar de ser nula es igual a µ, entonces la n misma conclusi´on vale, s´olo que casi seguramente, es Y1 +....+Y = µ. En n efecto, en la demostraci´on, basta cambiar Yn por Yn − µ. A continuaci´on, probamos una ley fuerte de grandes n´ umeros para sumas de variables independientes, en la que no se requiere - como en el teorema anterior - que los sumandos sean de cuadrado integrable. En cambio, les pediremos que tengan todos la misma distribuci´on. 25
Teorema. Sea {Yn }n=0,1,... una sucesi´on de variables aleatorias reales, independientes, con igual distribuci´on y esperanza finita µ. Entonces, Y1 + .... + Yn =µ =1 (23) P lim n→+∞ n Demostraci´on. Basta considerar el caso µ = 0. Denotamos por F la funci´on de distribuci´on (com´ un) de las Yn ’s. Introducimos la nueva sucesi´on de variables aleatorias independientes Yen = Yn 1{|Yn |
e
a)P es consecuencia del lema de Borel-Cantelli. Se trata de probar que la e serie ∞ n=1 P (Yn 6= Yn ) < ∞. Tenemos ∞ X
P (Yen 6= Yn ) =
n=1
∞ X
P (|Yn | ≥ n) =
n=1
∞ X
P (|Y1 | ≥ n)
n=1
Adem´as: ∞ X n=1
Z
+∞
P (Y1 ≥ n) ≤ 0
P (Y1 ≥ x) dx = E(Y1+ ) < ∞
P Del mismo modo resulta que ∞ n=1 P (Y1 ≤ −n) < ∞. Esto prueba a). Para b) tenemos que verificar que ∞ X V ar(Zn ) n=1
n2
26
<∞
(24)
Es claro que V ar(Zn ) = E(Yen2 ) − υ 2n ≤ E(Yen2 ). Por lo tanto: Z ∞ ∞ ∞ X X V ar(Zn ) X E Yn2 1{|Yn |
n=1
n=1
Integrando por partes: Z n ∞ X 1 x2 F (dx) n2 0 n=1 Z n ∞ X 1 n 2 = −x [1 − F (x)] |0 + 2 x [1 − F (x)] dx n2 0 n=1 Z n ∞ ∞ n X X 1 1 X ≤ 2 x(1 − F (x) dx ≤ 2 j [1 − F (j − 1)] n2 0 n2 = 2
n=1 ∞ X j=1
n=1
j [1 − F (j − 1)]
∞ X
1 ≤ (const) n2
n=j Z +∞
j=1 ∞ X
[1 − F (j − 1)]
j=1
[1 − F (x)] dx ≤ (const) 1 − F (0) + 0 = (const) 1 − F (0) + E(Y1+ ) < ∞ R0 2 P 1 An´alogamente resulta que ∞ n=1 n2 −n x F (dx) < ∞. Esto prueba (24). Falta probar c), que se deduce de υ n → 0 cuando n → +∞. En efecto υ n = E(Yen ) = E(Yen − Yn ) = −E Yn .1{|Yn |≥n} = −E Y1 .1{|Y1 |≥n} que implica |υ n | ≤ E |Y1 | .1{|Y1 |≥n} ↓ 0 en virtud del teorema de Lebesgue de convergencia dominada, ya que Y1 ∈ L1 y casi seguramente, |Y1 | .1{|Y1 |≥n} ↓ 0 cuando n → +∞, ya que |Y1 | es finita casi seguramente. Observaci´ on general. Recordemos que la convergencia fuerte implica la convergencia en probabilidad, es decir, que si {Xn }n=0,1,2,.. es una sucesi´on de variables aleatorias tal que casi seguramente ∃ limn→+∞ Xn = X∞ , entonces ∀ ε > 0 se cumple que P (|Xn − X∞ | ≥ ε) → 0 cuando n → +∞. Naturalmente, la convergencia en probabilidad es cierta bajo condiciones m´as d´ebiles que aqu´ellas en las que podemos asegurar la convergencia casi segura. 27
No habremos de extendernos sobre este punto, pero habr´a de ocurrir que probemos convergencia en probabilidad directamente. Por ejemplo, es inmediato que si Xn → X∞ en Lp para alg´ un p > 0, entonces Xn → X∞ en probabilidad, ya que P (|Xn − X∞ | ≥ ε) ≤
28
1 E (|Xn − X∞ |p ) . εp
2
Convergencia d´ ebil de medidas de probabilidad en R.
2.1
Definici´ on y primeras propiedades.
En lo que sigue, todas las medidas de probabilidad son medidas de Borel en R1 . Con frecuencia haremos el abuso de notaci´on de llamar a las medidas y a sus funciones de distribuci´on, con la misma letra. En lo que sigue, para simplificar la exposici´on, denominaremos ”medidas de probabilidad” a las medidas de Borel F tales que la medida de todo el espacio F (R) es menor o igual que 1. Si F (R) = 1, diremos que F es una medida de probabilidad ”propia” y si F (R) < 1, diremos que es ”defectiva”. Asimismo, si I es el intervalo (a, b] en la recta, la notaci´on F (I) es, como es habitual, la medida del intervalo semiabierto (a, b] o tambi´en F (b) − F (a), donde ahora llamamos F a la funci´on de distribuci´on. Definici´ on 1. Sea {Fn }n=01,2,... y F respectivamente, una sucesi´on de medidas y una medida en la recta. Diremos que {Fn } ”converge d´ebilmente” a F (notaci´on: Fn =⇒ F ) si Fn (I) → F (I) para todo intervalo I en cuyos extremos la funci´on F es continua. Definici´ on 2. Sea {Fn }n=01,2,... una sucesi´on de medidas de probabilidad propias. Diremos que la convergencia d´ebil de Fn a F es propia, si F es propia. Ejemplos. 1. Sea Fn = δ xn (n = 1, 2, ...), donde δ a denota la medida de Dirac en el punto a de la recta real, es decir que δ a ({a}) = 1 y δ a (R \ {a}) = 0. Entonces, xn → x implica que δ xn → δ x . 2. Sea ψ : R → R+ una funci´on Borel-medible,
R +∞
ψ(x)dx = 1. Se define la sucesi´on de medidas de probabilidad Fn (dx) = a1n ψ axn dx, donde an ↓ 0. Entonces, Fn =⇒ δ 0 .
29
−∞
3. Sea Fn (dx)R = fn (x)dx, donde la sucesi´on {fn } es de funciones no+∞ negativas, −∞ fn (x)dx = 1 ∀n. Si fn → f , uniformemente en cada compacto de R, entonces Fn =⇒ F , donde F (dx) = f (x)dx. 4. Sea Fn (dx) = 1{n,n+1} (x) dx. Entonces Fn =⇒ 0, donde 0 indica la medida id´enticamente nula. Propiedades b´ asicas. 1. Fn =⇒ F implica que F (R) ≤ 1. 2. Fn =⇒ F si y s´olo si ∀ f ∈ C0 (R) se cumple que
R
Rf
dFn →
R
Rf
dF .
(C0 (R) denota el espacion de las funciones de R en R, continuas y que tienen l´ımite cero en +∞ y en −∞). R 3. F =⇒ F propia, si y s´ o lo si ∀ f ∈ C (R) se cumple que n b R f dFn → R R f dF . (Cb (R) denota el espacion de las funciones de R en R, continuas y acotadas). 4. Fn =⇒ F propia, si y s´olo si, Fn (x) → F (x) para todo x de continuidad de F y F (R) = 1. 5. Sea {Fn }n=01,2,... una sucesi´on de medidas de probabilidad. Entonces, siempre existe una subsucesi´on que converge d´ebilmente.
Demostraciones. 1. inmediato 2. Supongamos que Fn =⇒ F . La funci´on de distribuci´on F es mon´otona creciente (en sentido amplio); por lo tanto el conjunto D = {x : F no es continua en x} es numerable. Sea f ∈ C0 (R). Dado ε > 0 se puede encontrar una funci´on en escalera: gε (x) =
m X i=1
30
f (ai )1(ai ,bi ] (x)
que verifica que los puntos ai , bi (i = 1, ..., m) son puntos de continuidad de F , a1 < b1 = a2 < b2 = ... = am < bm y que adem´as kf − gε k∞ < ε donde khk∞ = supx∈R |h(x)|. Por lo tanto: Z Z f dFn − f dF R Z ZR Z Z ≤ |f − gε | dFn + |f − gε | dF + gε dFn − . gε dF R R R R Z Z gε dF ≤ 2.ε + gε dFn − . R
= 2.ε +
m X
R
f (ai ) [Fn ((ai , bi ]) − F ((ai , bi ])]
i=1
Haciendo n → R+∞, cada t´Rermino en la suma tiende a cero, de modo que limn→+∞ R f dFn −R R f dF ≤R2.ε. Como ε > 0 es arbitrario, eso prueba que limn→+∞ R f dFn − R f dF = 0. R RRec´ıprocamente, supongamos que ∀ f ∈ C0 (R) se cumple que R f dFn → R f dF y sea I = (a, b] con a, b puntos de continuidad de F . Para ε > 0 dado, elegimos δ > 0 de tal modo que F (a + δ) − F (a), F (a) − F (a − δ), F (b + δ) − F (b), F (b) − F (b − δ) sean todos <ε. Consideremos las dos funciones continuas f y g (con gr´afico trapezoidal) definidas de la manera siguiente: • f vale 1 en [a, b], vale 0 en [a − δ, b + δ]C y su gr´afico es un segmento de recta en los intervalos [a − δ, a] y [b, b + δ] . • g vale 1 en [a + δ, b − δ], vale 0 en [a, b]C y su gr´afico es un segmento de recta en los intervalos [a, a + δ] y [b − δ, b] . Entonces, dado que g(x) ≤ 1I (x) ≤ f (x) ∀x ∈ R se sigue que Z
Z g dFn ≤ Fn (I) ≤
R
f dFn R
31
(25)
Es obvio que f, g ∈ C0 (R) y que, por lo tanto, el primer miembro y el tercero de (25) tienden respectivamente a Z g dF ≥ F (I) − 2ε R
e
Z f dF ≤ F (I) + 2ε R
Esto prueba que limn→+∞ |Fn (I) − F (I)| ≤ 2ε y termina la prueba de la propiedad 2. 3. Probemos previamente la propiedad siguiente, que tiene inter´es en si misma: Fn =⇒ F propia, si y s´olo si (a) Fn =⇒ F y (b) ∀ε > 0 ∃ A tal que Fn ({x : |x| > A}) < ε ∀n. En efecto, supongamos que Fn =⇒ F propia. Se trata de probar (b). Dado ε > 0, elegimos A1 > 0, de modo que −A1 y A1 sean ambos puntos de continuidad de F y suficientemente grande como para que F (A1 ) − F (−A1 ) > 1 −
ε 2
lo cual es posible porque F es propia. Entonces, como hay convergencia d´ebil, Fn (A1 ) − Fn (−A1 ) → F (A1 ) − F (−A1 ) y ∃ n0 tal que Fn (A1 ) − Fn (−A1 ) > 1 − ε ∀ n ≥ n0 . Para que Fn (A) − Fn (−A) > 1 − ε se cumpla para todo n, basta con elegir A > A1 y adem´as suficientemente grande para verificarla para n = 1, ..., n0 − 1. Finalmente, notar que Fn ({x : |x| > A}) ≤ 1 − [Fn (A) − Fn (−A)]. Rec´ıprocamente, supongamos que se cumplen (a) y (b). Si elegimos en (b) A > 0 de modo que −A y A sean puntos de continuidad de F , podemos pasar al l´ımite en Fn ({x : |x| ≤ A}) > 1 − ε, obteniendo F (R) ≥ F ({x : |x| ≤ A}) > 1 − ε. Esto prueba que F (R) = 1. Probemos ahora la propiedad 3. Supongamos que se cumple que Fn =⇒ F propia y sea ε > 0. Sea A > 0 punto de continuidad de F tal que Fn (A) − Fn (−A) > 1 − ε ∀ n y construimos una funci´on continua (cuyo gr´afico es trapezoidal) gA : R → [0, 1], que vale 1 en el intervalo [−A, A] , 0 fuera de alg´ un intervalo de la forma [−B, B] , con B > A, y tiene por gr´afico un segmento de recta en los intervalos [−B, −A] y [A, B] .
32
Sea f ∈ Cb (R). Es claro que f.gA ∈ C0 (R) y se tiene: Z Z f dFn − f dF R R Z Z Z Z ≤ f gA dFn − f gA dF + f (1 − gA )dFn + f (1 − gA )dF R R ZR ZR ≤ f gA dFn − f gA dF + 2.ε. kf k∞ R
R
Haciendo n → +∞, el primer t´ermino ´ ltimo miembro tiende a R R del u cero, y resulta limn→+∞ R f dFn − R f dF ≤ 2.ε. kf k∞ . R R Rec´ıprocamente, si ∀ f ∈ Cb (R) se cumple que R f dFn → R f dF , es claro que se cumple la definici´on de convergencia d´ebil y tomando f = 1, resulta que F es propia. 4. A cargo del lector. 5. El lector que conozca la dualidad en los espacios de Banach, reconocer´a un caso particular del teorema de Banach-Alaoglou. Damos una demostraci´on directa m´as elemental, basada en el proceso diagonal de Cantor. Como para cada x, {Fn (x)} es una sucesi´on acotada de n´ umeros reales, podemos construir una subsucesi´on {Fnk } con la propiedad de que Fnk (x) converge cuando k → +∞ para todo racional x. Sea Fe(x) =o n limk→+∞ Fn (x) (x ∈ Q) y definamos F (x) = inf Fe(y) : y > x, y ∈ Q . k
Se verifica que F es creciente en sentido amplio y continua por la derecha y que Fnk =⇒ F .
2.2
Transformada de Fourier (funci´ on caracter´ıstica) de medidas de probabilidad en R1 .
Sea µ una medida de probabilidad boreliana en R, posiblemente defectiva. Se define su transformada de Fourier (o funci´on caracter´ıstica), ϕ : R → R mediante Z ϕ(t) = exp(itx) µ(dx). R
Si µ es la distribuci´on de probabilidad de una variable aleatoria real ξ diremos - por extensi´on - tambi´en que ϕ es la transformada de Fourier (o la funci´on caracter´ıstica) de ξ y denotaremos ϕ = ϕξ . 33
2.2.1
Propiedades b´ asicas y ejemplos.
1. ϕ(0) = µ(R), |ϕ(t)| ≤ µ(R) ≤ 1 ∀t ∈ R. 2. ϕ es uniformemente continua. 3. Si a, b son constantes reales y ξ es una variable aleatoria real, entonces ϕaξ+b = exp(itb) ϕξ (at) 4. Si ξ, η son variables aleatorias independientes, entonces ϕξ+η (t) = ϕξ (t).ϕη (t) 5. Ejemplos. 2
• ξ con distribuci´on normal (0, 1) =⇒ ϕξ (t) = exp(− t2 ). • ξ con distribuci´on uniforme en el intervalo (−1, 1) =⇒ ϕξ (t) = sen t t . 1 • ξ con distribuci´on de Cauchy (i.e., con densidad π(1+x =⇒ 2) ) ϕξ (t) = exp(− |t|). • ξ con distribuci´on de Poisson con par´ametro λ > 0 =⇒ ϕξ (t) = exp −λ(1 − eit ) . x • ξ con densidad 1−cos =⇒ ϕξ (t) = (1 − |t|) ∨ 0. πx2 6. Unicidad, continuidad, inversi´ on. La identidad fundamental es la f´ormula de Parseval (pars). Sean F, G distribuciones de probabilidad en la recta y ϕ, ψ sus respectivas transformadas de Fourier.Entonces ∀t ∈ R : Z +∞ Z +∞ −iζt e ϕ(ζ) G(dζ) = ψ(x − t) F (dx) (26) −∞
−∞
La demostraci´on es inmediata, mediante aplicaci´on del teorema de Fubini. Teorema (unicidad).F = G si y s´ olo si ϕ(t) = ψ(t) ∀t ∈ R. Demostraci´on. Es f´acil ver que basta considerar el caso en que ambas distribuciones son propias. Aplicamos (26) tomando para G la distribuci´on normal (0, σ 2 ), con lo 2 2 cual ψ(t) = exp(− σ 2t ).Entonces 2 Z +∞ Z +∞ ζ2 σ 1 σ (x − t)2 −iζt √ exp − e ϕ(ζ) exp − 2 dζ = F (dx) 2π −∞ 2σ 2 2π −∞ (27) 34
Sean ξ, η σ dos variables aleatorias independientes, ξ con distribuci´on F y η σ con distribuci´on normal (0, σ 2 ). El segundo miembro de (27) es la densidad de la variable aleatoria ξ + η 1/σ . Por lo tanto, si a, b son puntos de continuidad de F , se verifica que Z b Z +∞ 1 ζ2 −iζt dt e ϕ(ζ) exp − 2 dζ 2π a 2σ −∞ 2 Z b Z +∞ σ (x − t)2 σ √ exp − F (dx) = P (ξ + η 1/σ ∈ [a, b]) = dt 2 2π a −∞ = P (ξ ∈ [a, b]). cuando σ → +∞, porque η 1/σ → 0 en L2 . Es decir que ϕ determina los incrementos de F en todos los intervalos cuyos extremos son puntos de continuidad de F , y por lo tanto, en todos los intervalos. Esto prueba que ϕ determina a F completamente y, al mismo tiempo, da una f´ormula de inversi´on (c´alculo de F a partir de ϕ), que por el momento no es muy c´omoda y es la siguiente. Z b Z +∞ 1 ζ2 −iζt F (b) − F (a) = lim dt e ϕ(ζ) exp − 2 dζ (28) σ→+∞ 2π a 2σ −∞ para a, b, a < b, puntos de continuidad de F . En particular, si ϕ ∈ L1 , se deduce que F tiene densidad continua f y que ´esta se calcula mediante la f´ormula (m´as agradable): Z +∞ 1 f (x) = e−iζx ϕ(ζ) dζ (29) 2π −∞ En efecto, verificar que si ϕ ∈ L1 , entonces se puede pasar al l´ımite bajo el signo integral en (28) aplicando el teorema de convergencia dominada y resulta Z b Z +∞ 1 F (b) − F (a) = dt e−iζt ϕ(ζ) dζ 2π a −∞ para a, b, a < b, puntos de continuidad de F y, por lo tanto, para toda pareja a, b. Esto prueba que F es absolutamente continua con respecto a la medida de Lebesgue y que la densidad est´a dada por (29). Teorema (L´ evy-Cram´ er). Sea {Fn }n=1,2,... una sucesi´on de distribuciones de probabilidad propias en R {ϕn }n=1,2,... la sucesi´on de las transformadas de Fourier respectivas. 35
Entonces, Fn =⇒ F (propia) si y s´olo si {ϕn }n=1,2,... converge puntualmente y la funci´on l´ımite ϕ es continua en t = 0. En ese caso, ϕ es la transformada de Fourier de F y {ϕn } converge uniformemente en cada compacto. Demostraci´on. Supongamos que Fn =⇒ F (propia). Como la funci´on x exp (itx) = et (x) es continua y acotada, se deduce que para cada t ∈ R: Z +∞ Z +∞ ϕn (t) = exp(itx) Fn (dx)→ exp(itx) F (dx) = ϕ(t) (30) −∞
−∞
y tambi´en ϕ es la transformada de Fourier de F . Como adem´as, si I es un intervalo compacto de la recta, la familia de funciones {et (.)}t∈I es equicontinua, se deduce que la convergencia en (30) es uniforme en cada compacto y ϕ es continua (¡probar cada una de estas afirmaciones!). Probemos el rec´ıproco, es decir, ahora supondremos que {ϕn }n=1,2,... converge puntualmente y la funci´on l´ımite ϕ es continua en t = 0. Seg´ un hemos visto, toda sucesi´on de distribuciones contiene una subsucesi´on que converge d´ebilmente. Por lo tanto, para probar que {Fn } converge d´ebilmente, alcanzar´a con probar que todas las subsucesiones de ella que convergen d´ebilmente, tienen el mismo l´ımite, en cuyo caso, ´este ser´a el l´ımite d´ebil de la sucesi´on entera. Sea entonces {Fnk } una subsucesi´on que converge d´ebilmente y Fnk =⇒ F ∗ (obs´ervese que, a priori, F ∗ podr´ıa ser defectiva). Veremos que F ∗ es independiente de cu´al es la subsucesi´on considerada y, m´as a´ un, ∗ que F es propia y que tiene a la funci´on l´ımite ϕ por transformada de Fourier. Aplicamos la igualdad (27), reemplazando F por Fnk y ϕ por ϕnk . Poniendo t = 0, se obtiene: 2 2 Z +∞ Z +∞ ζ2 σ σ x 1 √ exp − ϕnk (ζ) exp − 2 dζ = Fnk (dx) 2π −∞ 2σ 2 2π −∞ En el segundo miembro, el integrando pertenece a C0 (R) por lo tanto, podemos pasar al l´ımite cuando k → +∞ reemplazando Fnk por F ∗ . En el primer miembro, podemos aplicar el teorema de convergencia dominada, ya que ϕnk (ζ) → ϕ(ζ) para cada ζ y el valor absoluto del 36
ζ2 1 integrando est´a acotado por exp − 2σ 2 , que esta en L (R). Por lo tanto, 2 2 Z +∞ Z +∞ 1 ζ2 σ x √ ϕ(ζ) exp − 2 dζ = exp − F ∗ (dx) 2σ 2 σ 2π −∞ −∞ (31) Hacemos ahora σ ↓ 0. El segundo miembro tiende a F ∗ (R), usando el teorema de Beppo Levi. Como ϕ es continua en ζ = 0, dado ε > 0 podemos elegir δ > 0, de modo que |ζ| < δ =⇒ |ϕ(ζ) − 1| < ε (notar que ϕ(0) = 1). Entonces: Z +∞ 1 ζ2 √ ϕ(ζ) exp − 2 dζ − 1 σ 2π 2σ −∞ Z +∞ 1 ζ2 = √ [ϕ(ζ) − 1] exp − 2 dζ 2σ σ 2π −∞ Z 2 2 ζ ≤ ε+ √ exp − 2 dζ 2σ σ 2π |ζ|≥δ = ε + 2.P (|σξ| ≥ δ) donde ξ es una variable aleatoria normal (0, 1). Se deduce que el primer miembro de (31) tiende a 1 cuando σ → 0. Por lo tanto F ∗ (R) = 1. Pero entonces, la convergencia Fnk =⇒ F ∗ es propia y podemos apli carle el directo de este mismo teorema, es decir que ϕnk converge puntualmente a la transformada de Fourier de F ∗ . Pero, por hip´otesis, ϕnk converge puntualmente a la funci´on ϕ, de modo que ϕ no es otra que la transformada de Fourier de F ∗ y por la vista unicidad, F ∗ no depende de la subsucesi´on. Esto termina la demostraci´on. 7. Propiedades complementarias de las transformadas de Fourier de medidas de probabilidad. R +∞ m • −∞ |x| F (dx) < ∞ para un cierto natural m =⇒ ϕ es de clase C m y Z +∞
ϕ(m) (t) =
(ix)m exp(itx)F (dx).
−∞
Se deduce que si F es la distribuci´on de probabilidad de una variable aleatoria ξ, entonces ϕ(m) (0) = im E (ξ m ) 37
En particular, si E ξ 2 −E(ξ 2 ).
< ∞, entonces ϕ0 (0) = i.E(ξ) y ϕ”(0) =
Para probar esto, proceder progresivamente para m = 1, 2, ..., escribiendo el cociente incremental y pasando al l´ımite mediante aplicaci´on del teorema de convergencia dominada. Utilizar la desigualdad (cuya demostraci´on tambi´en queda a cargo del lector), v´alida para m = 0, 1, 2, ... y t real: m+1 2 m it ≤ |t| e − 1 + it + (it) + .... + (it) 1! 2! m! (m + 1)!
(32)
Una manera de probar esta desigualdad es observar que si gm (t) es la expresi´on cuyo m´odulo figura en el primer miembro, entonces: Z t Z t gm (t) = i gm−1 (s) ds si m ≥ 1, g0 (t) = i eis ds 0
0
• Un rec´ıproco de la propiedad anterior para m = 2. R +∞ Si ∃ ϕ00 (0), entonces −∞ x2 F (dx) < ∞. Para probar esto, escribir ϕ = u + iv, u, v reales. Se tiene: Z +∞ 1 − u(h) 1 − cos(hx) 2 = x F (dx) 2 h h2 x2 −∞ Usando que u0 (0) = 0 y el teorema del valor medio (0 < θ < 1): 1 − u(h) u0 (θh) u0 (θh) 00 h2 = h ≤ θh → u (0) cuando h → 0. Aplicando el lema de Fatou: Z Z +∞ 1 +∞ 2 1 − cos(hx) 2 x F (dx) ≤ limh→0 x F (dx) ≤ u00 (0) 2 2 2 −∞ h x −∞ Esto prueba la afirmaci´on. • (Lema de Riemann-Lebesgue). R f ∈ L1 , ϕ(t) = R exp(itx) f (x) dx =⇒ ϕ(t) → 0 cuando |t| → +∞.
38
• (F´ormula de Plancherel). 2 Sea de Fourier de la densidad f . Entonces R +∞ϕ 2∈ L la transformada R +∞ 2 1 f (x)dx = |ϕ(t)| dt. 2π −∞ −∞ 2 Para probar esto, observar R +∞que |ϕ(t)| es la transformada de Fourier de la densidad g(x) = −∞ f (x − y)f (−y)dy y aplicar la f´ormula de R +∞ 2 1 inversi´on (en x = 0): g(0) = 2π −∞ |ϕ(t)| dt.
M´as a´ un, el lector verificar´a que si ϕ ∈ L2 es la transformada de Fourier de una medida de probabilidad µ, entonces µ es absolutamente continua con respecto a la medida de Lebesgue y su densidad f verifica lo anterior. Para esto, sea Y una variable aleatoria real, con distribuci´on de probabilidad µ y ξ una variable aleatoria con distribuci´on normal (0, 1), independiente de Y . Escribir la densidad fσ de la variable aleatoria Y + σξ, donde σ > 0 y luego pasar al l´ımite cuando σ → 0. • (Propiedades aritm´eticas). Sea ϕ la transformada de Fourier de una distribuci´on de probabilidad propia F . Entonces hay tres posibilidades mutuamente excluyentes: (a) |ϕ(t)| < 1 ∀ t 6= 0. (b) |ϕ(t)| = 1 ∀ t ∈ R y en ese caso F = δ {b} para alg´ un b ∈ R. (c) ∃ θ > 0 tal que |ϕ(θ)| = 1 y |ϕ(t)| < 1 ∀ t ∈ (0, θ) y en ese caso, ϕ es peri´odica de per´ıodo θ y ∃ un n´ umero real b tal que F (x + b) es la 2πdistribuci´on de una medida concentrada en los puntos de la forma eticas”, est´an conθ m : m entero .(estas medidas se llaman ”aritm´ centradas en los puntos de una progresi´on aritm´etica). Para probar esto, supongamos que |ϕ(t0 )| = 1 para alg´ un t0 > 0. Sea ϕ(t0 ) = exp(ib), a real. Entonces ϕ e (t) = exp(−ib).ϕ(t) es tambi´en la transformada de Fourier de una distribuci´on de probabilidad (observar que si ϕ es la transformada de Fourier de la variable aleatoria ξ, entonces ϕ e lo es de ξ − b). Entonces: Z +∞ 0=1−ϕ e (t0 ) = Re [1 − ϕ e (t0 )] = [1 − cos(t0 x)] Fe(dx) −∞
lo cual s´olo es posible si Fe est´a concentrada en los puntos de la forma o n 2π e e es peri´odica t0 m : m entero . Notar que F (x) = F (x+b). Pero entonces ϕ de per´ıodo t0 y lo mismo vale para ϕ. 39
Si el conjunto C = {t : |ϕ(t)| = 1, t > 0} no es vac´ıo, sea θ = inf(C). Si θ = 0, ϕ resulta peri´odica con per´ıodos positivos arbitrariamente peque˜ nos, y como es continua, es constante e igual a 1. Si θ > 0 estamos en el caso (c).
2.3
Teorema del L´ımite Central 1.
Teorema. Sea {ξ n }n=1,2,... una sucesi´on de variables aleatorias independientes con igual distribuci´on F . Suponemos que E(ξ n ) = µ, V ar(ξ n ) = σ 2 . Se define: S0 = 0, Sn = ξ 1 + ... + ξ n (n ≥ 1). Entonces, Sn − nµ √ =⇒ N (0, 1) σ n
cuando n → +∞
(es decir que la distribuci´on de las sumas parciales normalizadas converge d´ebilmente a la distribuci´on normal t´ıpica). Demostraci´on. Sea Fn la distribuci´on de probabilidad de
Sn √ −nµ σ n
Sn √ −nµ σ n
y ϕ
Fourier de η = ξ1σ−µ (resp. Fn ). Notar que tanto, ϕ(ζ) = 1 − 12 ζ 2 + o(ζ 2 ) cuando ζ → 0.
(resp. ϕn ) la transformada de E(η) = 0 y E(η 2 ) = 1 y, por lo Aplicando el teorema de L´evy-Cram´er bastar´a probar que ϕn (t) → exp(−
t2 ) 2
2
cuando n → +∞, ya que exp(− t2 ) es la transformada de Fourier de la distribuci´on normal t´ıpica. Usando las propiedades vistas de la transformada de Fourier, se verifica que: n 2 n t t2 t t2 √ ϕn (t) = ϕ = 1− +o → exp(− ) cuando n → +∞ 2n 2n 2 n .
2.4
Teorema del L´ımite Central 2.
Teorema de Lindeberg. Sea {ξ k }k=1,2,... una sucesi´on de variables aleatorias independientes. Denotamos por Fk (resp. ϕk ) la funci´on de distribuci´on (resp. la transformada de Fourier) de ξ k . Suponemos que E(ξ k ) = 0, V ar(ξ k ) = σ 2k < ∞. 40
Se define: S0 = 0, Sn = ξ 1 + ... + ξ n (n ≥ 1) y denotamos Vn = Pn 1 1 2 2 [V ar(Sn )] 2 = k=1 σ k . Entonces, si se cumple la condici´on (llamada ”de Lindeberg”): ∀δ > 0,
θn (δ) =
n 1 X E ξ 2k 1{|ξk |≥δVn } → 0 2 Vn
cuando n → +∞ (33)
k=1
entonces
Sn =⇒ N (0, 1) Vn
cuando n → +∞
Demostraci´on. La demostraci´on consiste en aplicar el teorema de L´evy Cram´er, probando 2 que la transformada de Fourier de SVnn converge puntualmente a exp(− t2 ), que es la trasformada de Fourier de la distribuci´on normal t´ıpica. Fijemos entonces t ∈ R para el resto de la demostraci´on. Usando las hip´otesis sobre Fk , se tiene, usando (32) y la definici´on de θn (δ) Z +∞ itx itx ϕk t − 1 = exp −1− Fk (dx) Vn Vn Vn −∞ Z +∞ itx itx ≤ exp Vn − 1 − Vn Fk (dx) −∞ Z +∞ 2 t2 σ 2k 1 tx ≤ Fk (dx) = Vn 2Vn2 −∞ 2 t2 2 ≤ δ + θn (δ) 2 Como δ > 0 se puede elegir de manera arbitraria, la condici´on de Lindeberg implica que t sup ϕk − 1 → 0 cuando n → +∞. (34) Vn 1≤k≤n Por lo tanto, sih n es grande, est´a bien definida la rama suficientemente i t principal de log ϕk Vn ∀k = 1, ..., n y podemos escribir la transformada de Fourier de
Sn Vn
mediante:
" n # n Y X t t t ϕ Sn (t) = ϕSn ( ) = ϕk ( ) = exp log ϕk ( ) Vn Vn Vn Vn k=1
k=1
41
2
En lo que sigue, probamos que el exponente tiende a − t2 cuando n → +∞. Primero, de aqu´ı en adelante, elegimos n suficientemente grande de modo que 1 t sup ϕk − 1 < Vn 2 1≤k≤n lo cual es posible en virtud de (34). Por lo tanto, ∀k = 1, ..., n podemos escribir el desarrollo de Taylor t t t 2 log ϕk ( ) = − 1 − ϕk ( ) + A(k, n, t) 1 − ϕk ( ) Vn Vn Vn
donde A(k, n, t) est´a acotado por una constante universal. Entonces ( X ) n n X t t t 2 log ϕk ( ) = − 1 − ϕk ( ) + A(k, n, t) 1 − ϕk ( ) Vn Vn Vn k=1
k=1
Usando las cotas anteriores, " # n n X σ 2k X t 2 1 2 t 1 − ϕk ( ) ≤ t sup 1 − ϕk ( Vn ) 2 Vn 2 1≤k≤n Vn k=1
k=1
Asimismo, desarrollando por Taylor y usando la hip´otesis sobre la distribuci´on Fk : t2 σ 2k t 1 − ϕk ( ) = − Rk,n Vn 2Vn2 y reemplazando: n X k=1
n t 1 2 X − 1 − ϕk ( ) = − t + Rk,n Vn 2 k=1
n n X X 1 − ϕk ( t ) ≤ 1 t2 + |Rk,n | Vn 2 k=1
k=1
Si probamos que n X
|Rk,n | → 0
cuando
k=1
42
n → +∞
(35)
resulta entonces la tesis con un c´alculo elemental de l´ımites. Para esto, fijemos ε > 0. Tenemos: # Z +∞ " itx 1 itx 2 itx −1− − |Rk,n | = exp Fk (dx) ≤ |Sk,n | + |Tk,n | Vn Vn 2 Vn −∞ R R donde Sk,n = |x|≥εVn y Tk,n = |x|<εVn . Para el primer t´ermino: " # Z 1 tx 2 itx itx exp + |Sk,n | ≤ −1− Fk (dx) Vn Vn 2 Vn |x|≥εVn Z t2 ≤ x2 Fk (dx) Vn2 |x|≥εVn aplicando la desigualdad (32) para m = 2. Para el segundo t´ermino, aplicamos la misma desigualdad para m = 3 : 3 3 Z 1 t x F (dx) |Tk,n | ≤ 3 k |x|<εVn 3! Vn Z 1 3 x2 1 3 σ 2k ≤ |t| ε F (dx) ≤ |t| ε 2 k 2 3! 3! Vn |x|<εVn Vn Resumiendo, n X k=1
n Z t2 X 1 1 |Rk,n | ≤ 2 x2 Fk (dx) + |t|3 ε = t2 θn (δ) + |t|3 ε Vn 3! 3! |x|≥εVn k=1
lo que implica, en raz´on de la condici´on de Lindeberg: limn→+∞
n X
|Rk,n | ≤
k=1
1 3 |t| ε 3!
Como t es fijo y ε > 0 es arbitrario, se sigue el resultado. 2.4.1
Rec´ıproco parcial del Teorema de Lindeberg.
Teorema. Sea {ξ k }k=1,2,... una sucesi´on de variables aleatorias independientes. Suponemos que E(ξ k ) = 0, V ar(ξ k ) = σ 2k < ∞ y usamos la misma notaci´on que en el teorema anterior. 43
Si se verifica que Sn =⇒ N (0, 1) Vn
cuando n → +∞
y ademas σVnn → 0 y Vn → +∞, entonces se cumple la condici´on de Lindeberg (33). Demostraci´on. Primero, probar que σ 2k →0 2 1≤k≤n Vn sup
cuando n → +∞
y deducir de aqu´ı (mediante c´alculos iguales a los de la demostraci´on del teorema de Lindeberg) que n X k=1
X n t t log ϕk ( ) + 1 − ϕk ( ) → 0 Vn Vn
cuando n → +∞
k=1
2
El primer t´ermino tiende a − t2 , de modo que tomando partes reales, se tiene, para δ > 0 y t fijos, que n Z t2 X tx − 1 − cos( ) Fk (dx) 2 Vn k=1 |x|<δVn n Z X tx = 1 − cos( ) Fk (dx) + o(1) Vn |x|≥δVn k=1
cuando n → +∞. En el segundo miembro, el integrando est´a acotado por 2 2 2x2 y en el primer miembro, el integrando est´a acotado por t2Vx2 . Dividiendo δ2 V 2 n
por
n
t2 2
resulta que θn (δ) ≤
4 δ 2 t2
+ o(1)
Como se puede elegir t arbitrariamente grande, esto prueba que θn (δ) → 0. 2.4.2
Condici´ on de Liapunov.
Sea mα,k = E (|ξ k |α ) El momento de orden α de la k-´esima variable de la sucesi´on de sumandos dada. 44
La ”condici´on de Liapunov” es que ∃α > 2 tal que mα,k < ∞∀k y adem´as
n X
mα,k = o(Vnα )
cuando n → +∞
k=1
(36) El lector podr´a comprobar que la condici´on de Liapunov implica la condici´on de Lindeberg y, por lo tanto, que se cumple el Teorema del L´ımite Central. En muchas situaciones, es m´as c´omodo verificar la condici´on de Liapunov que la de Lindeberg.
2.5
Teorema del L´ımite Central 3. Martingalas.
En esta secci´on, demostraremos un Teorema del L´ımite Central de tipo Lindeberg, pero para sumas parciales de variables que no tienen porqu´e ser independientes, con tal que esas sumas parciales sean una martingala. Esto abre un extenso cap´ıtulo relativo a la convergencia d´ebil de las distribuciones de las sumas parciales de variables dependientes, del que solamente daremos el resultado contenido en esta secci´on. Teorema (del L´ımite Central para Martingalas). Sea {Mn }n=0,1,2,... una martingala de cuadrado integrable con respecto a la filtraci´on {Fn }n=0,1,2,... . Para cada n = 0, 1, 2, ... ponemos ∆n = Mn+1 − Mn y σ 2n = E ∆2n /Fn .
Suponemos adem´as que existe una constante positiva K tal que E |∆n |3 /Fn ≤ K ∀n. Pn−1 2 Denotamos por hM i = n k=0 σ k el compensador de la submartingala 2 Mn n=0,1,2,... . Entonces, si la sucesi´on de variables aleatorias n1 hM in converge en probabilidad a la constante σ 2 > 0, se cumple que 1 √ Mn =⇒ N (0, σ 2 ) n Demostraci´on. Es inmediato que no hay inconveniente en suponer que M0 = 0. Del mismo modo, alcanza con considerar el caso K = 1 (si no es as´ı, multiplicar la martingala por una constante apropiada). Observemos adem´as que, usando la desigualdad de Jensen para esperanzas condicionales, es 3 σ 3n = E ∆2n /Fn 2 ≤ E |∆n |3 /Fn ≤ 1 45
de modo que 0 ≤ σ n ≤ 1 ∀n y por lo tanto, tambi´en se cumple que 0 ≤ 1 n hM in ≤ 1 ∀n. Aplicamos el teorema de L´evy-Cram´er y por lo tanto, basta probar que para cada t ∈ R fijo, se verifica: Mn t2 σ 2 lim E exp it √ + = 1. (37) n→+∞ 2 n Para probar (37), veamos que existe una constante universal K1 tal que ∀t ∈ [−1, 1] se verifica t2 hM in E exp itMn + = 1 + vn con |vn | ≤ nK1 t3 exp(nt2 ) (38) 2 Reemplazando en (38) t por
√t n
resulta que para cada t ∈ R :
t2 hM in Mn lim E exp it √ + =1 n→+∞ 2n n
y (37) resulta de 2 2 2 t hM i t σ n →0 E exp − exp 2 2n
cuando n → +∞.
Esto u ´ltimo se deduce, a su vez, de que para t fijo, 2 2 2 t hM in t σ Zn (t) = exp − exp 2 2n tiende a cero en probabilidad y que la sucesi´on de variables aleatorias {Zn (t)} 2 est´a acotada uniformemente por la constante exp( t2 ), de modo que es posible aplicar el teorema de convergencia dominada. De modo que se trata de probar (38). Para ello, usamos la f´ ormula de Taylor para probar que si x, t ∈ R, y ∈ [0, 1], entonces t2 x2 f (t) = exp itx + t2 y = 1 + itx − + t2 y + R(t, x, y) 2
(39)
donde |R(t, x, y)| ≤ K2 (1 + |x|3 )t3 exp(t2 ). 0 ´ (t), f 00 (t) = [Este es2 un c´ alculo inmediato, ya que 3f (t) = (ix + 2ty)f 000 (ix + 2ty) + 2y f (t), f (t) = (ix + 2ty) + 6y(ix + 2ty) f (t)] Fijemos t ∈ R en lo que sigue. 46
Sean: Yn Zn
t2 hM in = exp itMn + 2 2 2 t σn = exp it∆n + 2
de modo que Yn+1 = Yn Zn . Usando (39) y teniendo en cuenta las hip´otesis: E (Yn+1 /Fn ) = Yn E (Zn /Fn ) t2 2 2 2 = Yn E 1 + it∆n − ∆n − σ n + + R(t, ∆n , σ n )/Fn 2 = Yn 1 + E R(t, ∆n , σ 2n )/Fn = Yn [1 + αn ] donde |αn | ≤ 2K2 t3 exp(t2 ). Ponemos ahora K1 = 2K2 y probamos (38) por inducci´on completa en n. Observar que 1 + vn+1 = E (Yn [1 + αn ]) = 1 + vn + E(Yn αn ) 2 y que |Yn | ≤ exp t 2n . Por lo tanto, admitiendo la desigualdad para n : 3
2
|vn+1 | ≤ nK1 t exp(nt ) + exp
t2 n 2
K1 t3 exp(t2 ) ≤ (n + 1)K1 t3 exp(nt2 )
Esto prueba (38) y, por lo tanto, concluye la demostraci´on. Ejemplo. Sea {ξ k }k=1,2,... una sucesi´on de variables aleatorias independientes, que supondremos uniformemente acotadas por una cierta constante C y Sn = ξ 1 + ... + ξ n (n ≥ 1). Suponemos que E(ξ k ) = µ 6= 0, V ar(ξ k ) = 1. Consideremos la sucesi´on {Mn }, definida por: M1 = S1 ,
Mn = Mn−1 +
1 Sn−1 (ξ n − µ) n−1
para n ≥ 2
(40)
Es inmediato verificar que {Mn }n=1,2,... es una martingala con respecto S n a la filtraci´on engendrada por la sucesi´on {ξ k }. Dado que la sucesi´ o n n es acotada por la constante C, se deduce que E |∆n |3 /Fn ≤ C 4 . 47
Por otra parte, σ 2n
=E
∆2n /Fn
=E
Sn n
2
! 2
(ξ n − µ) /Fn
=
Sn n
2
En virtud de la ley fuerte de los grandes n´ umeros, casi seguramente Snn → µ 1 1 Pn cuando n → +∞. Por lo tanto n hM in = n k=1 σ 2k → µ2 > 0 y el teorema anterior implica que √1n Mn =⇒ N (0, µ2 ). No parece obvio reducir este tipo de resultado a las sumas de variables aleatorias independientes. Obs´ervese adem´as que este ejemplo se puede extender de varias maneras, a modelos m´as generales, en los que se obtiene un resultado similar. Por ejemplo, si en lugar de (40) se pone Sn−1 M1 = S1 , Mn = Mn−1 + H (ξ n − µ) para n ≥ 2 (41) n−1 y en lugar de la condici´on µ 6= 0 ponemos H(µ) 6= 0, se obtiene el mismo resultado, cambiando µ2 por [H(µ)]2 . Las ecuaciones de recurrencia (40) o (41) son casos particulares de ”modelos autorregresivos” no lineales, en los que el estado del sistema en el instante n se obtiene a partir del estado en el instante n − 1 m´as una pertur´ baci´on aleatoria. Esta u ´ltima contiene al ”ruido” o ”innovaci´on” (ξ n − µ) independiente de lo ocurrido hasta el instante anterior - amplificado por una funci´on del pasado (que en algunos contextos se denomina la ”volatilidad”), Sn−1 que para el ejemplo es de la forma H n−1 , pero que podr´ıa ser distinta.
2.6
Velocidad de convergencia. Teorema de Berry-Essen.
Existe una gran variedad de teoremas que permiten estimar la velocidad de convergencia en el Teorema del L´ımite Central y otros resultados relacionados. Nos limitamos aqu´ı a un s´olo resultado. Por mayores detalles, se puede consultar, por ejemplo, el libro de V. Petrov. Teorema (Berry-Essen). Sea {ξ n }n=1,2,... una sucesi´on de variables aleatorias independientes con igual distribuci´on F , E(ξ n ) = 0, V ar(ξ n ) = σ 2 < ∞. Como antes, S0 = 0, Sn = ξ 1 + ... + ξ n (n ≥ 1). Suponemos adem´as que µ3 = E(|ξ n |3 ) < ∞ 48
Sea Fn la funci´on de distribuci´on de probabilidad de σS√nn y Φ la funci´on de distribuci´on normal t´ıpica, i.e. Z x Sn 1 y2 exp(− ) dy Fn (x) = P ( √ ≤ x) y Φ(x) = √ 2 σ n 2π −∞ Entonces, sup |Fn (x) − Φ(x)| ≤ x∈R
33 µ3 √ 4 σ3 n
La demostraci´on est´a basada en el Lema siguiente. Lema. Sea F la distribuci´on de probabilidad de una variable aleatoria ξ a valores en R y ϕ su transformada de Fourier. Sea G : R → R una funci´on de clase C 1 , G(−∞) = 0, G(+∞) = 1, G0 = g, kgk∞ ≤ m. Denotamos por γ la transformada de Fourier de g, i.e., γ(t) = R +∞ as, γ ∈ C 1 , γ(0) = −∞ exp(itx)g(x)dx que suponemos bien definida y, adem´ 1, γ 0 (0) = 0. Entonces, para todo T > 0 : Z 1 T ϕ(t) − γ(t) 24.m sup |F (x) − G(x)| ≤ dt + (42) π −T t πT x∈R Demostraci´on. Paso 1. Sean w1 la funci´on (”de Slepian”) w1 (t) = (1 − |t|) ∨ 0 y para T > 0, t wT (t) = w1 T wT es la transformada de Fourier de la medida de probabilidad µT cuya densidad es 1 − cos(T x) vT (x) = . πT x2 Sean fT , gT las densidades de las convoluciones FT = µT ∗ F y GT = µT ∗ G respectivamente y ϕT , γ T sus transformadas de Fourier. Se tiene ϕT = wT .ϕ 49
γ T = wT .γ
y usando la f´ormula de inversi´on: Z +∞ 1 exp (−ixt) [ϕ(t) − γ(t)] wT (t) dt fT (x) − gT (x) = 2π −∞ De aqu´ı se deduce la igualdad: Z +∞ 1 ϕ(t) − γ(t) FT (x) − GT (x) = exp (−ixt) wT (t) dt 2π −∞ −it
(43)
(44)
ya que derivando ambos miembros de (44) se obtiene ambos miembros de (43) respectivamente, y adem´as, ambos miembros de (44) se anulan en −∞: el primero por definici´on de las funciones de distribuci´on y el segundo en virtud del Lema de Riemann-Lebesgue. Se deduce que 1 |FT (x) − GT (x)| ≤ 2π
Z
+∞
−∞
ϕ(t) − γ(t) dt t
(45)
Paso 2. Usamos las siguientes notaciones: ∆ = F − G, ∆T = FT − GT , η = k∆k∞ , η T = k∆T k∞ Se tiene: Z
+∞
∆(t − x)vT (x)dx
∆T (t) = −∞
Z ≥ −η
Z
+h
∆(t − x)vT (x)dx
vT (x)dx + |x|>h
−h
donde elegiremos luego h > 0. Por un lado: Z +∞ Z Z dx 4 4 4 vT (x)dx ≤ = =⇒ vT (x)dx ≥ 1 − . 2 πT x πT h πT h h |x|≤h |x|>h Como ∆(+∞) = ∆(−∞) = 0 y ∆ posee l´ımites laterales, se deduce que ∃x0 tal que η = ∆(x+ o η = ∆(x− 0) ´ 0 ). Entonces, si s > 0 : ∆(x0 + s) − η = F (x0 + s) − F (x0 ) + G(x0 + s) − G(x0 ) ≥ −ms (aqu´ı, en cada caso, cuando corresponda habr´a que poner o bien x0 , o bien − x+ 0 o bien x0 ). 50
Sea t = x0 + h. Si |x| < h =⇒ t − x > t − h = x0 y si s = t − x − x0 : ηT
Z
4 ≥ ∆T (t) ≥ −η + πT h
+h
[η − m(t − x − x0 )] vT (x)dx −h Z +h
4 + [η − mh] vT (x)dx πT h −h 4 4 + [η − mh] 1 − ≥ −η πT h πT h = −η
Eligiendo h =
η 2m
resulta η T ≥
η 2
−
12.m πT
y usando (45): Z 24.m 1 +∞ ϕ(t) − γ(t) 24.m η ≤ 2η T + ≤ dt + πT π −∞ t πT
lo que prueba el Lema. Demostraci´on del Teorema de Berry-Essen. Aplicamos el Lemma, reemplazando F por Fn y G por la distribuci´on normal Φ. Entonces 2 Z 1 T n t t 1 24 √ √ sup |Fn (x) − Φ(x)| ≤ ϕ − exp − dt + π −T 2 |t| σ n Tπ π x∈R (46) Usando la desigualdad (verficaci´on sencilla a cargo del lector) σ 6 < µ23 , re2 sulta que |1 − ϕ(t)| ≤ 21 σ 2 t2 . Por lo tanto, |t| < σµ implica que |1 − ϕ(t)| ≤ 3 1 en la validez del desarrollo en serie: 2 y tambi´ − log ϕ(t) =
∞ X 1 [1 − ϕ(t)]k k k=1
donde log representa la rama principal del logaritmo. 2 Se deduce que si |t| < σµ , entonces 3
log ϕ(t) + 1 σ 2 t2 ≤ 1 µ3 |t|3 + 1 σ 4 t4 ≤ 5 µ3 |t|3 6 2 4 12 Para terminar, poner en (46) T =
σ3 √ µ3 n
y usar la acotaci´on simple et − 1 ≤
|t| .e|t| para obtener la conclusi´on del teorema (estos c´alculos finales quedan a cargo del lector).
51
2.7
Convergencia d´ ebil de medidas de probabilidad en Rd , d > 1.
Toda la teor´ıa anterior se extiende sin mayores dificultades a Rd para d > 1. (Convergencia d´ebil de medidas de probabilidad, transformada de Fourier, teoremas del l´ımite central). No habremos de dar detalles aqu´ı, sino indicar solamente algunos puntos, sin demostraciones, que por otra parte son enteramente similares a las que hemos expuesto en dimensi´on 1. 1. Para la definici´on de convergencia d´ebil (todas las medidas son medidas de Borel en Rd ) podemos adoptar la siguiente definici´on. Una sucesi´on {Fn }n=1,2,... de medidas de probabilidad en Rd converge d´ebilmente a F (medida de probabilidad propia) si para todo conjunto de Borel B tal que F (∂B) = 0, se tiene que Fn (B) → F (B) cuando n → +∞. Se denota Fn =⇒ F . R R Se verifica que Fn =⇒ F (propia) si y s´olo si Rd f dFn → Rd f dF ∀f continua y acotada. 2. Se define la transformada de Fourier de F (o de una variable aleatoria X a valores en Rd que tiene la distribuci´on F - es decir que para todo boreliano B es P (X ∈ B) = F (B) - mediante: Z ϕX (t) = ϕ(t) = exp [i ht, xi] F (dx), t ∈ Rd Rd
Aqu´ı, h, i denota el producto escalar usual en Rd . Un caso particular importante es el de la distribuci´on normal en Rd . Se dice que X es una variable aleatoria a valores en Rd con distribuci´on normal, si su transformada de Fourier ϕX tiene la forma: 1 ϕX (t) = exp i ht, µi − hΣt, ti 2 donde µ ∈ Rd y Σ es una matriz sim´etrica, definida no negativa con d filas y d columnas. Se verifica sin mucha dificultad que, en este caso E(X) = µ, V ar(X) = Σ donde las definiciones de la esperanza y la varianza para variables aleatorias vectoriales es la siguiente, siempre y cuando existan cada una de las esperanzas que figuran: 52
Si en una base ortonormal de Rd el vector X se escribe X = (X1 , ..., Xd )T , entonces E(X) = (E(X1 ), ..., E(Xd ))T V ar(X) = ((Σjk ))j,k=1,...,d
Σjk = E [(Xj − E(Xj ))(Xk − E(Xk ))]
con
o lo que es lo mismo V ar(X) = E (X − E(X))(X − E(X)T ) . 3. Se verifican propiedades an´alogas a las que vimos en dimensi´on 1, incluyendo los teoremas de unicidad, f´ormula de inversi´on y pasaje al l´ımite (teorema de L´evy-Cram´er). En particular, la f´ormula de inversi´on m´as c´omoda adquiere la forma siguiente: si ϕ ∈ L1 (Rd , λd ) (donde λd denota la medida de Lebesgue), entonces F tiene una densidad continua f que est´a dada por la f´ormula Z 1 f (x) = exp [−i ht, xi] ϕ(t) dt (2π)d Rd En el caso particular de la distribuci´on normal con par´ametros µ, Σ, se verifica f´acilmente que si Σ es definida positiva, entonces vale esta f´ormula de inversi´on y f (x) =
1 d 2
(2π) [det(Σ)]
1 2
exp (x − µ)T Σ−1 (x − µ)
y si Σ, en cambio, es singular, entonces la distribuci´on no tiene densidad y est´a concentrada en una variedad af´ın de dimensi´on menor que d. 4. Con los mismos m´etodos, se prueba el teorema del l´ımite central. Por ejemplo, en el caso de sumas de variables aleatorias independientes con igual distribuci´on, se tiene el enunciado siguiente: Sea ξ 1 , ξ 2 , .... una sucesi´on de variables aleatorias independientes a valores en Rd , con igual distribuci´on, E(ξ n ) = 0, V ar(ξ n ) = Σ. Definimos la sucesi´on de Sn sumas parciales Sn = ξ 1 + ... + ξ n , para n ≥ 1. Entonces, √ converge n d´ebilmente a la distribuci´on normal en Rd , con media µ = 0 y matriz de varianza Σ.
53
2.8
Grandes desviaciones.
Sea {ξ k }k=1,2,... una sucesi´on de variables aleatorias independientes y supongamos que E(ξ k ) = µ, V ar(ξ k ) = σ 2 y pongamos como antes Sn = ξ 1 +...+ξ n (n ≥ 1). Entonces, bajo ciertas condiciones, hemos probado que la distribuci´on de las sumas parciales normalizadas Sσn√−µ converge d´ebilmente a n la distribuci´on normal t´ıpica. Como sabemos esto significa que si a, b ∈ R, a < b, son n´ umeros reales fijos entonces 2 Z b Sn − nµ 1 x √ P a< ≤b → √ exp − dx (47) 2 σ n 2π a cuando n → +∞. Este tipo de resultado es insuficiente para muchas aplicaciones relevantes. Por ejemplo, sabemos que en virtud de la ley d´ebil de los grandes n´ umeros ∀ε > 0, Sn αn (ε) = P − µ ≥ ε → 0 n cuando n → +∞. Se suele decir que αn (ε) es la probabilidad del ”intervalo de confianza de radio ε para la media µ”. Dicho de otro modo, en esta aplicaci´on estad´ıstica sencilla de la ley de los grandes n´ umeros, estaremos interesados en saber, para cada ε > 0, el valor de αn (ε), o por lo menos, con qu´e velocidad αn (ε) tiende a cero cuando n → +∞. Nos interesa saber de que tama˜ no deber´ıamos elegir n (es decir, de que tama˜ no debe ser la muestra que habremos de observar) para que la probabilidad de cometer un error mayor que ε, cuando reemplazamos la media te´orica µ por la media emp´ırica Snn , no supere un valor prestablecido. Si intentamos aplicar el Teorema del L´ımite Central para calcular - o aproximar - el valor de αn (ε), vemos que Sn − nµ ε√ ε√ √ n n< < αn (ε) = 1 − P − σ σ σ n y deber´ıamos poder calcular el equivalente de esta expresi´on cuando n → √ √ +∞, con la complicaci´on de que a = − σε n, b = σε n no son fijos, sino que var´ıan con n. En estas condiciones, no es m´as cierto de que los complementos a 1 de ambos miembros de (47) sean infinit´esimos equivalentes y debemos introducir otros m´etodos para estudiar el problema.
54
En esta secci´on habremos de limitarnos a enunciar y probar un teorema sobre esta cuesti´on, que es un tema vasto y con una gran diversidad de aplicaciones. Preliminares. Transformada de Cram´ er (tambi´ en llamada de Fenchel-Legendre). Sea F la distribuci´on de probabilidad de una variable aleatoria a valores reales X. En lo que sigue, supondremos que E (X) = m y que la distribuci´on F no se reduce a la delta de Dirac en el punto m. Se define la transformada de Laplace de la distribuci´on F mediante Z +∞ exp(tx) F (dx) ΦF (t) = E (exp(tX)) = −∞
y denotamos por J = {t ∈ R : ΦF (t) < ∞}. Es claro que ΦF (t) > 0 ∀t ∈ R. Es claro que J es un intervalo, que en principio puede reducirse al punto {0}. Habremos de suponer de aqu´ı en adelante, a los efectos de simplificar la exposici´on, que si denotamos αF = inf(J), β F = sup(J), entonces el intervalo abierto (αF , β F ) no es vac´ıo y contiene al origen. Puede ocurrir que αF = −∞ o β F = +∞. El lector verificar´a sin dificultad que esta hip´otesis implica que todos los momentos de F son finitos. Tambi´en definimos ΨF : (αF , β F ) → R mediante ΨF (t) = log [ΦF (t)]. Entonces la transformada de Cram´er de F es la funci´on hF : R → R hF (a) = sup {at − ΨF (t) : t ∈ (αF , β F )} Obs´ervese que hF (a) puede valer +∞. Veamos algunas propiedades b´asicas de las funciones as´ı definidas. • Ψ es estrictamente convexa en (αF , β F ). Es claro que ΨF es infinitamente derivable (verificaci´on a cargo del lector) y que Ψ00F (t) =
Φ00F (t)ΦF (t) − [Φ0F (t)]2 [ΦF (t)]2
Adem´as, 2 Φ00F (t)ΦF (t) − Φ0F (t) Z +∞ Z = x2 exp(tx) F (dx). −∞
+∞
−∞
55
Z exp(tx) F (dx) −
(48) 2 +∞ x. exp(tx) F (dx) ≥ 0
−∞
mediante aplicaci´on de la desigualdad de Cauchy-Schwartz. En la u ´ltima desigualdad, la igualdad ocurre si y s´olo si las funciones f (x) = 1 y g(x) = x ∀x ∈ R son linealmente dependientes en el espacio L2 (R, B, Ft ), donde Ft es la medida Ft (dx) = exp(tx) F (dx), lo cual quiere decir que ∃ constantes C1 , C2 , no ambas nulas, tales que Z +∞ (C1 + C2 .x)2 exp(tx) F (dx) = 0 (49) −∞
Es claro que no puede ser C2 = 0 en (49). Adem´as, esta igualdad implica que F est´e concentrada en el punto −C1 /C2 , lo cual no es posible por la hip´otesis que hicimos sobre F . En consecuencia no puede ocurrir la igualdad en (48) y por lo tanto Ψ00F (t) > 0 ∀t ∈ (αF , β F ). Esto prueba que ΨF es estrictamente convexa. • Observar que si parametrizamos con la esperanza m la distribuci´on usamos la notaci´on Fm para la distribuci´on de X y por lo tanto F0 es la distribuci´on de X − m - entonces ΨFm (t) = mt + ΨF0 (t) =⇒ hFm (a) = hF0 (a − m). • Bajo las hip´otesis que hemos hecho, podemos calcular la transformada de Cram´er mediante las f´ormulas siguientes: (a) Si Ψ0F (αF ) < a < Ψ0F (β F ), entonces el m´aximo de la funci´on t at − ΨF (t) ocurre en el interior del intervalo (αF , β F ), en el punto t = (Ψ0F )−1 (a) y vale h i −1 −1 hF (a) = a. Ψ0F (a) − ΨF Ψ0F (a) (b) Si a ≥ Ψ0F (β F ), entonces hF (a) = a.β F − ΨF (β F ). (c) Si a ≤ Ψ0F (αF ), entonces hF (a) = a.αF − ΨF (αF ). • El lector verificar´a f´acilmente que si Ψ0F (αF ) < a < Ψ0F (β F ), entonces h0F (a) = Ψ0F
−1
(a)
y h00F (a) =
1 Ψ00F
h
Ψ0F
−1
i (a)
Por lo tanto, hF es estrictamente convexa en el intervalo (Ψ0F (αF ), Ψ0F (β F )). • Tambi´en dejamos a cargo del lector la verificaci´on de que Ψ0F (0) = m 56
y hF (m) = 0.
• Finalmente, observemos que si a > m, entonces hF (a) = sup {at − ΨF (t) : t ∈ (0, β F )} En efecto, a > m =⇒ (Ψ0F )−1 (a) > (Ψ0F )−1 (m) = 0. O bien el punto en el que ocurre el m´aximo de la funci´on t at − ΨF (t) est´a en el −1 0 interior de (αF , β F ) y es (ΨF ) (a),o bien el supremo se alcanza para t ↑ βF .
Teorema (Chernof ). Sea {ξ k }k=1,2,... una sucesi´on de variables aleatorias independientes a valores reales con igual distribuci´on F y supongamos que E(ξ k ) = m y Sn = ξ 1 + ... + ξ n (n ≥ 1). Con la misma notaci´on que antes, suponemos que 0 ∈ J 0 (interior del intervalo J). Entonces: (a) a > m =⇒ P Snn ≥ a ≤ exp [−n.hF (a)] a < m =⇒ P Snn ≤ a ≤ exp [−n.hF (a)] En ambos casos es hF (a) > 0. (b) m < a < Ψ0F (β F ) =⇒ limn→+∞ n1 log P Ψ0F (αF ) < a < m =⇒ limn→+∞ n1 log P
Sn n ≥ a Sn n ≤a
= −hF (a) = −hF (a).
Demostraci´on. Basta considerar el caso a > m. [Si a < m, reemplazar ξ k por −ξ k ]. Para la parte (a): P (Sn ≥ n.a) ≤ E (exp [u(Sn − n.a)]) ∀u ∈ (0, β F ) que implica P (Sn ≥ n.a) ≤
inf "
u∈(0,β F )
E (exp [u(Sn − n.a)]) ≤ inf exp [−n(u.a − ΨF (u))] u∈(0,β F ) #
= exp −n
sup (u.a − ΨF (u)) = exp [−n.hF (a)] u∈(0,β F )
Para la parte (b), usando (a) alcanza con probar que Sn 1 limn→+∞ log P ≥a ≥ −hF (a) n n
57
(50)
Para probar (50), poniendo sn = x1 + .... + xn : Z P (Sn ≥ n.a) = 1{sn ≥n.a} F (dx1 )....F (dxn ) n ZR = 1{sn ≥n.a} [ΦF (t)]n exp [−t.sn ] G(dx1 )....G(dxn ) Rn
donde G es la medida de probabilidad en la recta: G(dx) = [ΦF (t)]−1 exp [tx] F (dx). Sea Y1 , ..., Yn una sucesi´on de variables aleatorias independientes con igual distribuci´on G y Tn = Y1 + ... + Yn (n ≥ 1). La igualdad anterior se rescribe como Tn n P (Sn ≥ n.a) = [ΦF (t)] exp [−nat] E 1{Tn ≥n.a} exp −nt −a n (51) Sea m < a < Ψ0F (β F ) y ε > 0 tal que a + ε < Ψ0F (β F ) . Elegimos t tal que: −1 −1 a < Ψ0F (t) < a+ε < Ψ0F (β F ) =⇒ Ψ0F (a) < t < Ψ0F (a+ε) < β F . Observar que −1
Z
+∞
E (Y1 ) = [ΦF (t)]
x exp(tx) F (dx) = −∞
Φ0F (t) = Ψ0F (t) ΦF (t)
Por lo tanto, en virtud de la ley fuerte de los grandes n´ umeros, casi seguraTn 0 mente, n → ΨF (t) cuando n → +∞. Tenemos, a partir de (51): 1 Sn log P ≥a n n 1 Tn = −at + ΨF (t) + log E 1{Tn ≥n.a} exp −nt −a n n 1 Tn ≥ −at + ΨF (t) + log E 1{na≤Tn ≤n(a+ε)} exp −nt −a n n 1 ≥ −at + ΨF (t) + log [exp(−ntε).P (na ≤ Tn ≤ n(a + ε))] n 1 Tn = −at + ΨF (t) − εt + log P (a ≤ ≤ a + ε) n n Esto prueba que Sn 1 limn→+∞ log P ≥a ≥ −at + ΨF (t) − εt n n ya que P (a ≤ Tnn ≤ a + ε) → 1. Como ε > 0, es arbitrario, dada la definici´on de hF (a), esto termina la demostraci´on.
58
2.8.1
Ejemplos.
1. Consideremos, como en el teorema anterior, una sucesi´on de variables aleatorias independientes a valores reales con igual distribuci´on {ξ k }k=1,2,... , y que la distribuci´on com´ un F est´a dada por P (ξ k = 1) = P (ξ k = −1) = 1/2. Es claro que E(ξ k ) = 0, V ar(ξ k ) = 1. Supongamos que queremos estudiar el comportamiento de αn (ε) = P ( Snn ≥ ε), para 0 < ε < 1. En virtud del teorema de Chernof, sabemos que n1 log [αn (ε)] → −hF (ε). Los c´alculos en este caso son inmediatos y se obtiene: - Φ(t) = cosh t - Ψ(t) = log [cosh t] - hF (ε) = ε tanh−1 ε−log cosh tanh−1 ε = ε tanh−1 ε+ 12 log 1 − ε2 (usar que cosh2 x =
1 ). 1−tanh2 x
Si en lugar del teorema de grandes desviaciones se pone el equivalente que viene del Teorema del L´ımite Central, lo que se obtiene como equivalente es r 2 2 Z +∞ ε n 1 x 2 1 √ exp − cuando n → +∞ 2√ exp − dx ≈ √ 2 2 π n ε 2π ε n o sea
2 Z +∞ x 1 1 ε2 log 2 √ exp − dx → − n 2 2 2π ε√n
El comportamiento preciso, dado por hF (ε) se ve que difiere del que resulta de utilizar (inadecuadamente) las colas que da el TLC. Sin embargo, si se hace el desarrollo de Taylor de hF (ε) en ε = 0, se ve que 2 al primer orden significativo, se obtiene − ε2 . Si ε es suficientemente peque˜ no, ambos exponentes difieren poco, pero ello deja de ser cierto para valores moderados de ε. 2. Veamos una variante del ejemplo anterior. Supongamos que la distribuci´on F est´a dada por P (ξ k = 1) = P (ξ k = −1) = p, P (ξ k = 0) = r, 2p + r = 1. Es claro que E(ξ k ) = 0 y V ar(ξ k ) = 2p. Se obtiene Ψ(t) = log [2p cosh t + r] y hF (a) = aτ − Ψ(τ ) 59
donde τ es la soluci´on de la ecuaci´on a − Ψ0 (τ ) = a −
2p sinh τ =0 2p cosh τ + r
Con estos ingredientes, se puede escribir los primeros t´erminos del desarrollo de Taylor de hF (a) para a cerca de cero. 3. Si F es la distribuci´ on normal t´ıpica, se verifica inmediatamente que 2 2 2 t Φ(t) = exp 2 y por lo tanto Ψ(t) = t2 , hF (a) = a2 . El compor tamiento asint´otico del logaritmo de P ( Snn ≥ ε) coincide con el de las colas en el TLC. 4. Si F es la distribuci´on exponencial con par´ametro igual a 1 (es decir que para x > 0, es 1 − F (x) = exp(−x)), entonces Ψ(t) = − log(1 − t) si t < 1
y
Ψ(t) = +∞ si t ≥ 1.
Un c´alculo elemental muestra que hF (a) = a − 1 − log a siempre que a > 0 y si 0 < ε : 1 Sn ε2 ε3 ε4 log P ( − 1 ≥ ε) → ε − log (1 + ε) = − + − n n 2 3 4 donde el u ´ltimo desarrollo vale si adem´as ε ≤ 1. Del otro lado, si 0 < ε < 1 : 1 Sn log P ( − 1 ≤ −ε) → ε − log (1 + ε) n n
2.9
Distribuciones infinitamente divisibles
Preliminares, medidas can´ onicas. Definici´ on. Se dice que la medida M definida sobre los Borelianos de R es ”can´onica” si verifica las condiciones: 1. M (I) < ∞ para todo intervalo acotado I
60
2. ∀x > 0 se cumple que Z
+
+∞
M (x) = M − (−x) =
x− −x+
Z
−∞
M (dy) <∞ y2 M (dy) <∞ y2
Ejemplo b´ asico. Si F es una medida de probabilidad en la recta y C es una constante positiva, entonces M (dx) = C.x2 .F (dx) es una medida can´onica. Definici´ on. Sea {Fn } una sucesi´on de medidas de probabilidad en R y {cn } una sucesi´on de n´ umeros reales positivos. Diremos que cn .x2 .Fn (dx) converge propiamente a la medida can´onica M (dx) si Z (a) cn . x2 .Fn (dx) → M (I) ∀ intervalo I cuyos extremos son de continuidad de M Z (b) cn
I +∞
x−
Fn (dy) y2
Z
+
→ M (x),
−x+
cn −∞
M (dy) → M − (−x) y2
si x, −x son de cont de M
Se verifica f´acilmente que la pareja de condiciones (a),(b) es equivalente a (a),(b’), donde (b0 ) ∀ε > 0 ∃a > 0 tal que cn [Fn (−a) + (1 − Fn (a))] < ε ∀n Proposici´ on t´ ecnica auxiliar. Sea {Fn } una sucesi´on de medidas de probabilidad en R y {ϕn } la sucesi´on de sus transformadas de Fourier. Consideramos la sucesi´on de funciones ψ n (t) = cn [ϕn (t) − 1 − iβ n t] donde cn > 0, β n ∈ R. Entonces, para cada t ∈ R : ψ n (t) → ρ(t) donde ρ es una funci´on continua, si y s´olo si, existen una medida can´onica M y una constante real b, tales que: 1. cn .x2 .Fn (dx) converge a M propiamente R +∞ 2. cn (bn − β n ) → b, donde bn = −∞ senx Fn (dx). 61
En caso de que haya convergencia, el l´ımite es de la forma: ρ(t) = ψ(t) + ibt con Z +∞ exp(itx) − 1 − i.t.senx ψ(t) = M (dx) x2 −∞
(52)
La medida M est´a un´ıvocamente determinada por (52). Demostraci´on. En realidad, no daremos una demostraci´on completa de esta proposici´on auxiliar, sino que indicaremos solamente los pasos a seguir, cuyos detalles quedan a cargo del lector. Antes que nada, reescribimos ψ n (t) : Z +∞ ψ n (t) = [exp(itx) − 1 − i.t.senx] cn Fn (dx) + i cn (bn − β n ) t (53) −∞
Paso 1.Mostrar que si cn .x2 .Fn (dx) converge a M propiamente, entonces, para toda funci´on continua y acotada f : R → R, tal que fx(x) es 2 continua en x = 0, se tiene: Z +∞ Z +∞ f (x) f (x) cn Fn (dx) → M (dx) x2 −∞ −∞ [Usar un m´etodo an´alogo al empleado inicialmente para la convergencia d´ebil de medidas de probabilidad]. Paso 2. Si ψ n (t) → ρ(t) uniformemente en |t| ≤ t0 y 0 < h ≤ t0 , entonces: Z h Z +∞ 1 sen(xh) cn Fn (dx) → − ρ(t) dt 1− xh 2h −h −∞ Paso 3. Si ψ n (t) → ρ(t) uniformemente en |t| ≤ t0 , entonces existe una subsucesi´on {nk } tal que cnk .x2 .Fnk (dx) converge a M propiamente, donde M es una medida can´onica. Para probar esto, usar el mismo tipo de argumento diagonal que para la compacidad d´ebil de las medidas de probabilidad y tambi´en, el resultado del paso 2. Paso 4. Si M es can´onica, la funci´on ψ definida por (52) es continua y la correspondencia M ψ es inyectiva.
62
La continuidad es inmediata. Para ver la inyectividad, observar que, de la definici´on de ψ resulta que ∀h > 0 : Z +∞ 1 − cos(xh) ψ(t + h) + ψ(t − h) = exp(itx) M (dx) ψ(t) − 2 x2 −∞ es la transformada de Dicho de otro modo, la funci´on ψ(t) − ψ(t+h)+ψ(t−h) 2 1−cos(xh) Fourier de la medida finita µh (dx) = M (dx). Por la unicidad ya x2 conocida, esto dice que ψ determina µh ∀h > 0. Esto ”casi” determina M, salvo por eventuales ´atomos en los puntos x tales que cos(xh) = 1. Queda a cargo del lector mostrar que entonces M est´a un´ıvocamente determinada. Paso 5. Con los elementos anteriores, el lector puede completar la demostraci´on de la Proposici´on. Definici´ on. Se dice que la distribuci´on de probabilidad propia en la recta F es ”infinitamente divisible” si para cada entero positivo n existe una distribuci´on de probabilidad Fn tal que, si ξ 1 , ..., ξ n son n variables aleatorias independientes con igual distribuci´on Fn , entonces, la suma ξ 1 +...+ξ n tiene distribuci´on F . De manera equivalente, podemos escribir esta condici´on en t´erminos de transformadas de Fourier. Si denotamos por ϕ la transformada de Fourier de F , que ´esta es infinitamente divisible significa que para cada entero positivo n podemos encontrar una transformada de Fourier de una medida de probabilidad propia, ϕn tal que [ϕn (t)]n = ϕ(t) ∀t ∈ R El resultado fundamental de esta secci´on es el teorema siguiente: Teorema (L´ evy, Kinch´ın). ϕ es la transformada de Fourier de una distribuci´on de probabilidad infinitamente divisible, si y s´olo si, existen una medida can´onica M y una constante real b tales que: ϕ(t) = exp [ρ(t)] donde Z +∞ exp(itx) − 1 − i.t.senx ρ(t) = ibt + M (dx) x2 −∞
M y b son u ´nicas. Antes que la demostraci´on veamos algunos (primeros) ejemplos. 63
(54)
Ejemplo 1. Si la medida M est´a concentrada en el origen, M ({0}) = σ 2 , 1 2 2 entonces la f´ormula (54) da ϕ(t) = exp ibt − 2 σ t que es la transformada de Fourier de la distribuci´on normal con media b y varianza σ 2 . Ejemplo 2. Si la variable aleatoria ξ tiene la distribuci´on de Poisson con par´ametro λ, entonces su transformada de Fourier es E (exp(itξ)) =
∞ X n=0
exp(itn)
λn −λ e = exp λ eit − 1 n!
(55)
Obs´ervese que en la f´ormula (54), si la medida M est´a concentrada en el punto x = 1 y M ({1}) = λ, entonces ρ(t) = λ eit − 1 si se hace una elecci´on adecuada de la constante b. Es decir que la distribuci´on de Poisson es infinitamente divisible, cosa que podemos verificar directamente a partir de (55), ya que es claro de aqu´ı que si ξ tiene distribuci´on de Poisson con par´ametro λ, es suma de n variables aleatorias independientes, cada una de ellas con distribuci´on de Poisson con par´ametro nλ . Rec´ıprocamente, si M est´a concentrada en un punto x0 6= 0 y M ({x0 }) = 0 c, entonces ρ(t) = ibt + exp(itx0 )−1−itsenx c = ibt + λ eitx0 − 1 x20 lo que muestra que la distribuci´on de la variable aleatoria ξ cuya transformada de Fourier es exp [ρ(t)] se obtiene de la distribuci´on de Poisson mediante un cambio de posici´on y escala, m´as precisamente, que ξ−b x0 tiene distribuci´on de Poisson con par´ametro λ. Ejemplo 3 (Distribuci´ on de Poisson compuesta).- Sea ξ 1 , ξ 2 , .... una sucesi´on de variables aleatorias independientes con igual distribuci´on F . Definimos, como antes, la sucesi´on de sumas parciales S0 = 0, Sn = ξ 1 + ... + ξ n (n ≥ 1). Denotamos por ϕ la transformada de Fourier de F . Sea adem´as υ una variable aleatoria con distribuci´on de Poisson de par´ametro λ, independiente de la sucesi´on {ξ n } . Definimos X = Sν , es decir, son sumas con un n´ umero aleatorio de t´erminos. La distribuci´on de X se denomina ”de Poisson compuesta”.
64
Calculamos la transformada de Fourier de la distribuci´on de X, es decir: ϕX (t) = E (exp(itX)) = E [E (exp(itX)/N = k)] ∞ X = E (exp(itSk )/N = k) P (N = k) k=0
=
∞ X
E (exp(itSk )) P (N = k) =
k=0
∞ X
[ϕ(t)]k
k=0
Z = exp [λ (ϕ(t) − 1)] = exp iλtb + λ
+∞
−∞
λk exp(−λ) k!
exp(itx) − 1 − i.t.senx 2 x F (dx) x2
R +∞
con b = −∞ senx F (dx). Es claro entonces que ϕX tiene la forma indicada en (52) con b = λ.b y M (dx) = λ.x2 F (dx). El lector observar´a que es posible dar una demostraci´on directa simple de que la distribuci´on de X es infinitamente divisible, que no depende de (52). Observe el lector que en la proposici´on t´ecnica auxiliar de esta secci´on, exp [ψ n (t)] son transformadas de Fourier de distribuciones de Poisson compuestas, a menos de una traslaci´on y un cambio de escala. Ejemplo 4.- El lector verificar´a que si M (dx) = x.e−x .1{x>0} dx entonces F es la distribuci´on exponencial de par´ametro igual a 1. Para ver esto, observar que la transformada de Fourier de laRexponencial con par´ametro 1 +∞ exp(itx)−1 es ω(t) = 1/(1 − it) y que ψ(t) = log [ω(t)] = 0 exp(−x) dx. x Ejemplo 5.- El lector probar´a que F es una distribuci´on infinitamente divisible concentrada en [0, +∞) si, y s´olo si, su transformada de Fourier ϕ se escribe como ϕ = exp(ρ) donde Z +∞ exp(itx) − 1 ρ(t) = ibt + µ(dx) x 0 R +∞ 1 donde µ es una medida de Borel concentrada en la semirrecta (0, +∞) , 0 1+x µ(dx) < ∞. Observaci´ on sobre el enunciado del Teorema de L´evy-Kinch´ın. En la representaci´on dada por (54), se puede escribir el exponente de diversas formas. Por ejemplo, se suele usar la forma alternativa Z +∞ exp(itx) − 1 − i.t1{|x|<1} ρ(t) = ib0 t + M (dx) (56) x2 −∞ 65
R +∞ 1 −senx donde b0 = b + −∞ {|x|<1} M (dx). V´ease que esta u ´ltima integral est´a x2 bien definida, en virtud de que M es una medida can´onica. La forma que es quiz´a la m´as utilizada de la representaci´on de L´evyKinch´ın, es la siguiente Z +∞ 1 2 2 0 exp(itx) − 1 − i.t1{|x|<1} N (dx) (57) ρ(t) = ib t − σ t + 2 −∞ donde se ha reescrito la medida can´onica M como M (dx) = σ 2 δ 0 (dx) + x2 N (dx). Aqu´ı, δ 0 es la medida de Dirac en el punto x = 0, es decir que el primer sumando es una masa de tama˜ no σ 2 , concentrada en el origen, y N es una medida de Borel en R \ {0} tal que Z Z 2 x N (dx) < ∞, N (dx) < ∞ (58) |x|<1
|x|≥1
Es inmediata la deducci´on de estas condiciones de las que verifica M por ser can´onica. Demostraci´on del teorema de L´evy-Kinch´ın. Paso 1. En este primer paso, probamos que si {ϕn } es una sucesi´on de transformadas de Fourier de distribuciones (propias) de probabilidad, entonces: ϕnn → ϕ puntualmente, ϕ continua
⇐⇒
n(ϕn −1) → ρ puntualmente, ρ continua (59)
En ese caso, ϕ(t) = exp [ρ(t)] . Probemos primero la implicaci´on de derecha a izquierda. La hip´otesis implica que ϕn → 1 puntualmente, y por lo tanto, uniformemente en cada compacto, dado que tanto ϕn como 1 son transformadas de Fourier de medidas de probabilidad. Por lo tanto, si t var´ıa en un compacto dado, cuando n es suficientemente grande est´a bien definido log (la rama principal del logaritmo) de ϕn (t) y la hip´otesis implica, desarrollo de Taylor mediante, que n log [ϕn (t)] → ρ(t). Se sigue que [ϕn (t)]n → exp [ρ(t)] . Es claro que esto vale entonces para cada t fijo. Veamos ahora (59) de izquierda a derecha. Como {ϕnn } es tambi´en una sucesi´on de transformadas de Fourier de medidas de probabilidad, la hip´otesis implica, a ra´ız del teorema de L´evy-Cram´er, que la convergencia es uniforme en cada compacto. Dado que ϕ es continua, elijamos t1 > 0 tal que |t| ≤ t1 =⇒ |ϕ(t) − 1| < 1/2. Por lo tanto, si n es suficientemente grande, est´a definido log [ϕn (t)]n (rama principal) ∀t tal que |t| ≤ t1 . Se 66
deduce entonces que n log [ϕn (t)] → log [ϕ(t)] =⇒ n [ϕn (t) − 1] → log [ϕ(t)] cuando |t| ≤ t1 . Queremos ver que hay convergencia para todo t. De la convergencia en el intervalo [−t 1 , t1 ] se deduce que existe una subsucesi´on ϕnk tal que nk ϕnk (t) − 1 converge puntualmente en toda la recta, a una funci´on continua ρ (Usar el Paso 3 de la demostraci´on de la proposici´on auxiliar). Pero entonces, podemos aplicar a esta subsucesi´on la implicaci´ on de derecha a izquierda de (59), que ya fue probada, y resulta n que ϕnk (t) k → exp [ρ(t)] puntualmente, en toda la recta. Entonces este l´ımite es continuo y no depende de la subsucesi´on. El lector aprovechar´a esto para terminar la argumentaci´on. Paso 2. Veamos ahora el directo en el teorema de L´evy-Kinch´ın. Supongamos que ϕ es infinitamente divisible. Entonces, ∀n = 1, 2, ... ∃ una transformada de Fourier ϕn tal que ϕnn = ϕ y por lo tanto estamos en las condiciones de aplicar la implicaci´on de izquierda a derecha en (59) del Paso 1, y resulta que n(ϕn − 1) → ρ puntualmente, ρ continua y que ϕ = exp(ρ). Aplicando ahora la proposici´on auxiliar, resulta que ρ tiene la forma requerida en (52). Paso 3. Para el rec´ıproco, supongamos que ϕ tiene la forma de (54). Consideremos primero el caso en que la medida can´onica M est´a concentrada en {x : |x| > δ} con δ > 0. Entonces, si definimos la medida de probabilidad K G(dx) = 2 M (dx) x hR i−1 +∞ M (dx) con K = y sea γ la transformada de Fourier de G. El −∞ x2 lector verificar´ a que entonces, con una elecci´on apropiada de b, resulta ϕ(t) = exp ibt + K (γ(t) − 1) que es infinitamente divisible (es una la transformada de Fourier de una Poisson compuesta, trasladada y con un cambio de escala). Veamos ahora el caso general, en que no necesariamente M est´a concentrada en un conjunto de la forma {x : |x| > δ} con δ > 0. Consideramos entonces, para cada δ > 0, la medida can´onica Mδ (dx) = 1{|x|>δ} M (dx) y le aplicamos lo anterior. Denotamos por γ δ la transformada δ de Fourier de K M (dx) (mismas notaciones). Aplicando nuevamente la x2 proposici´on auxiliar, resulta que exite el l´ımite puntual 1 ρ(t) = lim γ δ (t) − t2 M ({0}) δ↓0 2 y como exp γ δ (t) − 12 t2 M ({0}) es la transformada de Fourier de una distribuci´on de probabilidad (convoluci´on de una Poisson compuesta y una 67
normal) tambi´en exp [ρ(t)], en virtud del teorema de L´evy-Cram´er. Esto prueba que si ϕ tiene la forma (54), entonces es la transformada de Fourier de una distribuci´on de probabilidad propia. Pero lo mismo se aplica si uno reemplaza, para cada n ≥ 1, M por n1 M y b por n1 b. Si ϕn es la transformada de Fourier con esta medida can´onica y esta constante, entonces es obvio que se verifica que ϕnn = ϕ.
2.10
Distribuciones estables. Dominios de atracci´ on.
Definici´ on. Sea F una distribuci´on de probabilidad (propia), F 6= δ 0 . Diremos que F es ”estable en sentido amplio” si para todo n, entero positivo, si X1 , ..., Xn son variables aleatorias independientes con distribuci´on F y Sn = X1 + ... + Xn entonces, existen n´ umeros reales cn , dn , cn > 0 tales que (d)
Sn = cn X1 + dn (d)
donde ξ = η significa que las variables aleatorias ξ y η tienen la misma distribuci´on de probabilidad. Diremos que F es ”estrictamente estable”, si una relaci´on an´aloga se verifica con dn = 0. Es obvio que si F es estable, entonces es infinitamente divisible, ya que con esa notaci´on, para todo n ≥ 1, X1 tiene la misma distribuci´on que la suma de 1las n variables aleatorias independientes con igual distribuci´on dn Xk − n cn (k = 1, ..., n). Entonces, su transformada de Fourier se puede representar mediante (54) y el primer objetivo de esta secci´on es calcular las medidas can´onicas M y las constantes b de las distribuciones estables. El segundo objetivo es relacionar las distribuciones estables con una extensi´on del teorema del l´ımite central para sumas de variables aleatorias independientes con igual distribuci´on, cuando no se cumplen las hip´otesis para que la distribuci´on l´ımite sea normal, pero sin embargo hay convergencia d´ebil. Definici´ on. Sea F una distribuci´on de probabilidad (propia). Se define la ”simetrizada” de F , que denotamos F s , como la distribuci´on de probabilidad de X − Y , donde X e Y son variables aleatorias independientes, cada una de ellas con distribuci´on F . Es inmediato que si F es estable, entonces F s es estrictamente estable, con el mismo cn . 68
Teorema. En la definici´on de distribuci´on estable, necesariamente debe 1 ser cn = n α para alg´ un real α, 0 < α ≤ 2. Demostraci´on. El lector verificar´a que basta probarlo cuando F es estrictamente estable (usar F s ). En ese caso, con la misma notaci´on anterior, aplicando la definici´on, resulta que si m, n, k son enteros positivos: (d)
cm+n X1 = cm X1 + cn X2 cm.n = cm .cn
=⇒ cnk = (cn )k
Veamos que la sucesi´on {cn }n=1,2,.. es mon´otona creciente. En efecto, si a > 0: P (cm+n X1 ≥ cm .a) ≥ P (cn X1 ≥ 0).P (cm X1 ≥ cm .a)
Esto implica que
n
(60)
= P (X1 ≥ 0).P (X1 ≥ a) o cm es una sucesi´on (doble) acotada, puesto cm+n m,n=1,2,...
que existe a > 0 de modo que el u ´ltimo miembro de (60), que no depende de m, n, sea estrictamente positivo. Sea entonces C una constante positiva tal que cm ≤ C ∀m, n cm+n Se sigue que
cm cm+1
k =
cmk c(m+1)k
≤C
∀m, k
cm lo que implica que cm+1 ≤ 1 ∀m. Esto prueba que {cn } es mon´otona creciente en sentido amplio. Veamos ahora que log cm = const (61) log m
Fijemos m entero, m ≥ 2 y para cada n entero positivo, sea k(n) el u ´nico entero tal que 2k(n) ≤ mn < 2k(n)+1
es decir que
k(n) log2 ≤ n log m < (k(n) + 1) log2
69
Adem´as (c2 )k(n) = c2k(n) ≤ cmn = (cm )n < c2k(n)+1 = (c2 )k(n)+1 =⇒ k(n) log c2 ≤ n log cm < [k(n) + 1] log c2 =⇒ n log cm [k(n) + 1] log c2 n k(n) log c2 . ≤ < n [k(n) + 1] log 2 log m n k(n) log 2 y de aqu´ı se sigue f´acilmente, pasando al l´ımite cuando n → +∞ que log c2 log 2 .
log cm log m
=
Como {cm } no es constante y es mon´otona creciente, esto prueba 1
que cm = m α con α > 0. Lo que falta es probar que α ≤ 2. Para probar esto, usamos la representaci´on de L´evy-Kinch´ın, cosa que podemos hacer, puesto que F es infinitamente divisible, de modo que su transformada de Fourier ϕ es escribe mediante la f´ormula (54) y del hecho que es estable se deduce inmediatamente que nρ(t) = ρ(cn t) + idn t Z +∞ exp(itx) − 1 − i.cn t.sen(c−1 n x) 1 −1 = −2 M (cn dx) + idn t 2 x c −∞ n Z +∞ exp(itx) − 1 − i.t.senx 2 = cn M (c−1 n dx) + idn t x2 −∞ En virtud de la unicidad de la representaci´on de L´evy-Kinch´ın, esto implica que para cada n = 1, 2, ... nM (dx) = c2n M (c−1 n dx)
(62)
1
donde, por otra parte, ya sabemos que cn = n α . Tenemos dos casos posibles: 1
1. α = 2. En este caso, (62) se traduce en que M (dx) = M (n− 2 dx) ∀n = 1, 2, ... Por lo tanto ∀a > 0 : h i 1 1 M ([−a, a]) = M −n− 2 a, n− 2 a → M ({0}) cuando n → +∞ i.e. M ([−a, a]) = M ({0}) ∀a > 0, es decir que la medida can´onica M est´a concentrada en el origen y la distribuci´on F es normal. 2. α 6= 2. Poniendo, para x > 0, G(x) = M (−x, x), (62) se traduce en que 2 1 G(x) = n α −1 G(n− α x) ∀x > 0, ∀n = 1, 2, ... 70
y por lo tanto, para m, n = 1, 2, ... h i 1 h m i 2 −1 2 1 m α α G(1) = n−( α −1) G(m α ) = G n n Esto pruebanque G(x) = G(1)x2−αopara los x que pertenecen al conm 1 α junto E = : m, n = 1, 2, ... . Dado que G es mon´otona cren ciente, esto prueba ya que α < 2. Asimismo, como el conjunto E es denso en R+ esto implica que G(x) = G(1)x2−α
∀x ≥ 0.
Un argumento enteramente an´alogo - a cargo del lector - permite probar que M ((0, x)) = pG(1)x2−α , M ((−x, 0)) = qG(1)x2−α
∀x ≥ 0,
donde p, q son constantes no negativas, p + q = 1. Teorema (caracterizaci´ on de las distribuciones estables) Con las notaciones anteriores, una distribuci´on es estable, si y s´olo si, ρ(t) se puede escribir de alguna de las dos formas siguientes, que corresponden respectivamente a α = 1 y a α 6= 1, 0 < α ≤ 2 en el teorema anterior: π (i) ρ(t) = −C1 |t| + i.sg(t) log |t| (63) 2 πα α (ii) ρ(t) = −Cα |t| 1 − i.sg(t)(p − q)tg( (64) 2 donde Cα > 0. Demostraci´on. En el caso α = 2 ya hemos visto el resultado, que coincide con el dado por (64) cuando α = 2 y que corresponde a la distribuci´on normal. De aqu´ı en adelante, suponemos 0 < α < 2. Usando los mismos c´alculos de la demostraci´on del teorema anterior y, en especial, la forma de la medida de L´evy-Kinch´ın de una distribuci´on estable, resulta que Z +∞ exp(itx) − 1 − i.t.senx ρ(t) = C.p(2 − α) dx (65) xα+1 0 Z 0 exp(itx) − 1 − i.t.senx +C.q(2 − α) dx xα+1 −∞ Para facilitar el c´alculo, no usamos en el centramiento la funci´on senx en todos los casos, sino que usamos la funci´on τ α (x), dependiente de x. 71
• si 0 < α < 1 =⇒ τ α (x) = 0. Entonces, si t > 0 Z +∞ Z +∞ exp(itx) − 1 exp(itx − λx) − 1 Jα (t) = dx = lim dx α+1 λ↓0 x xα+1 0 0 Z +∞ 1 1 exp(itx − λx) +∞ = lim − α (exp(itx − λx) − 1) |0 + (it − λ) dx λ↓0 αx α xα 0 Z +∞ exp(itx − λx) 1 (it − λ) dx = lim λ↓0 α xα 0 Si denotamos por H(t) a la u ´ltima integral, es f´acil verificar - integrando por partes - que H 0 (t) = i
1−α H(t) λ − it
y que H(0) = λα−1 Γ(1 − α) de modo que H(t) = Γ(1 − α) (λ − it)α−1 donde la potencia de base compleja debe interpretarse como rama principal, que est´a bien definida ya que λ − it est´a siempre en el cuarto cuadrante del plano (λ, t). Por lo tanto 1 Γ(1 − α) (λ − it)α α h p i 1 = − lim Γ(1 − α) exp α log λ2 + t2 + iθ λ↓0 α
Jα (t) = − lim λ↓0
donde log denota el logaritmo real y θ es el argumento del complejo λ − it, -π/2 < θ < 0. El pasaje al l´ımite es ahora inmediato y se obtiene: π 1 Jα (t) = − Γ(1 − α) tα exp iα α 2 La segunda integral en (65) se calcula de manera enteramente an´aloga, y eso permite obtener el resultado. • si α > 1 =⇒ τ α (x) = x. El c´alculo sigue los lineamientos del anterior, despu´es de haber reemplazado Jα (t) por la nueva integral Z +∞ exp(itx) − 1 − itx Jeα (t) = dx xα+1 0 72
• si α = 1 =⇒ τ 1 (x) = senx. Para este caso, el c´alculo es similar, s´olo que el punto clave es calcular la integral Z +∞ Z +∞ sen(tx) − t.senx cos(tx) − 1 dx + i dx J1 (t) = 2 x x2 0 0 El c´alculo de la primera integral es sencillo (hacer el cambio de variables tx = y y luego integrar por partes). En cuanto a la segunda, observar que, si t > 0 : Z +∞ Z +∞ sen(tx) − t.senx sen(tx) − t.senx dx = lim dx 2 δ↓0 x x2 0 δ Z +∞ Z +∞ senw senw = lim t dw − t dw 2 δ↓0 w w2 δt δ Z δ Z 1 senw sen(δy) = t lim dw = t lim dy 2 δ↓0 δt w δ↓0 t δy 2 Z 1 dy = t = −t log t. y t Reemplazando, se obtiene el resultado anunciado. Definici´ on. Sea G una distribuci´on de probabilidad (propia) en la recta, que no est´a concentrada en un s´olo punto. Se dice que la distribuci´on F pertenece al dominio de atracci´on de G si para cada n = 1, 2, .... existen constantes reales an , bn , an > 0 tales que si X1 , ..., Xn son variables aleatorias indendientes con igual distribuci´on F y Sn = X1 +...+Xn , entonces, cuando n → +∞ S n − bn =⇒ G (66) an Teorema (TLC estable) G tiene un dominio de atracci´on si y s´olo si G es estable. Demostraci´on. Si G es una distribuci´on de probabilidad estable, es obvio que pertenece a su propio dominio de atracci´on, en virtud de la definici´on de distribuci´on estable. Lo interesante es la afirmaci´on rec´ıproca. Supongamos entonces que existe una distribuci´on de probabilidad F que pertenece al dominio de atracci´on de G, es decir que se verifica (66) Probaremos que G es estable. 73
Observemos primero que para cada pareja de enteros positivos m, n las variables aleatorias Smn − nbm Smn − bmn , amn am difieren solamente en un cambio de posici´on y escala (es decir, una se obtiene de la otra mediante una afinidad). Para cada n fijo, la primera tiende d´ebilmente a G cuando m → +∞ mientras que la segunda tiende d´ebilmente a G∗(n) = G ∗ G ∗ ... ∗ G. La conclusi´on ser´a probada, entonces, si demostramos que G y G∗(n) difieren solamente en una afinidad (es decir que ∃ constantes reales a, b, a 6= 0, tales que G(x) = G∗(n) (ax + b) ∀x ∈ R. Esto est´a contenido en la proposici´on auxiliar siguiente: Proposici´ on auxiliar. Sea {Xm }m=1,2,.. una sucesi´on de variables aleatorias con distribuciones respectivas {Fm }m=1,2,.. que converge d´ebilmente, cuando m → +∞ anla distribuci´ on (propia) F, no concentrada en un s´olo o em em = punto. Sea adem´as X la sucesi´on de variables aleatorias X m=1,2,..
cm Xm + dm , donde cm , dm (m = 1, 2, ...) son n´ umeros reales, cm > 0. em =⇒ Fe (propia) y que Fe tampoco est´a concenSupongamos adem´as que X trada en un s´olo punto. Entonces, necesariamente las sucesiones {cm } y {dm } convergen, cm → c, dm → d, con c > 0 y Fe(cx + d) = F (x) ∀x ∈ R. Demostraci´ on. Denotemos por ϕm , ϕ e m , ϕ, ϕ e respectivamente, las transformadas de Fourier de Fm , Fem , F, Fe. n o Observemos que alcanza con demostrar que las sucesiones {cm }, c1m , {dm } est´an acotadas. En efecto, si as´ı fuera, y si {cmk } y {dmk } son subsucesiones convergentes a c∗ y d∗ respectivamente, entonces: • c∗ > 0 • ϕmk (t) → ϕ(t) ∀t ∈ R • ϕ e mk (t) = exp [i.dmk t] ϕmk (cmk t) → exp [i.d∗ t] ϕ(c∗ t) = ϕ e (t) ∀t ∈ R (para verificar esta convergencia, usar el hecho de que la convergencia de las transformadas de Fourier es uniforme en cada compacto). ∗ En consecuencia, Fe(x) = F x−d ∀x ∈ R, o sea que Fe(c∗ x + d∗ ) = c∗ F (x) ∀x ∈ R. Esto identifica los l´ımites c∗ , d∗ que no dependen de la subsucesi´on. En consecuencia, las sucesiones enteras {cm },{dm } convergen y los l´ımites verifican la propiedad enunciada. 74
n o Veamos a continuaci´on la acotaci´on de {cm }, c1m , {dm }. Como Fe no est´a concentrada en un punto, podemos encontrar x0 , x00 , puntos de continuidad de Fe, tales que x0 < x00 y 0 < Fe(x0 ) ≤ Fe(x00 ) < 1 y tambi´en puntos de continuidad de F , y 0 , y 00 , tales que F (y 0 ) < Fe(x0 ) ≤ Fe(x00 ) < F (y 00 )
(67)
esto u ´ltimo, simplemente porque F (−∞) = 0, F (+∞) = 1. Es obvio adem´as que Fem (cm x + dm ) = P (cm Xm + dm ≤ cm x + dm ) = Fm (x) y como Fm (y 0 ) → F (y 0 ), y Fem (x0 ) → Fe(x0 ), para m suficientemente grande es Fm (y 0 ) < Fem (x0 ) =⇒ Fem (cm y 0 + dm ) < Fem (x0 ) =⇒ cm y 0 + dm < x0 . Del mismo modo, usando la desigualdad de la derecha en (67), resulta que 00 −y 0 cm y 00 +dm > x00 y podemos concluir que cm (y 00 −y 0 ) > x00 −x0 =⇒ c1m ≤ xy00 −x 0 n o 1 si m es suficientemente grande. Esto prueba que cm es acotada. Intercambiando los roles de Fm y Fem resulta que {cm } tambi´en es acotada. Finalmente, de las mismas desigualdades se tiene que x00 − cm y 00 < dm < x0 − cm y 0 para m suficientemente grande, lo que prueba que {dm } es acotada. Es tambi´en posible caracterizar las distribuciones que pertenecen al do´ es el contenido del teorema minio de atracci´on de una cierta ley estable. Ese siguiente, que enunciamos sin demostraci´on (para la prueba y otra serie de aspectos del mismo problema, ver Feller, Vol. 2, Cap. XVII). Usamos la notaci´on siguiente: Si F es una distribuci´on de probabilidad en la recta, Z sF (x) = y 2 F (dy). [−x,x]
Adem´as, diremos que la funci´on L : R+ → R es ”de variaci´on lenta en +∞” si para cada x > 0 fijo, se tiene L(tx) → 1 cuando t → +∞ L(t) (ejemplos t´ıpicos de funciones de variaci´on lenta en +∞ son: (a) el logaritmo, (b) las funciones que tienen l´ımite finito no nulo en +∞). 75
Teorema (caracterizaci´ on de los dominios de atracci´ on) (a) F pertenece al dominio de atracci´on de la distribuci´on normal, si y s´olo si, la funci´on sF es de variaci´on lenta en +∞. (b) F pertenece al dominio de atracci´on de una distribuci´on estable no normal, si y s´olo si se cumplen las dos condiciones siguientes con 0 < α < 2 : sF (x) ∼ x2−α L(x)
para x → +∞ con L de variaci´on lenta en + ∞ (68) ∃
1 − F (x) =p x→+∞ 1 − F (x) + F (−x)
(69)
lim
En las condiciones del teorema, (68) es equivalente a 1 − F (x) + F (−x) ∼
2 − α −α x L(x) α
para x → +∞ con L de variaci´on lenta en +∞. Asimismo, de cumplirse las condiciones de (b), la medida can´onica de la ley estable est´a dada por M ((0, x)) = Cpx2−α , M ((−x, 0)) = C(1 − p)x2−α donde C es una constante positiva.
76
∀x ≥ 0,