23
Introduccin a los Procesos de Poisson * Victor M. PØrez Abreu C. Departamento de Probabilidad y Estadstica, CIMAT David Reynoso Valle Licenciatura en MatemÆticas, DEMAT, Universidad de Guanajuato 22 de julio del 2010 ˝ndice 1. Introduccin 2 2. Propiedades de la distribucin de Poisson 2 2.1. Aproximacin de Poisson ...................... 2 2.2. Distribucin de Poisson ....................... 2 3. Proceso de Conteo 6 4. Proceso de Poisson HomogØneo 6 5. Algunas variables aleatorias de interØs 7 5.1. Tiempos de llegada .......................... 7 5.2. Tiempos entre llegadas ........................ 9 5.3. Tiempo de prxima ocurrencia ................... 13 5.4. Tiempo desde œltima falla ...................... 15 6. Simulacin de un Proceso de Poisson 16 7. Denicin equivalente 16 8. Combinacin de Procesos de Poisson 20 9. Proceso de Poisson compuesto 20 10.Proceso de Poisson no homogØneo 22 * Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de Probabilidad y Estadstica, en julio de 2009 y 2010. 1

Introducción a los Procesos de Poisson - cimat.mx · Introducción a los Procesos de Poisson* Victor M. PØrez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso

  • Upload
    buikiet

  • View
    234

  • Download
    0

Embed Size (px)

Citation preview

Introducción a los Procesos de Poisson*

Victor M. Pérez Abreu C.Departamento de Probabilidad y Estadística, CIMAT

David Reynoso ValleLicenciatura en Matemáticas,

DEMAT, Universidad de Guanajuato

22 de julio del 2010

Índice

1. Introducción 2

2. Propiedades de la distribución de Poisson 22.1. Aproximación de Poisson . . . . . . . . . . . . . . . . . . . . . . 22.2. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . 2

3. Proceso de Conteo 6

4. Proceso de Poisson Homogéneo 6

5. Algunas variables aleatorias de interés 75.1. Tiempos de llegada . . . . . . . . . . . . . . . . . . . . . . . . . . 75.2. Tiempos entre llegadas . . . . . . . . . . . . . . . . . . . . . . . . 95.3. Tiempo de próxima ocurrencia . . . . . . . . . . . . . . . . . . . 135.4. Tiempo desde última falla . . . . . . . . . . . . . . . . . . . . . . 15

6. Simulación de un Proceso de Poisson 16

7. Definición equivalente 16

8. Combinación de Procesos de Poisson 20

9. Proceso de Poisson compuesto 20

10.Proceso de Poisson no homogéneo 22

*Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano deProbabilidad y Estadística, en julio de 2009 y 2010.

1

1. Introducción

En estas notas se compila parte del material que se cubrió en el curso deProbabilidad I de las Licenciaturas en Matemáticas y en Computación de laUniversidad de Guanajuato, en el semestre agosto-diciembre del 2008.Estas notas son un complemento al material de la primera parte del Curso

de Procesos de Poisson del III Verano de Probabilidad y Estadística. Contienenmaterial básico sobre Procesos de Poisson, el cual aparece en la mayoría delos textos que tratan este tema. El énfasis en estas notas es en el rigor de lasdefiniciones y las demostraciones detalladas de las principales propiedades deestos procesos, usando conceptos y resultados sencillos de probabilidad.Los autores agradecen de antemano los comentarios que los participantes

puedan tener. Nuestro objetivo es terminar pronto una Notas de Introducciónal Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primercurso de probabilidad en licenciatura.

2. Propiedades de la distribución de Poisson

2.1. Aproximación de Poisson

La distribución de Poisson es un caso límite de la distribución binomialB (n, pn) cuando la probabilidad de éxito es variable.Si una variable aleatoria X modela el número de éxitos obtenidos luego de

n ensayos Bernoulli con probabilidad de éxito p > 0, entonces la probabilidadde tener k éxitos en n ensayos está dada por

P (X = k) =

(n

k

)pk (1− p)n−k .

Se dice entonces que X tiene distribución binomial de parámetros n y p (X ∼B (n, p)).Si λ = E(X) = np se mantiene constante cuando n y p varían, tenemos que

πk (λ) = lımn→∞

P (X = k) = λke−λ

k!(1)

para toda r ≥ 0. (notemos que cuando n crece, p decrece).

Ejercicio 1 Probar (1). Sugerencia: Recordar que lımn→∞(1 + x

n

)n= ex.

2.2. Distribución de Poisson

Definición 1 Una variable aleatoria X tiene distribución de Poisson P (λ) sitoma valores enteros positivos y

P (X = k) = πk (λ) = λke−λ

k!k ≥ 0

2

donde λ puede tomar cualquier valor λ > 0.

Ejercicio 2 Probar que si X ∼ P (λ)

1. E (X) = λ.

2. V ar (X) = λ.

3. La función generadora de momentos de X ∼ P (λ) φ (t) = eλ(et−1).

En ocasiones es útil extender la definición de P (λ) para incluir los casosextremos 0 e ∞. P (0) sería la distribución concentrada en el 0

P (X = 0) = 1,

y P (∞) la distribución concentrada en +∞

P (X = +∞) = 1.

Una de las propiedades más importantes de la distribución de Poisson es suaditividad.

Teorema 1 Si X y Y son variables aleatorias independientes con distribu-ciones P (λ1) y P (λ2), entonces X + Y ∼ P (λ1 + λ2).

Demostración. Ejercicio.Por inducción, podemos ver fácilmente que este resultado es cierto para

cualquier suma finita de variables aleatorias independientes. Además se tiene lasiguiente propiedad importante.

Ejercicio 3 Probar que la distribución de Poisson es infinitamente divisible,esto es, dada una variable aleatoria X con distribución Poisson P (λ), paratoda n > 0 podemos encontrar n variables aleatorias independientes X1, . . . , Xn

con distribución Poisson P (λ1) , . . . , P (λn) tales que∑ni=1Xi ∼ P (λ).

Teorema 2 (Teorema de Aditividad Numerable) Sea Xj∞j=1 una suce-sión de variables aleatorias independientes, donde Xj ∼ P (λj) j = 1, 2, . . ..Si

σ =

∞∑j=1

λj

converge, entonces

S =

∞∑j=1

Xj

converge con probabilidad 1 y S ∼ P (σ).Por otro lado, si

∑∞j=1 λj diverge, entonces S diverge con probabilidad 1.

3

Demostración. Por el Teorema 1, tenemos que

Sn =

n∑j=1

Xj

tiene distribución P (σn) donde

σn =

n∑j=1

λj .

Es fácil ver que ∀n ≥ 1 Sn ≤ r ⊃ Sn+1 ≤ r, de donde

S ≤ r =

∞⋂n=1

Sn ≤ r

y por tanto1

P (S ≤ r) = lımn→∞

P (Sn ≤ r)

= lımn→∞

r∑k=0

P (Sn = r)

= lımn→∞

r∑k=0

πk (σn)

=

r∑k=0

lımn→∞

πk (σn) .

Si σn → σ <∞, por ser πr (λ) continua tenemos que

P (S ≤ r) =

r∑k=0

πk (σ)

yP (S = r) = πr (σ) .

Por lo tanto S es finita con distribución P (σ).Si σn →∞,

P (S ≤ r) =

r∑k=0

πk (σ)

= e−σnr∑

k=0

σknk!−→ 0.

EntoncesP (S > r) = 1.

1Si An ∈ F , n ≥ 1 y An ↓ A, entonces P (A) = lımn→∞ P (An)

4

Como este resultado es cierto ∀r ≥ 0, podemos concluir que S diverge conprobabilidad 1.

Luego de este resultado parece más natural haber definido P (0) y P (∞).Con esta convención, si tenemos variables aleatorias independientes Xj con dis-tribuciones P (λj) respectivamente, su suma tiene distribución P (

∑λj), y esto

es cierto sin importar que haya un número infinito de ellas, incluso si algunosλj son 0 o ∞.

Supongamos que X1, . . . , Xn son variables aleatorias independientes conXj ∼ P (λj). Entonces S = X1+· · ·+Xn tiene distribución P (σ) con σ =

∑λj ,

y entonces, si r1, . . . , rn son tales que∑rj = s tenemos que

P (X1 = r1, . . . , Xn = rn | S = s) =

n∏j=1

λrjj e−λj

rj !

/σse−σ

s!

=s!

r1! · · · rn!

(λ1

σ

)r1· · ·(λnσ

)rn.

Estas son las probabilidades de una distribución multinomial M (s, p1, . . . , pn),con pi = λi

σ .Para el caso en el que n = 2, tenemos que si X y Y son variables aleatorias

Poisson independientes (X ∼ P (λ1) y Y ∼ P (λ2)), dado que X + Y = m, ladistribución condicional de X es B (m, p), donde

p =E (X)

E (X) + E (Y ).

Hay un resultado muy útil, que parecería ser el converso del anterior. Supong-amos que N ∼ P (λ) , y que la distribución condicional deM dado N es B (N, p)para alguna constante p. Esto es

P (M = t | N = s) =

(s

t

)pt (1− p)s−t .

Entonces, para m, k ≥ 0,

P (M = m,N −M = k) = P (N = m+ k)P (M = m | N = m+ k)

=e−λλm+k

(m+ k)!

(m+ k

m

)pm (1− p)k

=e−λλm+k

(m+ k)!

(m+ k)!

k!m!pm (1− p)k

= e−λpe−λ(1−p)λmλk1

k!m!pm (1− p)k

=e−λpλmpm

m!

e−λ(1−p)λk (1− p)k

k!

=e−λp (λp)

m

m!

e−λ(1−p) (λ (1− p))k

k!.

5

Así, M y N −M son variables aleatorias independientes Poisson con medias λpy λ (1− p) respectivamente.

3. Proceso de Conteo

Definición 2 (Proceso de Conteo) Se dice que un proceso estocástico N (t) ; t ≥ 0es un proceso de conteo si representa el número de eventos ocurridos hasta eltiempo t, esto es, satisface:

i) N (0) ≥ 0.

ii) N (t) toma valores enteros.

iii) Es no decreciente, i.e. si s < t, entonces N (s) ≤ N (t).

iv) Para s < t, N (t)−N (s) es igual al número de eventos que ocurrieron enel intervalo (s, t].

La trayectoria de un proceso de conteo es la gráfica (t,N(t)) para t ≥ 0.Las trayectorias se toman de tal forma de que sean continuas por la derecha yque tengan límite por la izquierda.

4. Proceso de Poisson Homogéneo

Definición 3 (Proceso de Poisson homogéneo) Una colección de variablesaleatorias N (t) ; t ≥ 0 (definidas en un espacio de probabilidad (Ω,F ,P)) sellama proceso de Poisson (homogéneo) con intensidad λ > 0 si satisfacelas siguientes propiedades:

i) P(N(0) = 0) = 1, esto es, N(0) es siempre 0.

ii) ∀ 0 < s < t N(t) − N(s) tiene distribución de Poisson de parámetroλ(t− s).

iii) ∀ 0 ≤ t1 < · · · < tn, n ≥ 1 (es decir, para todo conjunto finito de tiem-pos), las variables aleatorias N(tn)−N(tn−1), . . . , N(t2)−N(t1), N(t1),son independientes. Esta propiedad se conoce como propiedad de incre-mentos independientes.

Observemos que ∀t ≥ 0, la variable aleatoria N(t) tiene distribución dePoisson de parámetro λt. Por (ii) tenemos que N(t) − N(0) ∼ P (λ(t − 0)), ypor (i) tenemos que N(0) ≡ 0, lo que nos dice que N(t) ∼ P (λt).Ahora, ∀0 < s < t tenemos por (ii) que N(t) − N(s) ∼ P (λ(t − s)) y

por lo anterior, N(t− s) ∼ P (λ(t− s)). Podemos darnos cuenta entonces que la

6

distribución del incremento N(t) − N(s) y la de la variable aleatoria N(t − s)es la misma. Además esto nos dice que P(N(t)−N(s) ≥ 0) = 1, pues

P(N(t)−N(s) ≥ 0) =

∞∑k=0

P(N(t)−N(s) = k) = 1,

esto es, la distribución sólo depende de la longitud del intervalo t − s. Estapropiedad se conoce como propiedad de incrementos estacionarios.Notemos además que esta propiedad nos garantiza que el proceso es no

decreciente.

5. Algunas variables aleatorias de interés

5.1. Tiempos de llegada

Podemos darnos ahora una idea de cómo se ven las trayectorias de un procesode Poisson, y una pregunta que debemos hacernos es ¿qué distribución tienen lostiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiemposen los que ocurre un éxito.Para poder ver la distribución de los tiempos de llegada, es necesario asocia-

rles una variable aleatoria. Queremos que el tiempo del primer éxito sea el t máspequeño para el que N(t) = 1, esto es, podemos definir el tiempo del primeréxito como

T1 = ınf t ≥ 0;N(t) = 1 .Ahora, queremos que dado un m ≥ 1 el m-ésimo tiempo de llegada sea el t máspequeño para el que N(t) = m, entonces podemos definir el tiempo del m-ésimoéxito de la misma forma que antes, pues el proceso es no decreciente,

Tm = ınf t ≥ 0;N(t) = m .

La pregunta ahora es ¿son T1, T2, . . . , Tm, . . . variables aleatorias?

Proposición 1 ∀t ≥ 0 y ∀m > 0 tenemos que Tm ≤ t = N(t) ≥ m.

Demostración. Recordemos que N(t) ≥ m = ω ∈ Ω : N(t)(ω) ≥ m yTm ≤ t = ω ∈ Ω : Tm(ω) ≤ t.Sean t ≥ 0 y m > 0. Por definición Tm = ınf k ≥ 0 : N(k) = m, esto

es, para un ω ∈ Ω dado tenemos que Tm(ω) = ınf k ≥ 0;N(k)(ω) = m. Enparticular N(Tm(ω))(ω) = m.Sea ω0 ∈ N(t) ≥ m. Entonces

N(t)(ω0) ≥ m⇒ N(t)(ω0) ≥ N(Tm(ω0))(ω0).

Luego, como N(t) es no decreciente, tenemos que t ≥ Tm(ω0), es decir ω0 ∈Tm ≤ t.

∴ N(t) ≥ m ⊂ Tm ≤ t.

7

Sea ω0 ∈ Tm ≤ t. Entonces

Tm(ω0) ≤ t ⇒ N(Tm(ω0))(ω0) ≤ N(t)(ω0)

⇒ m ≤ N(t)(ω0)

es decir, ω0 ∈ N(t) ≥ m.

∴ Tm ≤ t ⊂ N(t) ≥ m.

∴ Tm ≤ t = N(t) ≥ m

Corolario 1 ∀m > 0 tenemos que Tm es una variable aleatoria.2

Ahora que ya vimos que los tiempos de llegada son variables aleatorias,veamos qué distribución tiene el primer tiempo de llegada.

Proposición 2 T1 tiene distribución exponencial de parámetro λ > 0.3

Demostración. Como T1 ≤ t = N(t) ≥ 1,

P(T1 ≤ t) = P(N(t) ≥ 1)

= 1− P(N(t) = 0)

= 1− (λt)0 e−λt

0!

= 1− e−λt,

lo que nos dice que T1 ∼ E(λ).

Corolario 2 El tiempo esperado de la primera llegada es E(T1) = 1λ .

Proposición 3 La v.a. Tm tiene distribución G(m, 1

λ

).

fTm(t) =

1

Γ(m)λm−1e−λt si t ≥ 0

0 de otra forma.

2Recordar definición de variable aleatoria.3Recordemos que una variable aleatoria X tiene distribución exponencial de parámetro

λ > 0 si P (X ≤ x) =∫ x0 f (t) dt, con f (t) = λe−λt.

8

Demostración. De la proposición 1 tenemos

P(Tm ≤ t) = P(N(t) ≥ m)

= 1− P(N(t) ≤ m− 1)

= 1−m−1∑k=0

P(N(t) = k)

= 1−m−1∑k=0

(λt)ke−λt

k!

Derivando obtenemos

fTm(t) = − d

dt

(e−λt

m−1∑k=0

(λt)k

k!

)

= λe−λtm−1∑k=0

(λt)k

k!− e−λt

m−1∑k=1

λk(λt)

k−1

k!

= λe−λt

(m−1∑k=0

(λt)k

k!−m−1∑k=1

(λt)k−1

(k − 1)!

)

= λe−λt

(m−1∑k=0

(λt)k

k!−m−2∑k=0

(λt)k

k!

)

= λe−λt(λt)

m−1

(m− 1)!

=1

Γ(m)λmtm−1e−λ

que es la función de densidad de una v.a. con distribución G(m, 1

λ

).

5.2. Tiempos entre llegadas

Definición 4 (Tiempo entre llegadas) 4

τ t = ınf s > t : N (s)−N (t) = 1

Teorema 3 ∀n ≥ 1, las v.a. τ1, τ2, . . ., τn son independientes y con la mismadistribución exponencial E(λ).

Demostración. Veamos primero el caso cuando n = 2.Queremos demostrar que ∀0 < s1 < s2 <∞ se tiene que

P(τ1 ≤ s1, τ2 < s2) = P(τ1 ≤ s1)P(τ2 ≤ s2).

4 (¡!) Checar que esté bien definido...

9

P(τ1 ≤ s1, τ2 ≤ s2) = P(T1 ≤ s1, T2 − T1 ≤ s2)

= P(T1 ≤ s1, T2 ≤ s2 + T1)

= P(T1 ≤ s1, T2 ≤ s1 + s2)

= P(N(s1) ≥ 1, N(s1 + s2) ≥ 2)

=

∞∑k1=1

P(N(s1) = k1, N(s1 + s2) ≥ 2)

=

∞∑k1=1

∞∑k2=2k1<k2

P(N(s1) = k1, N(s1 + s2) = k2)

=

∞∑k1=1

∞∑k2=k1+1

P(N(s1) = k1, N(s1 + s2) = k2)

=

∞∑k1=1

∞∑k2=k1+1

P(N(s1) = k1, N(s1 + s2)−N(s1) = k2 − k1)

por incrementos independientes

P (τ1 ≤ s1, τ2 ≤ s2) =

∞∑k1=1

∞∑k2=k1+1

P(N(s1) = k1)P(N(s1+s2)−N(s1) = k2−k1)

usando la propiedad de incrementos estacionarios

P(τ1 ≤ s1, τ2 ≤ s2) =

∞∑k1=1

∞∑k2=k1+1

P(N(s1) = k1)P(N(s2) = k2 − k1)

=

∞∑k1=1

∞∑k2=1

P(N(s1) = k1)P(N(s2) = k2)

=

( ∞∑k1=1

P(N(s1) = k1)

)( ∞∑k2=1

P(N(s2) = k2)

)= (1− P(N(s1) = 0) (1− P(N(s2) = 0)

=(1− e−λs1

) (1− e−λs2

)Hasta ahora hemos demostrado que ∀0 < s1 <∞ y ∀0 < s2 <∞

P(τ1 ≤ s1, τ2 ≤ s2) =(1− e−λs1

) (1− e−λs2

), (2)

pero ya sabemos que T1 ∼ E(λ), entonces

P(τ1 ≤ s1, τ2 ≤ s2) = P(T1 ≤ s1)(1− e−λs2

)= P(τ1 ≤ s1)

(1− e−λs2

).

10

Del lado izquierdo de (2) tenemos

lıms1↑∞

P(τ1 ≤ s1, τ2 ≤ s2) = P(τ2 ≤ s2),

y comolıms1↑∞

P(T1 ≤ s1) = 1,

tenemos queP(τ2 ≤ s2) = 1− e−λs2 ∀0 < s1 <∞

∴ τ2 ∼ E(λ).

Entonces

P (τ1 ≤ s1, τ2 ≤ s2) = P (τ1 ≤ s1)P (τ2 ≤ s2) ,

esto es, τ1 y τ2 son independientes y tienen la misma distribución exponencialE (λ).

Veamos ahora el caso para n ≥ 2.Supongamos que τ1, τ2, . . . , τn son independientes y que τ i ∼ E(λ) para

1 ≤ i ≤ n, esto es, ∀ 0 < s1 < s2 < · · · < sn <∞ tenemos que

P(τ1 ≤ si ; 1 ≤ i ≤ n) =

n∏i=1

(τ i ≤ si) =

n∏i=1

(1− e−λsi

).

Queremos demostrar que τ1, τ2, . . . , τn, τn+1 son independientes y que τn+1 ∼E(λ). Sean 0 < s1 < s2 < · · · < sn < sn+1 <∞. Entonces

P(τ i ≤ s1 ; 1 ≤ i ≤ n+ 1) = P (Ti − Ti−1 ≤ si ; 1 ≤ i ≤ n+ 1)

= P (Ti ≤ si + Ti−1 ; 1 ≤ i ≤ n+ 1)

= P

Ti ≤ si +

i−1∑j=1

sj ; 1 ≤ i ≤ n+ 1

= P

Ti ≤ i∑j=1

sj ; 1 ≤ i ≤ n+ 1

= P

N i∑j=1

sj

≥ i ; 1 ≤ i ≤ n+ 1

=

∑1≤k1<···<kn+1

P

N i∑j=1

sj

≥ ki ; 1 ≤ i ≤ n+ 1

=

∑1≤k1<···<kn+1

P

N i∑j=1

sj

≥ ki ; 1 ≤ i ≤ n+ 1

=

∑1≤k1<···<kn+1

P

N i∑j=1

sj

−Ni−1∑j=1

sj

≥ ki − i−1∑j=1

kj ; 1 ≤ i ≤ n+ 1

11

por incrementos independientes

P(τ i ≤ s1 ; 1 ≤ i ≤ n+1) =∑

1≤k1<···<kn+1

n+1∏i=1

P

N i∑j=1

sj

−Ni−1∑j=1

sj

≥ ki − i−1∑j=1

kj

por incrementos estacionarios

P(τ i ≤ s1 ; 1 ≤ i ≤ n+ 1) =∑

1≤k1<···<kn+1

n+1∏i=1

P

N (si) ≥ ki −i−1∑j=1

kj

haciendo cambio de variable

P(τ i ≤ s1 ; 1 ≤ i ≤ n+ 1) =

∞∑k1,...,kn+1=1

n+1∏i=1

P (N (si) ≥ ki)

=

n+1∏i=1

( ∞∑k=1

P (N (si) ≥ k)

)

=

n+1∏i=1

(1− P (N (si) = 0))

=

n+1∏i=1

(1− e−λsi

)

Hemos demostrado hasta ahora que

P(τ i ≤ si ; 1 ≤ i ≤ n+ 1) =

n+1∏i=1

(1− e−λsi

)y como por hipótesis tenemos que

P(τ1 ≤ si ; 1 ≤ i ≤ n) =

n∏i=1

(1− e−λsi

)entonces

P (τ i ≤ si ; 1 ≤ i ≤ n+ 1) =

(n∏i=1

P (τ i ≤ si))(

1− e−λsn+1).

Tomando límites de ambos lados

lımsi→∞1≤i≤n

P(τ i ≤ si ; 1 ≤ i ≤ n+ 1) = lımsi→∞1≤i≤n

n∏i=1

P (τ i ≤ si)(1− e−λsn+1

)P (τn+1 ≤ sn+1) = 1− e−λsn+1 .

12

Por lo tanto,∀n ≥ 1, las variables aleatorias τ1, . . . , τn son independientes ytienen la misma distribución exponencial E (λ).

No es difícil convencerse de que

Tm =

m∑k=0

τk, (3)

entonces, como E (λ) = G(1, 1

λ

)y la suma de n variables aleatorias independi-

entes con la misma distribución G (k, α) tiene distribución G (nk, α), tenemosque

Tm ∼ G(m,

1

λ

).

Ejercicio 4 Probar (3).

5.3. Tiempo de próxima ocurrencia

Definición 5 (Tiempo de próxima falla) Dado un tiempo t queremos estu-diar el tiempo que tardaremos en tener otra falla. Definamos

φt := ınf s ≥ 0 ; N(s+ t)−N(t) = 1

como el tiempo de la primera falla a partir del tiempo t.

Proposición 4 φt tiene distribución exponencial E(λ) independiente de t.

Demostración. Sea g(s) = 1− P (φt ≤ s) = P (φt > s).Observemos que φt > s = τ t > t+ s ∀ s < t.

g(s+ h) = P (φt > s+ h)

= P (τ t > t+ s+ h)

= P (τ t > t+ s , N (t+ s+ h)−N (t+ s) = 0) .

El evento τ t ≤ s+ t depende de lo que pasa hasta el tiempo t + s5 ypor la propiedad de incrementos independientes, es independiente de lo queocurre en el intervalo (t + s, t + s + h]. Esto nos dice que τ t ≤ s+ t, yN (t+ s+ h)−N (t+ s) = 0 son independientes, y por lo tanto τ t > s+ tyN (t+ s+ h)−N (t+ s) = 0 también lo son6 .

Entonces tenemos

g (s+ h) = P (τ t > t+ s)P (N (t+ s+ h)−N (t+ s) = 0)

= P (φt > s)P (N (h) = 0)

= g(s)e−λh.

5Esto es lo que se conoce como tiempo de paro.6Recordemos que si dos eventos A y B son independientes, entonces AC y B son indepen-

dientes, A y BC son independientes y AC y BC son independientes.

13

Así,g(s+ h)− g(s)

h=g(s)

(e−λh − 1

)h

y tomando límites nos queda que

g′ (s) = lımh→0

g(s)(e−λh − 1

)h

= g (s) lımh→0

e−λh − 1

h= −λg (s) .

Sabemos que las únicas soluciones para g′ (s) = −λg (s) son de la forma

g (s) = ke−λs k ∈ R,

y también queg (0) = P (φt > 0) = 1.

EntoncesP (φt > s) = e−λs,

por lo tantoP (φt ≤ s) = 1− e−λs s > 0.

Esto es, ∀t φt tiene distribución exponencial E (λ).

Proposición 5 Una variable aleatoria X con distribución exponencial de parámetroλ > 0, tiene la propiedad de pérdida de memoria. Esto es

P (X > t+ s | X > s) = P (T > t) .

Demostración. Observemos que ∀ t ≥ 0

P (X > t) = e−λt,

pues tenemos queP (X ≤ t) = 1− e−λt.

Sean s, t ≥ 0. Entonces

P (T > t+ s | T > s) =P (T > t+ s , T > s)

P (T > s)

=P (T > t+ s)

P (T > s)

=e−λ(t+s)

e−λs

= e−λt

= P (T > t) .

Por lo tanto X ∼ E (λ) tiene la propiedad de pérdida de memoria.

14

Proposición 6 Un proceso de Poisson de parámetro λ > 0, tiene la propiedadde pérdida de memoria.

5.4. Tiempo desde última falla

Definición 6 (Tiempo desde última falla) Dado un tiempo t queremos es-tudiar el tiempo que ha pasado desde la última falla. Definamos

lt := ınf s ≥ 0 : N (t)−N (t− s) = 0

como el tiempo desde que ocurrió la última falla.

Proposición 7 La distribución de lt es la siguiente:

P (lt = t) = e−λt.

P (lt ≤ s) = 1− e−λs ∀ 0 ≤ s < t.

Demostración. Se deja como ejercicio checar que lt esté bien definida y esvariable aleatoria.En el primer caso tenemos que

P (lt = t) = P (N (t)−N (t− t) = 0)

= P (N (t) = 0)

= P (T1 ≥ t)= e−λt.

En el segundo caso tenemos que si 0 ≤ s < t

P (lt ≤ s) = P (N (t)−N (t− s) ≥ 1)

y

P (lt > s) = P (N (t)−N (t− s) = 0)

= P (N (s) = 0)

= P (T1 ≥ s)= e−λs,

entoncesP (lt ≤ s) = 1− e−λs

Observemos que la distribución de la proposición anterior es tal que tieneun salto en t y de otra forma tiene densidad. Es un ejemplo de una distribuciónque tiene una parte discreta y otra parte continua.

15

6. Simulación de un Proceso de Poisson

Proposición 8 Sean U ∼ U (0, 1) y λ > 0. Entonces − 1λ ln (1− U) ∼ E (λ).

Demostración. Queremos demostrar que

P(− 1

λln (1− U) ≤ x

)=

1− e−λx x ≥ 00 x ≤ 0.

P(− 1

λln (1− U) ≤ x

)= P (ln (1− U) ≥ −λx)

= P(1− U ≥ e−λx

)= P

(U ≤ 1− e−λx

).

Recordemos que

FU (x) =

x 0 ≤ x ≤ 10 en otro caso,

entonces

P(U ≤ 1− e−λx

)=

1− e−λx x ≥ 00 x ≤ 0,

como queríamos.Por lo tanto − 1

λ ln (1− U) ∼ E (λ).

La proposición anterior nos muestra un método para simular en una com-putadora una variable aleatoria con distribución E (λ) usando un generador denúmeros aleatorios uniforme en (0, 1). Entonces, como en un proceso de Poissonde parámetro λ > 0, τm ∼ E (λ) y Tm =

∑mk=0 τk, podemos simular los tiempos

de llegada como una suma de variables aleatorias exponenciales E (λ).

7. Definición equivalente

Definición 7 (Proceso de Poisson homogéneo) Una colección de variablesaleatorias N (t) , t ≥ 0 es un Proceso de Poisson homogéneo de parámetroλ > 0 si:

1. P (N (0) = 0) = 1.

2. N (t) tiene incrementos estacionarios.

3. N (t) tiene incrementos independientes.

4. Para h pequeña:

a) P (N (t+ h)−N (t) = 1) = λh+ o (h).

16

b) P (N (t+ h)−N (t) > 1) = o (h).

Observaciones:

La condición 4.a nos dice que la probabilidad de que ocurra exactamenteun evento en un intervalo de tiempo pequeño, es "proporcional.a la longi-tud del intervalo.

La condición 4.b nos dice que la probabilidad de que ocurran dos o máseventos en un intervalo de tiempo pequeño es despreciable.

Teorema 4 Las definiciones 3 y 7 son equivalentes.

Demostración. Veamos primero que (3)⇒(7).En la sección 4 vimos que de acuerdo con la definición 3, un proceso de

Poisson homogéneo tiene la propiedad de incrementos estacionarios, esto es(3)⇒(7.2)Falta ver que (3)⇒(7.4).a)

P (N (t+ h)−N (t) = 1) = P (N (h) = 1)

= (λh) e−λh

= λh+ λh(e−λh − 1

)Luego, como

lımh→0

λh(e−λh − 1

)h

= λ lımh→0

(e−λh − 1

)= 0,

tenemos queP (N (t+ h)−N (t) = 1) = λh+ o (h) .

b)

P (N (t+ h)−N (t) > 1) = P (N (h) > 1)

=

∞∑k=2

(λh)k e−λh

k!

y como

lımh→0

(λh)k e−λhh

k!

h=λ

k!lımh→0

hk−1e−λhk = 0 k ≥ 2

tenemos que

lımh→0

∞∑k=2

(λh)k e−λh

k!= 0,

esto es,P (N (t+ h)−N (t) > 1) = o (h) .

17

Por lo tanto (3)⇒(7).Veamos ahora que (7)⇒(3). Falta ver que (7)⇒(3.ii).Definamos una función

f (t, n) := P (N (t) = n) .

Veamos que f (t, 0) = e−λh.

f (t+ h, 0) = P (N (t+ h) = 0)

= P (N (t) = 0 , N (t+ h)−N (t) = 0)

= P (N (t) = 0)P (N (t+ h)−N (t) = 0)

= f (t, 0) (1− P (N (t+ h)−N (t) ≥ 1))

= f (t, 0) (1− (P (N (t+ h)−N (t) = 1) + P (N (t+ h)−N (t) > 1)))

= f (t, 0) (1− ((λh+ o (h)) + o (h)))

= f (t, 0) (1− (λh+ o (h)))

= f (t, 0) (1− λh+ o (h)) .

Tenemos entonces

lımh→0

f (t+ h, 0)− f (t, 0)

h= lım

h→0

f (t, 0) (−λh+ o (h))

h

f ′ (t, 0) = −λf (t, 0) ,

de dondef (t, 0) = e−λt.

Notemos que ∀n > 1

d

dtf (t, n) = λ (f (t, n− 1)− f (t, n)) .

18

f (t+ h, n) = P (N (t+ h) = n)

=

n∑k=0

P (N (t) = n− k , N (t+ h)−N (t) = k)

=

n∑k=0

P (N (t) = n− k)P (N (t+ h)−N (t) = k)

= P (N (t) = n)P (N (t+ h)−N (t) = 0) + P (N (t) = n− 1)P (N (t+ h)−N (t) = 1)

+

n∑k=2

P (N (t) = n− k)P (N (t+ h)−N (t) = k)

= f (t, n) (1− P (N (t+ h)−N (t) ≥ 1)) + f (t, n− 1) (λh+ o (h))

+

∞∑k=2

(λt)n−k e−λt

(n− k)!o (h)

= f (t, n) (1− (P (N (t+ h)−N (t) = 1) + P (N (t+ h)−N (t) > 1)))

+λh f (t, n− 1) + o (h)

= f (t, n) (1− ((λh+ o (h)) + o (h))) + λh f (t, n− 1) + o (h)

= f (t, n) + λh (f (t, n− 1)− f (t, n)) + o (h) .

Entonces

lımh→0

f (t+ h, n)− f (t, n)

h= lım

h→0

λh (f (t, n− 1)− f (t, n)) + o (h)

hd

dtf (t, n) = λ (f (t, n− 1)− f (t, n)) .

Veamos ahora que ∀n ≥ 0, f (t, n) = (λt)n e−λt

n! .

d

dt

((λt)

n+1 e−λt

(n+ 1)!

)=

λn+1

(n+ 1)!

d

dt

(tn+1e−λt

)=

λn+1

(n+ 1)!

((n+ 1) tne−λt − λtn+1e−λt

)= λ

((λt)

n e−λt

n!− (λt)

n+1 e−λt

(n+ 1)!

)Luego, por el Teorema de Existencia Unicidad de solución de ecuaciones difer-enciales, tenemos el resultado.Por lo tanto N (t) , t ≥ 0 es un Proceso de Poisson de parámetro λ (de

acuerdo con las definición (3).

∴ Las dos definiciones son equivalentes.

19

8. Combinación de Procesos de Poisson

Teorema 5 Sean N1 (t) , t ≥ 0 y N2 (t) , t ≥ 0 procesos de Poisson in-dependientes con parámetros λ1 y λ2 respectivamente. Sea N (t) = N1 (t) +N2 (t) , t ≥ 0. Entonces N (t) , t ≥ 0 es un proceso de Poisson de parámetroλ1 + λ2.

Demostración. Claramente N (0) ≡ 0.Recordemos que si Sn =

∑ni=1Xi yXi ∼ P (λi), entonces Sn ∼ P (

∑ni=1 λi).

Entonces ∀t ≥ 0 tenemos que N (t) ∼ P (t (λ1 + λ2)).Recordemos también que si tenemos Ai y Bi dos sucesiones de variables

aleatorias independientes, independientes entre sí, entonces Ai +Bi es unasucesión de variables aleatorias independientes.Esto nos dice que N (t) tiene incrementos independientes, pues dados t0 =

0 < t1 < t2 < · · · < tn tenemos que Ni (tj)−Ni (tj−1) , j = 1, . . . , n i = 1, 2son independientes, y por tanto N (tj)−N (tj−1) , j = 1, . . . , n también lo son.Por lo tanto N (t) , t ≥ 0 es un Proceso de Poisson de parámetro λ1 + λ2.

Corolario 3 Sean N1 (t) , t ≥ 0 , N2 (t) , t ≥ 0 , . . . , Nn (t) , t ≥ 0 proce-sos de Poisson independientes con parámetros λ1, λ2, . . . , λn respectivamente.Sea N (t) =

∑nk=1Nk (t) , t ≥ 0. Entonces N (t) , t ≥ 0 es un proceso de

Poisson de parámetro∑nk=1 λk.

9. Proceso de Poisson compuesto

Definición 8 (Proceso de Poisson Compuesto) Sea Xii≥1 una sucesiónde variables aleatorias independientes idénticamente distribuidas e independi-entes del proceso de Poisson N (t) , t ≥ 0 de parámetro λ. El proceso

X (t) =

N(t)∑i=1

Xi

se llama proceso de Poisson compuesto.

Teorema 6 Sea N (t) , t ≥ 0 un proceso de Poisson de parámetro λ. Supong-amos que cada llegada es de tipo 1 con probabilidad p1 o de tipo 2 con probabil-idad p2 = 1− p1, independiente de las demás llegadas. Sea Ni (t) el número dellegadas del tipo i hasta el tiempo t. Entonces N1 (t) , t ≥ 0 y N2 (t) , t ≥ 0son procesos de Poisson independientes con parámetros λp1y λp2 respectiva-mente.

20

Demostración. Sea ξkk≥0 una sucesión de variables aleatorias Bernoulli deparámetro p1. Entonces

N1 (t) =

N(t)∑k=1

ξk

y

N2 (t) =

N(t)∑k=1

(1− ξk) = N (t)−N1 (t) .

Es claro que N1 (t) y N2 (t) tienen incrementos independientes y estacionar-ios, puesN (t) los tiene. Además también es fácil darse cuenta de que P (Ni (t+ h)−Ni (t) > 1) =o (h), pues P (N (t+ h)−N (t) > 1) = o (h) y Ni (h) = s⇒ N (t) ≥ s.Veamos que para h pequeña P (N1 (t+ h)−N1 (t) = 1) = p1λh+ o (h).

P (N1 (t+ h)−N1 (t) = 1) = P

N(t+h)∑k=1

ξk −N(t)∑k=1

ξk = 1

= P

N(t+h)∑N(t)+1

ξk = 1

= P (N (t+ h)−N (t) = 1 , ξk = 1)

= P (N (t+ h)−N (t) = 1)P (ξk = 1)

= (λh+ o (h)) p1

= λp1h+ o (h) .

Similarmente podemos ver que P (N2 (t+ h)−N2 (t) = 1) = λp2h+ o (h).

∴ N1 (t) , t ≥ 0 y N2 (t) , t ≥ 0 son Procesos de Poisson con parámetros λp1 y λp2.

Veamos ahora que son independientes. Sea t ≥ 0 y s1, s2 ∈ R.

P (N1 (t) ≤ s1 , N2 (t) ≤ s2) =

s1∑k1=0

P (N1 (t) = k1 , N2 (t) ≤ s2)

=

s1∑k1=0

s2∑k2=0

P (N1 (t) = k1 , N2 (t) = k2)

como sabemos que N1 (t) +N2 (t) = N (t)

P (N1 (t) = k1 , N2 (t) = k2) = P (N1 (t) = k1 , N2 (t) = k2 | N (t) = k1 + k2)P (N (t) = k1 + k2)

y

P (N1 (t) = k1 , N2 (t) = k2 | N (t) = k1 + k2) =

(k1 + k2

k1

)pk1

1 pk22

21

entonces

P (N1 (t) ≤ s1 , N2 (t) ≤ s2) =

s1∑k1=0

s2∑k2=0

(k1 + k2

k1

)pk1

1 pk22 (λt)

k1+k2e−λt

(k1 + k2)!

=

s1∑k1=0

s2∑k2=0

1

k1!k2!pk1

1 (λt)k1 pk2

2 (λt)k2 e−λ(p1+p2)t

=

s1∑k1=0

s2∑k2=0

(λp1t)k1e−λp1t

k1!(λp2t)

k2e−λp2t

k2!

=

s1∑k1=0

s2∑k2=0

P (N1 (t) = k1)P (N2 (t) = k2)

=

(s1∑

k1=0

P (N1 (t) = k1)

)(s2∑

k2=0

P (N2 (t) = k2)

)= P (N1 (t) ≤ s1)P (N2 (t) ≤ s2) .

Por lo tanto N1 (t) , t ≥ 0 y N2 (t) , t ≥ 0 son procesos de Poisson in-dependientes con parámetros λp1 y λp2.

Corolario 4 Sea N (t) , t ≥ 0 un proceso de Poisson de parámetro λ. SeaXk∞k=1 una sucesión de variables aleatorias independientes con la misma dis-tribución discreta pknk=1. Supongamos que cada llegada es de tipo i con proba-bilidad pi, independiente de las demás llegadas. Sea Ni (t) el número de llegadasdel tipo i hasta el tiempo t. Esto es

Ni (t) =

N(t)∑k=0

δiXk

donde

δi j =

0 si i 6= j1 si i = j.

Entonces N1 (t) , t ≥ 0 , . . . , Nn (t) , t ≥ 0 son procesos de Poisson inde-pendientes con parámetros λp1, . . . , λpn respectivamente.

10. Proceso de Poisson no homogéneo

Definición 9 (Proceso de Poisson no homogéneo con intensidad Λ (t))Una colección de variables aleatorias N(t), t ≥ 0 se llama proceso de Pois-son no homogéneo con intensidad Λ (t) si satisface las siguientes propiedades:

a) P(N(0) = 0) = 1.

22

b) N (t) tiene incrementos independientes.

c) ∀ 0 < s < t se tiene que P (N (t)−N (s) = k) = (Λ (t)− Λ (s))k e−(Λ(t)−Λ(s))

k!k = 0, 1, 2, . . .. Esto es N (t)−N (s) ∼ P (Λ (t)− Λ (s)), donde Λ (t) es nodecreciente y Λ (0) = 0.

Veamos la distribución del tiempo del primer evento (T1) en un proceso dePoisson de intensidad Λ (t).

P (T1 ≤ t) = P (N (t) ≥ 1)

= 1− P (N (t) = 0)

= 1− e−Λ(t).

Esto esFT1

(x) = 1− e−Λ(t).

Si Λ (t) es diferenciable en t con derivada λ (t), entonces

fT1(t) = λ (t) e−Λ(t).

Notemos que un Proceso de Poisson homogéneo es un caso particular de unProceso de Poisson no homogéneo, tomando Λ (t) = λt.En general es usual proponer

Λ (t) =

∫ t

0

λ (s) ds,

donde λ (s) ≥ 0 ∀ s.

23