Upload
eduardo-martins
View
103
Download
7
Embed Size (px)
Citation preview
PESQUISA OPERACIONAL
Um texto essencial para
Engenharias, Computação e
Ciências Econômicas
Antônio César Baleeiro Alves
Marco Antônio Figueiredo de Menezes
Francisco José Pfeilsticker Zimmermann
Goiânia
2006
SUMÁRIO Capítulo 1: MODELAGEM EM PESQUISA OPERACIONAL
Capítulo 2: MATRIZES E SISTEMAS LINEARES
Capítulo 3: PROGRAMAÇÃO LINEAR
Capítulo 4: DISTRIBUIÇÕES DE PROBABILIDADE
Capítulo 5: PROCESSOS DE MARKOV
Capítulo 6: SISTEMAS DE FILAS DE ESPERA
Capítulo 7: SIMULAÇÃO
BIBLIOGRAFIA
APÊNDICES
Capítulo 1
Modelagem em Pesquisa Operacional
Neste capítulo estudaremos o processo de modelagem em Pesquisa
Operacional (PO). O objetivo aqui, não é o de obter soluções de problemas de PO, mas sim o
de modelar problemas, em contraposição ao uso apenas da experiência e do bom senso.
Como referências básicas sugerimos (HILLIER e LIEBERMAN, 1995) e
(GOLDBARG e LUNA, 2005).
A influência da Segunda Guerra Mundial foi decisiva para o ressurgimento
da PO, e os desenvolvimentos que se seguiram nas décadas que sucederam ao grande conflito
são devidos especialmente à difusão do computador nas universidades e empresas. Havia
demandas da parte da indústria e dos governos (transportar, planejar e interceptar, etc.), novos
conhecimentos em Matemática, Engenharia, Estatística, Economia e Computação eram
publicados, e financiamentos de pesquisa nesta área de conhecimento surgiram. O projeto
Scientific Computation of Optimum Programs é um exemplo de relevante financiamento
ocorrido na ocasião, que resultou num grupo formado para pesquisar a viabilidade em aplicar
a Matemática e técnicas correlacionadas à análise de problemas de planejamento e
programação militar.
1.1 O processo de modelagem
Os responsáveis pela tomada de decisões nos mais variados campos da
atividade humana defrontam-se com a necessidade de resolver algum problema específico de
PO. A compreensão e a definição do problema são de fundamental importância para o
processo de modelagem.
O primeiro passo para a resolução de um problema de PO é a formulação,
que consiste em traduzir a realidade empírica para sentenças lógicas e dados objetivos,
permitindo a partir daí o estabelecimento de um modelo matemático. É onde devemos decidir
(julgamento humano) que aspectos do sistema real devemos incorporar ao modelo, assim
como quais podem ser ignorados, que suposições podem ser feitas e quais podem ser
2
descartadas. A tradução está sujeita a erros e falhas de comunicação. Também, não existem
técnicas precisas capazes de permitir o estabelecimento do modelo de um problema.
O segundo passo é a dedução do modelo, isto é, analisá-lo e resolvê-lo
através de algoritmos específicos. Sua solução, atenta aos métodos numéricos em
Computação, sugere uma tomada de decisão. Para a sua sustentação, recorremos ao terceiro
passo que é a interpretação de uma solução do modelo para uma solução do sistema real. Se o
modelo não for validado, ele deve ser reformulado, e assim por diante. Este é o processo de
modelagem. Para maiores detalhes sobre o processo de modelagem, recomendamos
(RAVINDRAN, PHILLIPS e SOLBERG, 1987).
A seguir, estudaremos o primeiro passo do processo, ou seja, a formulação
em Programação Matemática e exemplos de modelos probabilísticos, sem nos preocuparmos
com a solução e a validação.
1.2 Formulação de alguns problemas
Trataremos a seguir três problemas de PO nesta seção, um da área agrícola,
outro de administração, um de eletricidade, além de alguns processos estocásticos. Em cada
seção, enunciaremos o problema de PO e seu modelo correspondente. Finalmente com relação
aos modelos probabilísticos, apenas enunciaremos alguns problemas.
1.2.1 Um problema agrícola
Este problema foi extraído de (MÜLLER 2004), e trata da elaboração de um
modelo de Programação Linear para planejamento de produção agrícola.
1.2.1.1 O problema
Consideremos um problema na agricultura para decidir quais e em que
quantidade os alimentos soja, milho, arroz e feijão devem ser plantados em uma determinada
área de forma a maximizar o lucro líquido do produtor rural. A Tabela 1.1 resume os dados do
problema.
3
Tabela 1.1 – Dados gerais do problema.
Produção esperada (sacas/hectare)
Renda líquida esperada (reais/hectare)
Gleba Tamanho (hectare)
Soja Milho Arroz Feijão Soja Milho Arroz Feijão 1 10 50 130 30 40 1.200 1.040 240 1.450 2 18 48 120 32 55 1.080 910 300 3.380 3 22 48 140 30 43 1.065 1.728 300 1.890 4 49 50 100 28 38 1.320 700 280 1.220 5 51 35 70 36 32 365 -120 600 610 6 54 32 65 37 30 160 -380 595 280 7 77 35 68 37 32 360 -171 620 585 8 69 38 95 39 36 610 410 665 900
Mínimo (sacas ou hectares)
2.500 (sacas)
3.000 (sacas)
150 (hectares)
Máximo (hectares)
80 (hectares)
Em relação aos dados da Tabela 1.1, apenas a título de informação, um
hectare corresponde a uma área plana equivalente a um quadrado de 100 metros de lado, ou
seja, 10.000 m2, enquanto uma saca em geral pesa 50 kg. Pelas restrições impostas pelo
proprietário da fazenda precisa-se colher no mínimo 2.500 sacas de soja, pois são para
produzir semente encomendada; no mínimo 3.000 sacas de milho, pois será utilizada para
pagar empréstimo feito em milho à cooperativa local; pretende-se plantar, no mínimo, 150
hectares de arroz plantados, pois é terra de primeiro ano (terra fraca) e, no máximo, 80
hectares de terra para plantio de feijão, pois se corre risco de perda e prefere-se, neste ano,
não arriscar muito.
Ainda na Tabela 1.1, “Produção esperada” diz respeito ao que se espera de
cada gleba (porção de terra) para o cultivo de cada um dos alimentos. A “Renda líquida
esperada” é a diferença entre o custo de produção e renda bruta esperada. As duas últimas
linhas formam o conjunto de restrições imposto pelo proprietário da fazenda, que diz respeito
ao mínimo ou máximo de sacas que se deseja colher de um certo tipo de alimento, ou o
mínimo ou máximo de terra (em hectare) que se deseja plantar.
1.2.1.2 Um modelo
Como já afirmamos, não existem regras precisas para o processo de
modelagem, por isto sugerimos uma tentativa de encontrar inicialmente as variáveis de
4
decisão. Também sugerimos verificar as unidades de grandeza de cada dado, inclusive das
variáveis de decisão.
Neste caso, definimos 8,,2,1, =ixij e 4,3,2,1=j , as variáveis de
decisão que pretendemos encontrar, se existirem, a saber:
ijx : área em hectares por gleba i , para o plantio do alimento j
( 1=j , soja, 2=j , milho, 3=j , arroz, e 4=j , feijão).
Como estamos interessados em maximizar a renda da fazenda, utilizamos os dados da “Renda
líquida esperada (reais/hectare)” da Tabela 1.1 para construir o valor da chamada função
objetivo do problema, a saber:
.900665410610585620171360280595380160610600120365
1220280700132018903001728106533803009101080145024010401200
84838281
74737271
64636261
54535251
44434241
34333231
24232221
14131211
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
+++++++−++++−++++−++++++++++++++++++++
Nosso objetivo de maximização está sujeito a algumas restrições. Sabemos
que a soma das áreas para o plantio dos quatro alimentos em cada gleba não pode ultrapassar
o tamanho total da gleba. Temos então:
.6977545149221810
84838281
74737271
64636261
54535251
44434241
34333231
24232221
14131211
≤+++≤+++≤+++≤+++≤+++≤+++≤+++≤+++
xxxx
xxxxxxxx
xxxx
xxxx
xxxx
xxxx
xxxx
Ainda, não pode haver área negativa para plantio de cada alimento. Para isso
temos,
8,,2,1,0 =≥ ixij e 4,3,2,1=j .
5
Finalmente, consideramos as restrições impostas pelo proprietário da
fazenda conforme a Tabela 1.1, que se referem aos requisitos de produção dos cereais para
atendimento de encomenda, pagamento de empréstimo e condições de qualidade do solo e
risco de perdas em relação ao feijão. Assim, obtemos as seguintes desigualdades:
25003835323550484850 8171615141312111 ≥+++++++ xxxxxxxx
300095686570100190120130 8272625242322212 ≥+++++++ xxxxxxxx
.80150
8474645444342414
8373635343332313≤+++++++≥+++++++
xxxxxxxx
xxxxxxxx
Portanto, o nosso modelo matemático, que tenta traduzir uma particular
realidade da agricultura, é dado pelo problema de PO
maximizar
84838281
74737271
64636261
54535251
44434241
34333231
24232221
14131211
900665410610585620171360280595380160610600120365
1220280700132018903001728106533803009101080145024010401200
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
+++++++−++++−++++−++++++++++++++++++++
sujeito a:
6977545149221810
84838281
74737271
64636261
54535251
44434241
34333231
24232221
14131211
≤+++≤+++≤+++≤+++≤+++≤+++≤+++≤+++
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
xxxx
25003835323550484850 8171615141312111 ≥+++++++ xxxxxxxx
300095686570100190120130 8272625242322212 ≥+++++++ xxxxxxxx
80150
8474645444342414
8373635343332313≤+++++++≥+++++++
xxxxxxxx
xxxxxxxx
6
8,,2,1,0 =≥ ixij e 4,3,2,1=j .
A formulação discutida nesta seção refere-se a um modelo com funções
afins (isto é, lineares). Desta forma, denominamos este problema agrícola de um problema de
Programação Linear (contínua), que estudaremos no Capítulo 3.
1.2.2 Um problema de designação
Com base em (FANG e PUTHENPURA, 1993), extraímos o seguinte
problema de Programação Linear Inteira.
1.2.2.1 O problema
Cinco pessoas (A, B, C, D, E) estão designadas para trabalhar em cinco
projetos diferentes (1, 2, 3, 4, 5). A Tabela 1.2 mostra quanto tempo (em dias) uma
determinada pessoa consegue finalizar um específico projeto.
Tabela 1.2 – Dados gerais do problema.
Projetos Pessoas 1 2 3 4 5
A 5 5 7 4 8 B 6 5 8 3 7 C 6 8 9 5 10 D 7 6 6 3 6 E 6 7 10 6 11
O pagamento diário (em uma jornada de quatro horas) por pessoa é 60 reais.
Suponha que uma pessoa é designada para realizar um único projeto e cada projeto só pode
ser realizado por uma única pessoa.
1.2.2.2 Um modelo
Neste caso definimos ijx , 5,,2,1 =i ( 1=i , pessoa A e assim por
diante) e 5,,2,1 =j , os projetos pelas quais podem ser designadas responsáveis. A variável
ijx pode ser definida como:
7
=ijx
contráriocaso,0 projeto o para designadafor pessoaase,1 ji
Nosso interesse agora é o de minimizar o custo para a execução dos
projetos. Assim, utilizamos os dados da Tabela 1.2, para construir o valor da função objetivo,
a saber:
).116107663667
1059867385684755(60
5554535251
4544434241
3534333231
2524232221
1514131211
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
++++++++++++++++++++++++++++
Nosso objetivo de minimização está sujeito a algumas restrições. Sabemos
que cada pessoa é designada para realizar um único projeto, isto é,
15
1=
=jijx , 5,,2,1 =i ,
e que cada projeto só pode ser realizado por uma única pessoa, isto é,
15
1=
=iijx , 5,,2,1 =j .
Portanto, o nosso modelo matemático que tenta traduzir uma particular realidade do problema
clássico de designação (assignment problem, em inglês), é dado pelo problema de PO,
minimizar
)116107663667
1059867385684755(60
5554535251
4544434241
3534333231
2524232221
1514131211
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
++++++++++++++++++++++++++++
sujeito a: 1
5
1=
=jijx , 5,,2,1 =i
1
5
1=
=iijx , 5,,2,1 =j
1,0∈ijx , 5,,2,1 =i e 5,,2,1 =j .
8
A formulação discutida nesta seção refere-se a um modelo com funções
lineares tais que as variáveis de decisão são inteiras. Desta forma, denominamos este
problema de designação de um problema de Programação Linear Inteira (discreto), assunto
que não será objeto de estudo neste livro. Todavia, para os leitores interessados em
aprofundar seus conhecimentos nesta área sugerimos os livros de (FOULDS, 1984) e
(GARFINKEL e NEMHAUSER, 1972).
1.2.3 Um problema de amplificador de tensão
A seguir apresentamos um problema de otimização que envolve um circuito
elétrico.
1.2.3.1 O problema
Em Engenharia Elétrica é comum a utilização de circuitos amplificadores
em aparelhos de áudio e vídeo. Esses circuitos recebem em sua entrada uma tensão elétrica e
aumentam sua amplitude disponibilizando na saída um sinal elétrico amplificado.
O circuito da Figura 1.1 mostra de maneira simplificada um amplificador
onde os estágios de entrada e saída são representados, respectivamente, por uma fonte de
tensão, v , e por uma resistência de carga, cR , igual a Ω10 ( AV=Ω ). Este circuito, para
certos valores do parâmetro α , comporta-se como um amplificador de tensão. Devem ainda
ser respeitados os limites inferior e superior de V12 e V30 , respectivamente, para a tensão
na resistência de carga, cc iv 10= .
entrada saída Figura 1.1 – Circuito básico para amplificação da tensão v .
i
ci
−
+
cv
ΩM7,0
cR v
−
+
abv
Ω5
ci
+ ΩM1 abvα
a
b
9
A tensão v da fonte está restrita aos limites inferior e superior,
respectivamente, de mV340 e mV500 . O parâmetro α deve ser no mínimo igual a 120 .
1.2.3.2 Um modelo
Neste caso, definimos as variáveis de decisão que se pretende encontrar, se
existirem, a saber:
i : corrente elétrica em ampères (A) suprida pela fonte;
ci : corrente elétrica em ampères (A) no lado da carga;
v : tensão elétrica da fonte em volts (V); α : parâmetro de controle da fonte dependente, que é adimensional.
Nosso interesse está em operar o circuito da Figura 1.1 minimizando a perda
de energia elétrica em watts ( VAW = ) nos resistores de resistências ΩM7,0 , ΩM1 e Ω5 ,
a saber:
226 5107,1 cii +× .
Na expressão da perda de energia elétrica não incluímos a resistência cR
porque esta representa a carga do circuito.
Nosso objetivo de minimização está sujeito a algumas restrições. De acordo
com a 2ª Lei de Kirchhoff, que estabelece que a tensão aplicada a qualquer percurso fechado
de um circuito é igual ao somatório das quedas de tensão naquele percurso, temos:
abviv +×= 6107,0 ,
onde, abv é a queda de tensão no resistor de ΩM1 .
Procedemos de modo análogo para analisar o percurso fechado onde se
encontra a resistência de carga e obtemos:
cab viv += 5α .
10
Substituindo cc iv 10= na última igualdade e desenvolvendo, obtemos
0105 =−− cab iivα .
Além disso, foi dado que:
301012 ≤=≤ cc iv .
Dividindo cada dupla desigualdade por dez, obtemos:
32,1 ≤≤ ci .
Portanto, o nosso modelo matemático que tenta traduzir uma particular
realidade do problema de minimização das perdas em um circuito amplificador de tensão, é
dado pelo problema de PO
minimizar 226 5107,1 cii +×
sujeito a: 0107,0 6 =−×− abviv
0105 =−− cab iivα
32,1 ≤≤ ci 50,034,0 ≤≤ v 120≥α .
A formulação discutida nesta seção refere-se a um modelo com pelo
menos uma função não linear. Desta forma, denominamos este problema de amplificador de
tensão de um problema de Programação Não Linear. Neste livro não estudaremos
Programação Não Linear. Todavia, sugerimos as referências (BAZARAA, SHERALI e
SHETTY, 1993) e (LUENBERGER, 1984).
1.2.4 Formulação em processos estocásticos
Processos estocásticos (ou modelos probabilísticos) são modelos
matemáticos desenvolvidos para analisar sistemas dinâmicos sujeitos a incerteza, usando a
linguagem da probabilidade. O termo “dinâmico” significa que a variável tempo t geralmente
está envolvida no processo de formulação.
11
A principal característica de um problema estocástico é que, associado a
pelo menos uma de suas variáveis, temos um número que mede o grau de incerteza (ou de
certeza) da ocorrência do valor da variável, dado pela probabilidade.
A formulação em processos estocásticos normalmente compreende a
elaboração de sentenças lógicas, a interpretação de dados estatísticos sobre o problema e a
identificação da distribuição de probabilidade que governa as variáveis. Depois de construído
o modelo, este pode admitir soluções analíticas. Em casos de problemas complexos, a
simulação computacional é a melhor alternativa.
Estudaremos a teoria de probabilidades e distribuições no Capítulo 4.
Assim, substituiremos o passo da formulação pelo enunciado de alguns problemas para
processos de Markov (Capítulo 5), teoria de filas (Capítulo 6) e simulação (Capítulo 7).
1.2.4.1 Cadeias de Markov
Muitos processos que ocorrem em sistemas reais podem ser estudados como
se o sistema sob análise passasse, a partir de um estado inicial, por uma seqüência de estados,
onde a transição de um determinado estado para o seguinte ocorreria segundo uma certa
probabilidade. No caso em que esta probabilidade de transição depende apenas do estado em
que o fenômeno se encontra e do estado a seguir, o processo será designado processo de
Markov de primeira ordem e uma seqüência de estados seguindo este processo será
denominada cadeia de Markov.
Um conceito fundamental em processos de Markov é a noção de estado.
Propriedades em comum entre indivíduos ou objetos caracterizam o que chamamos de
estados. Podemos apontar associações entre propriedade em comum e estado: uma população
da região norte que migra para o sul; veículos estacionados numa determinada área; e
máquinas numa grande linha de produção.
a) Exemplo
Em 1993, a utilização do solo em uma cidade de 130 2km de área ocupada
apresentava os seguintes índices:
12
(I) Uso residencial: 30% (II) Uso comercial: 20% (III) Uso industrial: 50%
O problema é encontrar os estados de utilização do solo em 1998, 2003 e 2008, assumindo
que as probabilidades de transição para intervalos de 5 anos são dadas pela seguinte matriz
P :
III
II
I
P
IIIIII
=9,01,002,07,01,01,01,08,0
1.2.4.2 Teoria de filas
Um processo de filas consiste em chegadas de usuários em um
estabelecimento de prestação de serviços, esperando alinhados (em fila). O usuário que chega
ao estabelecimento aguarda se todos os atendentes estiverem ocupados, e é prontamente
atendido em caso contrário. Após receber o serviço, o usuário deixa o estabelecimento.
a) Exemplo
Uma casa de doces finos é operada por uma pessoa, o proprietário. O
modelo de chegada de clientes nos sábados segue aproximadamente uma distribuição de
Poisson, com uma taxa média de chegada de 10 pessoas por hora. Os clientes são atendidos
em base FIFO (primeiro a entrar, primeiro a sair) e por causa do sucesso da loja eles têm que
esperar para serem atendidos após chegarem. O tempo gasto para atender a um cliente é
estimado como exponencialmente distribuído, com um tempo médio de atendimento de 4
minutos. O problema é determinar a probabilidade de se formar uma fila; o tamanho médio da
fila; o tempo esperado que um cliente deve aguardar na fila; o tempo médio que um cliente
deve ficar na loja.
1.2.4.3 Simulação
Simulação significa reproduzir o funcionamento de um sistema com o
auxílio de um modelo.
13
Toda simulação requer a construção de um modelo com o qual são feitos
experimentos. Em nosso caso, este modelo é definido por um conjunto de relações lógico-
matemáticas, descritas geralmente por um programa de computador. A partir do modelo, as
simulações nos permitirão testar algumas hipóteses sobre o valor de variáveis controladas. As
conclusões são usadas então para melhorar o desempenho do sistema em estudo,
proporcionando suporte bem fundamentado à tomada de decisões.
A simulação computacional surgiu a partir da idéia do método Monte Carlo,
durante uma conferência em Los Alamos, nos Estados Unidos, após a Segunda Guerra
Mundial. Naquela ocasião, após serem apresentadas as experiências adquiridas com o ENIAC
(Electronic Numeric Integrator and Calculator), Stanislaw Ulam pressentiu a potencialidade
da nova máquina para técnicas de amostragem estocástica. John Von Neumann, pioneiro da
Computação, também presente na conferência, foi um dos precursores desse método. Monte
Carlo baseia-se essencialmente na geração intensiva de números aleatórios para a solução por
simulação computacional de problemas estocásticos.
Um número aleatório é um número de uma seqüência de números cuja
probabilidade de ocorrência é a mesma que a de qualquer outro número na seqüência.
Métodos de simulação de problemas probabilísticos (não determinísticos) exigem a geração
de números aleatórios.
a) Exemplo
Uma empresa deseja saber qual é o nível ideal de estoque para seus
produtos. Um problema é manter o atendimento dentro dos padrões previamente estabelecidos
com a maior economia possível no gerenciamento e na manutenção dos estoques. As
variáveis são: a demanda aleatória em um período de tempo; o tempo de atendimento de
pedido de reposição; e os estoques inicial e final no período.
1.3 Exercícios
1. (BOLDRINI, COSTA, FIGUEIREDO e WETZLER, 1986) A Cia. Sovina de Investimentos
possui seis milhões de reais, quantia esta que deverá ser aplicada em cinco tipos de
investimentos, sendo que os retornos anuais para cada investimento são: investimento 1 ( 1I ),
10%; investimento 2 ( 2I ), 8%; investimento 3 ( 3I ), 6%; investimento 4 ( 4I ), 5%; e
investimento 5 ( 5I ), 9%.
14
O gerente desta Cia. deseja diversificar os investimentos para obter o
máximo de rendimento possível. Dado o elemento de risco envolvido, o gerente restringiu a
quantia a ser aplicada em 1I a não mais que a quantia total aplicada em 3I , 4I e 5I (em
conjunto). A soma da quantia total a ser aplicada em 2I e 5I deve ser pelo menos igual à
quantia aplicada em 3I . O 2I deve estar limitado a um nível que não exceda a quantia
aplicada em 4I .
É preciso determinar a alocação ótima de investimento entre as cinco
categorias, de forma que o retorno ao final do ano seja o máximo possível. Formular o
problema.
2. (BOLDRINI, COSTA, FIGUEIREDO e WETZLER, 1986) Uma empresa nacional possui
fábricas em Campinas e Belo Horizonte (BH). Esta empresa produz e distribui computadores
a comerciantes de várias cidades. Numa determinada semana, a empresa possui: 30 unidades
em Campinas e 40 unidades em BH. Nesta mesma semana, esta empresa deve atender os
pedidos dos comerciantes das seguintes cidades: 20 unidades para São Paulo (SP), 25
unidades para o Rio de Janeiro (RJ) e 25 unidades para Vitória. O problema consiste em
distribuir as máquinas aos comerciantes de forma a atender os pedidos a um custo mínimo de
transporte. Os custos unitários de transporte em reais são: 9 de Campinas para SP, 16 de
Campinas para RJ, 25 de Campinas para Vitória, 27,50 de BH para SP, 22,50 de BH para RJ e
21 de BH para Vitória. Formular o problema.
3. (HILLIER e LIEBERMAN, 1995) Uma multinacional decide se instalar em Goiás e
escolhe dois municípios para construir fábricas e armazéns: Catalão e Rio Verde. Construção
de fábricas e armazéns nestas cidades resulta nos índices de retornos indicados na Tabela 1.3.
Tabela 1.3 – Índices de retorno em unidades monetárias.
Catalão Rio Verde Fábrica 72 40 Armazém 48 32
Os seguintes critérios devem ser respeitados no processo de decisão: se for
construído armazém em Catalão não será construído armazém em Rio Verde; em unidades
monetárias, o investimento requerido na construção de uma fábrica em Catalão é 48, o
15
investimento requerido na construção de uma fábrica em Rio Verde é 24, o investimento
requerido na construção de um armazém em Catalão é 40, o investimento requerido na
construção de um armazém em Rio Verde é 16 e a empresa disponibiliza no máximo 80 para
investir nas construções.
Temos ainda a condição de que na localidade onde for construído armazém
tem que ser construída fábrica. Formular o problema de modo a maximizar o retorno do
investimento.
4. Considere o problema da seção 1.2.3 sobre operação do amplificador de tensão com
mínimas perdas. Reescreva o modelo em função das variáveis de decisão α e v , que para
este problema são de fato as variáveis de controle.
5. (BAZARAA, JARVIS e SHERALI, 1997) A qualidade do ar em uma região depende
principalmente das emissões de efluentes (e.g., 2CO , 2SO , 4CH , etc.) na atmosfera pelas n
indústrias existentes. Cada instalação industrial pode utilizar m diferentes tipos de
combustível. Suponha que a energia total necessária à indústria j é jb calorias por dia e que
ijc é a emissão de efluentes por tonelada do combustível i pela indústria j . Além disso,
suponha que o combustível do tipo i custa ic dólares por tonelada e que cada tonelada deste
tipo de combustível gera ijα calorias na indústria j . O nível de poluição do ar na região não
pode exceder b microgramas por metro cúbico. Finalmente, seja jγ um parâmetro
meteorológico que relaciona emissões da indústria j à qualidade do ar da região. Escrever o
modelo do problema para determinar a mistura de combustíveis a ser utilizada por cada
indústria.
6. Consulte a literatura em Pesquisa Operacional e forneça um exemplo de um problema
estocástico.
Capítulo 2
Matrizes e Sistemas Lineares
Praticamente em todos os campos de estudo da Pesquisa Operacional
utilizam-se matrizes, seja na representação de sistemas algébricos lineares, em expressões
contidas em passos de algoritmos de solução de problemas, e em representações algébricas de
processos de Markov, dentre tantas outras.
A forma adequada de representar e manipular grande quantidade de dados é
através da utilização de matrizes. Essencialmente, os algoritmos que realizam operações
numéricas em computador, especialmente quando manipulam muitos dados, são implementados
para operar com matrizes. Também, matrizes são úteis quando se deseja simbolizar de forma
concisa uma seqüência sistemática de operações matemáticas.
Este capítulo aborda noções elementares de álgebra de matrizes que, de
alguma maneira, estão associados aos tópicos de Pesquisa Operacional que serão abordados
neste livro. Sugerimos as referências (BOLDRINI, COSTA, FIGUEIREDO e WETZLER,
1986), (CAMPOS, 2001) e (RUGGIERO e LOPES, 1997).
2.1 Matrizes
Matriz é uma tabela de elementos dispostos em linhas e colunas. Trataremos
matrizes cujos elementos são números. Particularmente, números reais. Denotamos uma matriz
A que possui m linhas ( mi ,,2,1 = ) e n colunas ( nj ,,2,1 = ) assim:
.][
321
321
22232221
11131211
==
mnmjmmm
inijiii
nj
nj
ij
aaaaa
aaaaa
aaaaa
aaaaa
aA
(2.1)
O elemento ija , mi ,,2,1 = e nj ,,2,1 = , encontra-se situado na linha de número i e na
coluna de número j .
Duas matrizes A , nm × , e B , qp × , são iguais, BA = , quando o número
de linhas de A é igual ao número de linhas de B , o número de colunas de A é igual ao número
de colunas de B e ijij ba = , para todo pmi == ,,2,1 e para todo qnj == ,,2,1 .
Apresentaremos agora alguns tipos de matrizes. Seja dada a matriz A , nm × .
Dizemos que A é uma matriz quadrada quando nm = . A é uma matriz nula quando 0=ija
para todo mi ,,2,1 = e nj ,,2,1 = . Quando 1=n , ou seja, apenas uma coluna existe,
chamamos A de matriz coluna. Por outro lado, quando 1=m , chamamos A de matriz linha.
Um tipo especial de matriz quadrada é a matriz identidade, que possui
elementos unitários na diagonal e zeros em todas as outras posições, a qual está mostrada em
(2.2) para a ordem nn ×
=
10000
01000
0001000001
I
(2.2)
Doravante, a matriz identidade será representada pelo símbolo I . Todavia, nota-se que em
outras bibliografias também se utiliza a notação nI para uma matriz identidade de ordem nn × .
Uma matriz quadrada A é dita uma matriz diagonal quando possui elementos
0=ija para todo ji ≠ . Quando A é uma matriz quadrada com 0=ija para todo ji > ,
chamamos A de matriz triangular superior. Quando A é uma matriz quadrada com 0=ija
para todo ji < , chamamos A de matriz triangular inferior. A seguir, estão mostrados exemplos
de matrizes triangulares 44 × , sendo A uma matriz triangular superior e B uma matriz
triangular inferior.
−−
=
2000100
31001411
21
A
−=
3413012100300001
B
(2.3)
As matrizes que possuem apenas uma coluna ou apenas uma linha são
designadas como vetores, e alguns autores as chamam também de vetor coluna ou vetor linha.
Neste texto, para homogeneizar a notação e facilitar a compreensão das expressões que utilizam
matrizes, a designação de vetores será atribuída apenas a matrizes do tipo coluna. A expressão
mostrada a seguir ilustra essa definição
=
m
i
v
v
v
v
v
2
1
(2.4)
Em (2.4) tem-se uma matriz coluna, que é denotada pelo vetor v , com suas componentes
mi vvvv ,,,,, 21 .
Quanto à quantidade de elementos não nulos que uma matriz apresenta, é
usual designar por matriz densa aquela em que a maior parte dos seus elementos é diferente de
zero. As matrizes que apresentam grande quantidade de elementos nulos são conhecidas como
matrizes esparsas. Matrizes que aparecem em modelos de problemas de grande porte do mundo
real normalmente são esparsas. Por exemplo, em certos estudos da área de Engenharia Elétrica,
matrizes de redes elétricas reais apresentam 99,5% de elementos nulos em relação ao total de
posições.
Uma peculiaridade interessante de matrizes é que essas estruturas de dados
admitem operações de adição, subtração e multiplicação, praticamente como se faz com
números, todavia, observando-se certas restrições para a realização dessas operações.
2.1.1 Operações com matrizes
Dadas duas matrizes A e B , sob certas condições, as operações de adição,
subtração e multiplicação são definidas.
Para facilitar a compreensão e tornar a exposição mais didática, serão tratadas
primeiramente as operações de adição e subtração, que exigem que as matrizes sejam de mesma
ordem.
Definição 2.1: (Adição) Sejam ija o elemento genérico da matriz A e ijb o elemento genérico
da matriz B , ambos os elementos situados na −i ésima linha e na −j ésima coluna de suas
respectivas matrizes. Desde que as matrizes A e B tenham a mesma ordem, a matriz obtida da
adição, BA + , é uma matriz também de ordem nm × , tal que seus elementos são obtidos da
soma do elemento ija de A e o elemento ijb de B . Portanto, a adição resulta numa matriz
designada por C , de modo que:
][][][][),( ijijijijij babacBACBA +=+==+= .
Para exemplificar a operação de adição, considere as matrizes dadas a seguir:
−
−=
150
13
21A e
−=520
118
41B .
A adição BA + resulta na matriz C , conforme está indicada a seguir:
−=
++−
+−+−+
=
−+
−
−
=+
6151
011
5120541
21
10
1183
5201
18
150
13
43
41
21
CBA
.
Uma observação a partir dos cálculos anteriores é que a adição foi efetuada elemento a
elemento, somando-se apenas elementos que ocupam a mesma posição.
Definição 2.2: (Subtração) Sejam ija e ijb , respectivamente, os elementos genéricos da matriz
A e da matriz B , tal como estabelecido na Definição 2.1. Desde que as matrizes A e B
tenham a mesma ordem, a matriz obtida da subtração, BA − , é uma matriz também de ordem
nm × , tal que seus elementos são obtidos ao subtrair o elemento ijb do elemento ija . Portanto,
a subtração BA − resulta numa matriz designada por C , de modo que:
][][][][),( ijijijijij babacBACBA −=−==−= .
Para exemplificar a operação de subtração, considere as matrizes dadas no
exemplo referente à Definição 2.1. Então, a subtração BA − resulta na matriz C indicada a
seguir:
−−
−−=
−−−−−−−−−
=
−−
−
−=−
4251
25
51205)1(0
1183
5201
18
150
13
41
41
21
41
21
CBA
.
A operação de multiplicação de matrizes já não é tão trivial quanto as
operações de adição e subtração.
Primeiramente, a condição de existência da multiplicação da matriz A pela
B , cujas ordens respectivas são nm × e qp × , é que: “o número de colunas da matriz A
precisa ser igual ao número de linhas da matriz B , isto é, pn = ”. A matriz produto, neste caso,
tem ordem qm × .
A Figura 2.1 ilustra duas situações: no primeiro exemplo, a multiplicação é
possível e, no segundo, a multiplicação não é definida, ou seja, é impossível. Nesta figura, o
símbolo ‘ × ’ indica um elemento qualquer da matriz.
[ ]
××××××
=××
×××
13× 21× 23×→ 33× 22 × possível impossível
Figura 2.1: Exemplos de situações de multiplicação de matrizes.
Definição 2.3: (Multiplicação de duas matrizes) Dadas duas matrizes A , nm × , e B , qn × ,
observada a condição de existência, a multiplicação de A por B resulta numa matriz designada
por C , de modo que:
××××
×××××××××
][),( ilcCABBA == , onde,
=
=n
kklikil bac
1, mi ,,2,1 = e ql ,,2,1 = .
Em geral BAAB ≠ . De fato, para
−=
1100
A e
=
11
B ,
=
×+×−×+×
=
−=
00
11111010
11
1100
AB ,
enquanto que BA não está definida para a multiplicação de matrizes. Por outro lado, para
=
1001
B , obtemos BAAB = .
A transposição de matrizes é definida conforme (2.5),
][ ijT cCAA ==
(2.5)
onde
jiij ac =
sendo TA a notação para a transposta da matriz A .
Dizemos que A é uma matriz simétrica quando for uma matriz quadrada com
jiij aa = para todos i e j . Uma matriz anti-simétrica é quando A é uma matriz quadrada com
elementos jiij aa −= e seus elementos da diagonal são nulos. As matrizes simétrica e anti-
simétrica possuem as propriedades expressas em (2.6) e em (2.7), respectivamente,
TAA = (2.6)
.TAA −= (2.7)
Consideremos uma matriz A , nm × , e uma matriz B , qn × . Então,
.)( TTT ABAB =
Com efeito,
=TAB)( =
T
nqnn
q
q
mnmm
n
n
bbb
bbb
bbb
aaa
aaa
aaa
21
22221
11211
21
22221
11211
= =
===
===
===
T
n
kkqmk
n
kkmk
n
kkmk
n
kkqk
n
kkk
n
kkk
n
kkqk
n
kkk
n
kkk
bababa
bababa
bababa
112
11
12
122
112
11
121
111
=
=
===
===
===
n
kkqmk
n
kkqk
n
kkqk
n
kkmk
n
kkk
n
kkk
n
kkmk
n
kkk
n
kkk
bababa
bababa
bababa
112
11
12
122
121
11
112
111
= =
===
===
===
n
kmkkq
n
kkkq
n
kkkq
n
kmkk
n
kkk
n
kkk
n
kmkk
n
kkk
n
kkk
ababab
ababab
ababab
112
11
12
122
112
11
121
111
= .TT AB
A multiplicação de um número real por matrizes é definida por:
].[][),( ijij aaAA αααα ==
A seguir estudaremos o determinante.
2.1.2 Determinante
Definição 2.4: (Determinante) Seja nC o conjunto de todas as matrizes quadradas de ordem n ,
isto é, matrizes nn × , cujos elementos são números reais. Definimos o determinante como a
função
),det(:det
AACn
ℜ→
onde, )det(A pode ser calculado de forma recursiva, da seguinte maneira:
a) 1=n ,
.)det(][ 1111 aAaA ==
b) 2=n ,
.)det( 211222112221
1211 aaaaAaa
aaA ×−×=
=
c) 3≥n ,
=
+−==n
jij
jiijij MaAaA
1,)1()det(][ para um dado i com ,,,2,1 ni =
onde ijM é o determinante da matriz (submatriz) que obtemos de A retirando a −i ésima linha
e a −j ésima coluna.
Exemplo 2.1: Considere
−−−
−=
212112
321A .
Calcule )det(A .
Optaremos por fixar a linha 1 e calcular o determinante de A aplicando a Definição 2.4, do
seguinte modo:
=
−−−
−=
212112
321det)det(A
=
−−×−×+
−−
×−×−+
−−
×−×= +++12
12det)1(3
2212
det)1()2(2111
det)1(1 312111
5)1)2()1(2(3))1()2(22(2))1()1(21(1 =×−−−××+−×−−××+−×−−××= .
5)det( =∴ A .
A partir da definição de determinante, não é difícil contar as multiplicações
necessárias para calcular o determinante de uma matriz de ordem n : para uma matriz de ordem
2 são necessárias 2 multiplicações, para uma matriz de ordem 3 é preciso calcular 3
determinantes de ordem 2 e multiplicar esses determinantes pelos elementos da linha escolhida,
perfazendo, neste caso, 9 multiplicações, e assim por diante. Para matrizes de ordens 1, 2, 3, 4 e
5, as quantidades de multiplicações requeridas são respectivamente 2, 9, 40 e 205. A fórmula
recursiva )1( 1 += −nn pnp , iniciando com 01 =p , reproduz a quantidade requerida de
multiplicações no cálculo do determinante de uma matriz de ordem n quando aplicamos a
Definição 2.4. Por exemplo, para matrizes de ordens 1, 2, 3, 4 e 5 obtemos
205,40,9,2,0 54321 ===== ppppp , respectivamente. O número de multiplicações é
muito elevado para matrizes de porte médio e, por esta razão, qualquer algoritmo que envolva o
cálculo de determinantes não é praticável em implementações computacionais. Por exemplo, o
cálculo do determinante de uma matriz 1010 × exigirá 6.235.300 multiplicações. Para efeito de
comparação, a Tabela 2.1 apresenta valores de np e de !n .
Tabela 2.1: Comparação entre valores do número de multiplicações requeridas no cálculo do
determinante e o fatorial da ordem da matriz.
Ordem da matriz, n np !n
1 0 1 2 2 2 3 9 6 4 40 24 5 205 120 6 1.236 720 7 8.659 5.040 8 69.280 40.320 9 623.529 362.880 10 6.235.300 3.628.800
Podemos utilizar
−
= −=
1
1 )!(!n
kn kn
np , comprovando, assim, que
A seguir enunciaremos algumas propriedades de determinante.
Proposição 2.1: Sejam
a) Se todos os elementos da
Conseqüentemente, a
Os determinantes das submatrizes principais líderes são conhecidos como
menores principais líderes.
Exemplo 2.2: Considere a matriz
Definição 2.6: (Matriz definida positiva) Seja
e simétrica. A matriz
Em particular, uma matriz simétrica real
é definida positiva se,
Exemplo 2.4: Represente graficamente a função quadrática definida como a seguir,
ℜ→ℜ2:f , [ ] .221112
),( 2122
21
2
12121 xxxx
xx
xxxxf ++=
=
A Figura 2.3 ilustra a representação gráfica da função deste exemplo.
Figura 2.3: Gráfico da função do Exemplo 2.4.
O próximo exemplo refere-se a uma função quadrática cuja matriz não é
definida positiva.
Exemplo 2.5: Represente graficamente a função quadrática definida como a seguir,
ℜ→ℜ2:f , [ ] .2441
11),( 21
22
21
2
12121 xxxx
xx
xxxxf +−−=
−−
=
Escrevemos a função completando os quadrados, comprovando que a mesma será sempre
negativa, independente dos valores que 1x e 2x assumirem, para x não nulo,
),( 21 xxf
1x 2x
0)2(24 214
3212
1221
22
21 <−−−=+−− xxxxxxx
Figura 2.4: Gráfico da função do Exemplo 2.5.
No exemplo em que a matriz é definida positiva, a concavidade da função
está voltada para cima, conforme podemos ver na Figura 2.3, enquanto que, no exemplo
correspondente ao caso em que a matriz não é definida positiva (na verdade, a matriz é definida
negativa), a concavidade da função está voltada para baixo (Figura 2.4).
Existem implicações do fato da matriz ser definida positiva, as quais são
importantes para estudos em diversos ramos da Pesquisa Operacional, mas que não serão
tratadas neste livro.
A seguir trataremos da obtenção da inversa de uma matriz.
2.1.3 A inversa de uma matriz
Definição 2.7: (Matriz inversa) Seja A uma matriz quadrada de ordem n . A é invertível (ou
seja, possui inversa) quando existir uma única matriz 1−A , denominada matriz inversa de A ,
tal que
),( 21 xxf
1x 2x
.11 IAAAA == −−
Exemplo 2.6: Considere
.2001
=A
Calcule 1−A , se existir.
=
=
10
01
20
01
2221
1211bb
bbIAB
=
10
0122 2221
1211bb
bb.
Por igualdade de matrizes, obtemos
0,0,1 211211 === bbb e 2122 =b .
Por outro lado,
IBA =
=
=
10
01
20
010
01
21 .
Então,
==−
21
10
01BA
é a única matriz inversa de A .
A matriz ]0[=A não é invertível, uma vez que para 10 11 =≠= −− IAAA ,
portanto, não existe 1−A .
Consideremos as matrizes A , nn × , e B , nn × , e 1−A e 1−B as matrizes
inversas de A e B , respectivamente. Então,
111)( −−− = ABAB .
Com efeito, usando a associatividade de matrizes, o fato de que B é invertível e que AAI = ,
IAIAABBAABAB === −−−−− 11111 )()())((
e, de maneira análoga,
IBBBIBBAABABAB ==== −−−−−− 111111 )()())(( .
Além disso,
AA =−− 11)( .
Com efeito,
11 −− == AAIAA .
Isto é, a matriz inversa da matriz 1−A é a matriz A .
2.1.4 Inversa de uma matriz e determinante
Na definição de determinante surgiu o número mostrado em (2.8),
ijji
ij M+−=∆ )1( (2.8)
o qual denominamos ij∆ de cofator do elemento ija .
Seja A uma matriz quadrada de ordem n . Chamamos de matriz dos
cofatores, denotada por A , a matriz que obtemos de A correspondendo a cada um de seus
elementos o seu respectivo cofator, isto é:
∆∆∆
∆∆∆∆∆∆
=
nnnn
n
n
A
21
22221
11211
.
Definição 2.8: (Matriz adjunta) Seja A uma matriz quadrada de ordem n . Definimos a matriz
adjunta de A , denotada por Aadj , como
TAAadj = .
Exemplo 2.7: Considere a matriz
=
1211
A .
Calcule a matriz adjunta de A .
Temos que
,1)1det(1)1( 1111
11 =×=−=∆ + M
,2)2det()1()1( 1221
12 −=×−=−=∆ + M
,1)1det()1()1( 2112
21 −=×−=−=∆ + M
.1)1det(1)1( 2222
22 =×=−=∆ + M
Então, a matriz dos cofatores é
−−
=1121
A .
Portanto,
−−
==1211TAAadj .
O próximo resultado relaciona determinante e matriz adjunta.
Teorema 2.1: Seja A uma matriz quadrada de ordem n . Então,
IAAadjA )det(= .
Agora relacionamos determinante e matriz inversa, através do teorema a
seguir.
Teorema 2.2: Uma matriz quadrada A é invertível se, e somente se, 0)det( ≠A .
Os Teoremas 2.1 e 2.2 propiciam um método de obtenção da inversa de uma
matriz, a saber:
)det(1
AAadj
A =−
(2.9)
A expressão (2.9) para cálculo da inversa de uma matriz A pode ser utilizada
para solucionar um sistema linear algébrico de poucas equações e incógnitas. Isto será tratado
na seção a seguir. Nas seções posteriores serão apresentados métodos computacionalmente mais
eficientes para resolver sistemas lineares de equações algébricas de qualquer dimensão ( A
quadrada).
2.2 Sistemas lineares algébricos de pequeno porte
Para sistemas de pequeno porte, o cálculo do determinante é realizável com
um número razoável de operações aritméticas. Portanto, sistemas lineares algébricos com até
quatro incógnitas podem ser resolvidos utilizando a ‘Regra de Cramer’.
Seja A uma matriz quadrada de ordem n invertível. Considere nRb ∈ . O
sistema linear
bAx = (2.10)
pode ser expresso como
bAx 1−= (2.11)
uma vez que A é invertível e, conseqüentemente,
)det()det( AbA
AbAadj
xT
==
(2.12)
usando (2.9) e a definição de matriz adjunta. A regra (2.12) para a resolução do sistema de
equações (2.10) é reconhecida como a Regra de Cramer.
Desenvolvendo (2.12),
∆∆∆
∆∆∆∆∆∆
=
nnnnn
n
n
b
b
b
Ax
2
1
21
22212
12111
)det(1
sendo que para nj ,,2,1 = ,
))1(()det(
1)(
)det(1
11=
+
=−=∆=
n
iij
jii
n
iiijj Mb
Ab
Ax
De acordo com a definição de determinante, conclui-se que, para obter a
incógnita jx , basta calcular o determinante da matriz A após ter trocado a −j ésima coluna
desta matriz pelo vetor termo independente, b , e dividir o resultado encontrado pelo )det(A .
De modo idêntico, devemos proceder para todas as demais incógnitas.
As igualdades a seguir ilustram o mecanismo de solução de um sistema de
três incógnitas pela aplicação da Regra de Cramer, a saber:
.)det(
det
,)det(
det
,)det(
det
33231
22221
11211
333331
23221
13111
233323
23222
13121
1 A
baa
baa
baa
xA
aba
aba
aba
xA
aab
aab
aab
x
=
=
=
Tendo em vista a complexidade dos cálculos de determinantes e, por
conseguinte, dos métodos de obtenção da inversa de uma matriz e de solução de sistemas por
Cramer, estudados nas seções anteriores, nos sentimos compelidos a estudar formas mais
eficientes de executar estas operações.
Os métodos computacionalmente mais eficientes que os estudados
anteriormente baseiam-se em operações elementares sobre matrizes, que serão abordados a
seguir.
2.3 Operações elementares sobre matrizes
Podemos realizar as seguintes operações chamadas operações elementares
sobre as linhas (ou colunas) de uma matriz.
1. )( ji ll ↔ Permutação das −i ésima e −j ésima linhas. Por exemplo,
.14
4301
~4314
01
32
−−↔
−− ll
2. )( ii ll α← Multiplicação da −i ésima linha por um número não nulo α . Por exemplo,
.4331201
~34314
01
22
−−×−←
−− ll
3. )( jii lll α+← Substituir a −i ésima linha pela soma da −i ésima linha com a −j ésima
linha multiplicada por um número não nulo α . Por exemplo,
.4317
01~3
4314
01
122
−−×+←
−− lll
Resumindo, as operações elementares realizadas sobre uma matriz são: (a) a
permutação de duas linhas; (b) a multiplicação de uma linha por uma constante diferente de
zero; e (c) a adição de uma linha a um múltiplo de outra linha.
Ao utilizarmos as operações elementares, podemos fazê-lo com um propósito
previamente definido e, neste caso, haverá regras a serem cumpridas. Por exemplo, o objetivo
pode ser verificar se dois vetores, dentre três vetores dados, são linearmente independentes;
neste caso, as operações serão usadas para fazer emergir vetores canônicos, conforme mostra o
Exemplo 2.8.
Exemplo 2.8: Verifique através de operações elementares se existem dois vetores linearmente
independentes dentre os três vetores dados
=642
u ,
=321
v e
=451
w .
Disporemos os três vetores na forma de uma matriz e efetuaremos operações elementares sobre
ela,
436524112
.
Inicialmente, o nosso propósito será o de obter com operações elementares os vetores
T]001[ e T]010[ nos lugares das duas primeiras colunas da matriz. Se tivermos
sucesso, então os vetores u e v são linearmente independentes e, em caso contrário, são
dependentes.
←
436524
1~
436524112 2
12
1121
1 ll
,
×−←×−←
100300
1~
64
436524
1 21
21
133
122
21
21
llllll .
Podemos ver que a hipótese de que os vetores u e v eram linearmente independentes não se
sustentou, porque não foi possível obter vetores canônicos nos lugares de suas colunas. O
próximo passo é testar, de modo análogo, se dois outros vetores são linearmente independentes.
Vamos verificar se u e w são linearmente independentes buscando obter vetores canônicos nos
lugares de suas colunas, aproveitando os cálculos já realizados.
←
100100
1~
100300
1 21
21
231
2
21
21
ll ,
−←
−←
00010001
~100100
1 21
233
221
1121
21
lll
lll
.
A observação das colunas 1 e 3, que correspondem aos vetores u e w , comprova que tais
vetores são linearmente independentes. De fato, na relação entre u e w mostrada a seguir
=
451
642
α ,
não existe um número real α que atenda à igualdade.
A lição que fica do Exemplo 2.8 é que, as operações elementares foram
empregadas com um propósito bem definido, que era o de obter vetores canônicos, e isto fez
com que realizássemos as operações sobre as linhas da matriz em torno de elementos pivôs: o
pivô foi o número 2 na primeira parte do exemplo e, na segunda parte, o pivô usado foi o
número 3.
A seguir é estabelecida a definição de equivalência de matrizes.
Definição 2.9: (Matriz linha equivalente) Sejam A e B matrizes nm × . B é linha equivalente
a A , quando B for obtida de A através de um número finito de operações elementares sobre as
linhas de A .
Exemplo 2.9: Considere
−−=4314
01A .
Encontre uma matriz B linha equivalente a A .
Bll
lll
ll
A =
−−
−−←
−
−
×+←
−
−↔
−−=
410114
~410114
~243
0114
~4314
01
22
233
21
.
Neste caso, podemos dizer que:
−−4314
01
~
−−
−
410114
Informações importantes sobre matrizes podem ser extraídas ao realizarmos
operações elementares sobre suas linhas. Por exemplo, quando precisamos verificar se há
equações redundantes dentre as equações lineares algébricas que compõem um sistema. Um
outro problema é saber se uma dada matriz quadrada possui ou não inversa. Nestes casos e, em
muitas outras situações, a forma escalonada de uma matriz A , nm × , será muito útil.
2.3.1 A forma escalonada
Definição 2.10: (Matriz na forma escalonada) Uma matriz escalonada é aquela quando o
primeiro elemento não nulo de cada uma de suas linhas está à esquerda do primeiro elemento
não nulo de cada uma de suas linhas subseqüentes e, além disso, as linhas nulas (se houver)
estão abaixo das demais.
As matrizes
300015202731
e
15202038
são matrizes escalonadas, enquanto a matriz
152100002038
não é escalonada, porque o primeiro elemento não nulo da primeira linha não está à esquerda do
primeiro elemento não nulo da terceira linha e, também, porque a segunda linha é nula enquanto
a terceira não.
Exemplo 2.10: Obtenha a forma escalonada da matriz
−−
=344132411410321
A .
Iniciaremos anulando os elementos da primeira coluna que estão abaixo do elemento da posição
(1,1), usando 122 4 lll ×+←
−×+←
−−
3441364137010321
~4344132411410321
122 lll ,
e 133 3 lll ×+← ,
133 33441364137010321
lll ×+←
−
−
64137064137010321
.
Em seguida, anulamos os elementos da segunda coluna que estão abaixo do elemento da
posição (2,2), usando 233 1 lll ×−←
−
0000064137010321
.
A matriz
−
0000064137010321
é, portanto, a forma escalonada da matriz A .
Muitas vezes é preciso utilizar a operação de permutação de linhas da matriz
para obtermos a forma escalonada. Vejamos o exemplo a seguir.
Exemplo 2.11: Obtenha a forma escalonada da matriz
−−−=10123
482241
A .
Multiplicamos a primeira linha por 2 e adicionamos o resultado à segunda linha
( 122 2 lll ×+← ), obtendo:
10123000241
.
Permutamos as linhas 2 e 3 ( 32 ll ↔ ):
00010123241
.
Em seguida, realizamos a operação elementar 122 3 lll ×−← para finalmente obter a forma
escalonada
000400241
.
Com a forma escalonada, conforme definida e ilustrada através de exemplos,
estamos a um passo da definição de forma escalonada reduzida. A partir da forma escalonada de
uma matriz, a forma escalonada reduzida é obtida do seguinte modo: “tornar os primeiros
elementos não nulos de cada linha iguais à unidade e anular os elementos que estiverem acima
destes na mesma coluna”.
Vamos ao exemplo.
Exemplo 2.12: Obtenha a forma escalonada reduzida da matriz
−−
=344132411410321
A .
Partindo da forma escalonada obtida no Exemplo 2.10, temos
−−−×←×−←
−
0000010
10321~
1
0000064137010321
76
74
713
271
2
11
ll
ll
.
Anularemos os elementos acima do elemento unitário da posição (2,2)
×+←
−−−
000001001
~2
0000010
10321
76
74
713
75
78
75
211
76
74
713
lll.
A matriz
000001001
76
74
713
75
78
75
é, portanto, a forma escalonada reduzida da matriz A .
Na próxima seção forneceremos uma aplicação da forma escalonada que
acabamos de estudar.
2.3.2 Posto de uma matriz
Em diversas situações nos deparamos com a necessidade de analisar se uma
matriz quadrada possui inversa, ou se um sistema linear algébrico de equações possui solução
única ou se possui uma infinidade de soluções. Essas questões são resolvidas com base na
definição de posto de uma matriz.
Para estabelecer as definições nesta seção, serão supostos conhecimentos
prévios em Álgebra Linear, em especial os conceitos de espaço vetorial, dependência linear e
subespaços de uma matriz. Além disso, considere a transformação linear definida pela matriz
nmA ×ℜ∈ . Dois subespaços importantes do espaço vetorial nℜ estão associados com esta
transformação: o espaço nulo de A , definido por
0;)( =ℜ∈= AxxAN n
e seu complemento ortogonal, o espaço linha de A , definido por
,;)( mTnT zzAxxAR ℜ∈=ℜ∈=
Segue-se que qualquer vetor nv ℜ∈ pode ser unicamente decomposto (soma direta) como
pp vvv ~+= , onde )(ANvp ∈ e )(~ Tp ARv ∈ .
Definição 2.11: (Posto de uma matriz) A dimensão r do espaço linha de A é chamada de posto
de A .
Para caracterizar precisamente o espaço linha de uma matriz A , nm × , é
necessário encontrar um conjunto linearmente independente (LI) de vetores linhas dessa matriz.
O número desses vetores LI é a dimensão do espaço linha e, portanto, o posto de A . O
procedimento para obter a dimensão do espaço linha consiste em determinar a forma escalonada
da matriz. Regra geral: o posto de A é o número de linhas não nulas da matriz na forma
escalonada.
Façamos o exemplo a seguir.
Exemplo 2.13: Obtenha o posto da matriz
−−
=116224132
A .
Efetuamos sobre A as operações elementares sobre as linhas de A , como indicadas a seguir:
122 2116224132
lll ×−←
−−
~3116
480132
~
133 lll ×−←
−−
~1480
480132
~
233 lll ×−←
−−
−
−−
000480132
.
Concluído o escalonamento, verificamos que as linhas ]132[ − e
]480[ − são linearmente independentes. Portanto, o posto de A é 2. De fato, observando as
linhas da matriz A é possível ver que a terceira linha é a soma das duas primeiras.
Uma conclusão interessante é que, a matriz A do Exemplo 2.13 não possui
inversa, porque seu posto é inferior ao seu número de linhas. Denotamos por ‘posto deficiente’
uma matriz cujo posto é inferior ao número de linhas.
Uma aplicação prática da forma escalonada reduzida de uma matriz ocorre
quando desejamos determinar o espaço coluna dessa matriz, que também está associada à
determinação de posto.
Definição 2.12: (Espaço coluna de uma matriz) Seja A uma matriz nm × e considere nx ℜ∈ .
Consideremos a transformação linear T , definida por
)()(: ℜ→ℜ mn VVT ,
tal que
AxxT =)( .
O espaço coluna da matriz A é o subespaço )(AR de )(ℜmV gerado pelos
vetores colunas de A , o qual identificamos com o conjunto
Imagem )(; ℜ∈= nVxAxT .
Em outras palavras, o conjunto Imagem T é o subespaço de )(ℜmV gerado
pelos vetores colunas de A . Diante disso, a forma escalonada reduzida de uma matriz nos
informa os vetores da base do espaço coluna da mesma matriz. Façamos um exemplo.
Exemplo 2.14: Determine os vetores da base do espaço coluna da matriz
−−−
−=
423022201110121
A .
O nosso objetivo é eliminar um a um os vetores linearmente dependentes até que os vetores
restantes formem um conjunto linearmente independente. A maneira sistemática de fazer isto é
obter a forma escalonada reduzida da matriz A . Depois de aplicar operações elementares sobre
as linhas da matriz A com vistas à obtenção da forma escalonada reduzida, chegamos à
seguinte matriz linha equivalente
−−−
−−−
−
514
51
511
210000102001
~423022201110121
.
Observamos que os vetores canônicos emergiram nas três primeiras colunas da matriz. Isto
significa que os vetores
−21
1
,
−
012
e
301
são os vetores geradores do espaço coluna da matriz A . Outra observação é que os vetores são
em número de 3, que é o posto da matriz A .
Nas seções posteriores serão discutidas outras aplicações para o posto de uma
matriz.
2.3.3 Matrizes elementares
Definição 2.13: (Matriz elementar) Uma matriz elementar é aquela obtida a partir da matriz
identidade, através da aplicação de uma operação elementar com linhas.
A seguir enunciaremos um resultado sobre matrizes elementares. Aqui, uma
operação elementar com linhas inversa à uma operação elementar com linhas efetuada na matriz
identidade significa que: para ji ≠ , ℜ∈α , 0≠α , ji ll ↔ temos ji ll ↔ ; ii ll α← temos
ii ll α1← ; jii lll α+← temos jii lll α−← .
Teorema 2.3: Uma matriz elementar kE é invertível e sua inversa é a matriz elementar 1−kE ,
que corresponde à operação elementar com linhas inversa da operação efetuada para kE .
Vamos iniciar a discussão do Teorema 2.3 pela apresentação de um exemplo.
Exemplo 2.15: Considere a matriz identidade de ordem 3. Calcule cada matriz elementar e a sua
matriz inversa, para as operações elementares com linhas 21 ll ↔ , 33 9ll ← e 211 lll +← ,
respectivamente.
Temos pela definição de matriz elementar que
21
100010001 ll
I
↔
= ~ 1100001010
E=
,
33 9100010001
ll
I
←
= ~ 2900010001
E=
,
211
100010001 lll
I
+←
= ~ 3100010011
E=
.
Assim, pelo Teorema 2.3, ,1E 2E e 3E possuem matrizes inversas calculadas da seguinte
maneira:
21
100010001 ll
I
↔
= ~ 11
100001010
−=
E ,
391
3100010001
ll
I
←
= ~ 12
9100010001
−=
E ,
211
100010001 lll
I
−←
= ~ 13
100010011
−=
−E .
Agora estamos prontos para desenvolver um método para a determinação da
inversa de uma matriz, chamado método de Gauss-Jordan.
2.3.4 O método de Gauss-Jordan
Este método afirma que se A for uma matriz invertível (satisfaz o Teorema
2.2) e se uma seqüência de operações elementares sobre as linhas reduzir A à matriz identidade
I , então aquela mesma seqüência de operações sobre as linhas, quando aplicadas a I ,
produzirá a matriz inversa 1−A .
Exemplo 2.16: Considere a matriz
=201010321
A .
Determine a matriz inversa de A .
Empregando o método de Gauss-Jordan, temos a seguinte seqüência de cálculos:
133100201010010001321
],[lll
IA
−←
= ~
~ 211 2
101120010010001321 lll −←
−−− ~
~
233 2101120010010021301
lll +←
−−−
− ~
~
33121100010010021301
ll −←
−−
− ~
~ 311 3
121100010010021301 lll −←
−−
− ~
~ ],[121100
010010342001
1−=
−−
−AI .
Portanto,
−−
−=−
121010342
1A .
No Exemplo 2.16, podemos observar que ao realizarmos a operação
elementar sobre linhas 133 lll −← , obtemos a matriz elementar 1E e a sua matriz inversa 11−E ,
a saber:
−=
101010001
1E e
=−
101010001
11E .
Da mesma forma, para 211 2lll −← ,
−=
100010021
2E e
=−
100010021
12E ,
para 233 2lll +← ,
=120010001
3E e
−=−
120010001
13E ,
para 33 ll −← ,
−=
100010001
4E e
−=−
100010001
14E ,
e para 311 3lll −← ,
−=
100010301
5E e
=−
100010301
15E .
Assim, considerando o método de Gauss-Jordan, a partir da matriz A realizamos a seqüência de
operações:
AE1 , AEE 12 , AEEE 123 , AEEEE 1234 e IAEEEEE =12345 ,
e, a partir da matriz identidade,
IE1 , IEE 12 , IEEE 123 , IEEEE 1234 e 112345
−= AIEEEEE .
Estamos prontos para estudar métodos eficientes de solução de sistemas
algébricos lineares.
2.4 Sistemas lineares algébricos
Um sistema de equações lineares com m equações e n incógnitas é um
conjunto de equações do tipo indicado em (2.13).
mnmnmm
nn
nn
bxaxaxa
bxaxaxa
bxaxaxa
=+++
=+++=+++
2211
22222121
11212111
,
(2.13)
onde para todos mi ,,2,1 = e nj ,,2,1 = , ija e ib são números reais dados.
Uma solução do sistema (2.13) é uma −n upla ordenada da forma
Tnxxx ][ **
2*1 que satisfaça simultaneamente as m equações.
Na notação matricial, definindo
=
mnmm
n
n
aaa
aaa
aaa
A
21
22221
11211
e
=
mb
b
b
b
2
1
,
devemos encontrar, se existir, x em nℜ tal que
bAx = . (2.14)
Classificamos as soluções para o sistema linear (2.13) ou, equivalentemente, (2.14), assim:
a) Compatível determinado, isto é, quando admite uma única solução;
b) Compatível indeterminado, isto é, quando admite uma infinidade de soluções; e
c) Incompatível, isto é, quando não admite solução.
Por exemplo, o sistema de equações lineares
=−=+
6352
21
21
xx
xx
é compatível determinado, porque possui uma única solução, ou seja,
−=
13
x . Ainda, o
sistema de equação linear
1535 21 =+ xx
é compatível indeterminado, porque possui uma infinidade de soluções, ou seja,
2ℜ∈x ; 3515 1
2x
x−= e 1x qualquer.
Finalmente, o sistema de equações lineares
=++−=−+=++
43252723
321
321
321
xxx
xxx
xxx
é incompatível, porque o conjunto solução é vazio. Este fato pode ser comprovado através de
operações elementares sobre a matriz aumentada, ],[ bA , conforme mostra o exemplo dado a
seguir.
Exemplo 2.17: Considere o sistema
=++−=−+=++
43252723
321
321
321
xxx
xxx
xxx
Mostre que este sistema é incompatível.
A matriz aumentada do sistema é
−−=
432151127231
],[ bA
Efetuamos sobre ],[ bA as seguintes operações elementares
133432151127231
],[lll
bA
+←
−−= ~
~ 122 21155051127231
lll ×−←
− ~
~
233115509550
7231
lll +←
−−− ~
~
−−−20009550
7231
Obtemos assim um sistema linha equivalente e, então, podemos reescrever o sistema de
equações original a partir da forma escalonada da matriz aumentada ],[ bA ,
=−=−−
=++
20955
723
3
32
321
x
xx
xxx
Do sistema linha equivalente, podemos concluir que não existe valor para 3x que satisfaz a
última equação. Portanto, o sistema de equações é incompatível, ou seja, seu conjunto solução é
vazio.
Dizemos que dois sistemas de equações lineares são equivalentes, quando
possuírem o mesmo conjunto solução.
2.4.1 Sistemas homogêneos
Um sistema de equações lineares com m equações e n incógnitas chama-se
homogêneo, quando é da forma
0=Ax .
Observemos que nx ℜ∈= 0 é sempre uma solução do sistema homogêneo, denominada
solução trivial.
Um sistema homogêneo pode se apresentar em uma das seguintes situações:
(a) o sistema 0=Ax possui uma única solução, a solução trivial; ou (b) possui uma infinidade
de soluções, inclusive a solução trivial.
Antes de passarmos aos exemplos, considere a proposição enunciada a seguir.
Proposição 2.3: O espaço solução de um sistema homogêneo 0=Ax tem dimensão rn − ,
onde n é o número de incógnitas e r é o posto da matriz A de coeficientes. Como
conseqüência, um sistema homogêneo 0=Ax com n incógnitas tem solução única
nx ℜ∈= 0 se, e somente se, o posto de A for igual a n .
Desta proposição observamos que se nr = , a dimensão do espaço nulo de
A , que é o conjunto solução do sistema homogêneo 0=Ax , é igual a 0=− nn , quer dizer, o
caso indicado em (a). O caso indicado em (b) ocorre quando nr < .
Exemplo 2.18: Verifique se o seguinte sistema homogêneo possui solução única 30 ℜ∈=x .
=−−=++−=++
00202
321
321
321
xxx
xxx
xxx
.
Vamos calcular o posto da matriz de coeficientes, obtendo a forma escalonada.
233133
122230
330121
~111
211121
llllll
lll
+←
−−−←+←
−−− ~
100330121
Concluímos que o posto da matriz de coeficientes é 3, portanto, igual ao número de linhas da
matriz. Isto significa que a única solução do sistema é 0321 === xxx . Podemos concluir
também que as colunas (e as linhas) da matriz de coeficientes são linearmente independentes.
Exemplo 2.19: Verifique se o seguinte sistema homogêneo possui solução única.
=+−=+=−+
0302032
321
21
321
xxx
xx
xxx
.
Primeiramente, vamos calcular o posto da matriz de coeficientes para verificar se a única
solução do sistema é a trivial ou não.
233133
122630630321
~2311012321
llllll
lll
−←
−−
−
−←×−←
−
−~
−−
000630321
A forma escalonada mostra que o posto da matriz de coeficientes é 2 (matriz ‘posto deficiente’),
portanto, o sistema homogêneo possui uma infinidade de soluções.
No restante deste capítulo estaremos interessados na solução do sistema
(2.13) (ou (2.14)), para nm = , ou seja, a matriz de coeficientes é quadrada.
Dada uma matriz quadrada com coeficientes reais, A, nn × , e dado um vetor
b em nℜ , queremos encontrar, se existir, x em nℜ tal que bAx = . Se A é invertível, então o
sistema (2.13) (ou (2.14)), para nm = , possui uma única solução. Todavia, calcular
explicitamente a matriz inversa 1−A e, em seguida, efetuar o produto bA 1− é desaconselhável,
uma vez que o número de operações envolvidas é grande, principalmente para sistemas de
grande porte, ou seja, sistemas que envolvem grande número de equações e incógnitas.
Inicialmente, estudaremos alguns problemas com soluções, digamos, que
podem ser facilmente obtidas.
2.4.2 Sistemas triangulares
Seja o sistema linear bAx = em que A , nn × , é triangular inferior, com
elementos da diagonal diferentes de zero, e b em nℜ . Escrevendo as equações deste sistema
temos:
nnnnnn bxaxaxa
bxaxa
bxa
=+++
=+=
2211
2222121
1111
.
(2.15)
Supondo todos os coeficientes ija não nulos, tais que ji = , a solução do
sistema triangular inferior (2.15) é calculada pelas substituições sucessivas, a saber:
11
11 a
bx = ,
22
12122 a
xabx
−= , , nn
nnnnnnn a
xaxaxabx 112211 −−−−−−=
.
Regra geral: iniciando com 11
11 abx = , a incógnita ix é obtida pelo
somatório indicado em (2.16),
ii
i
jjiji
i a
xab
x
−
=−
=
1
1)(
, para ni ,,2 = .
(2.16)
O seguinte algoritmo resolve o sistema triangular inferior (2.15).
Algoritmo 2.1: Substituições sucessivas (ou diretas).
Dados: uma matriz triangular inferior com elementos da diagonal diferentes de zero, A , nn × ,
um vetor b em nℜ e n .
1111 abx ← Para ni ,,2 = 0←soma Para 1,,1 −= ij jij xasomasoma +←
iiii asomabx )( −←
Exemplo 2.20: Calcule a solução do sistema triangular inferior
−=
101
634032001
3
2
1
x
x
x
usando o algoritmo de substituições sucessivas.
1111 ==x 2=i , 0=soma , 1=j , 2120 =×+=soma , 323)20(2 −=−=x 3=i , 0=soma , 1=j , 4140 =×+=soma ;
2=j , 2)32(34 =−×+=soma , 216)21(3 −=−−=x Tx ]21321[* −−= .
Agora, seja o sistema linear bAx = em que A , nn × , triangular superior,
com elementos da diagonal diferentes de zero, e b em nℜ . Escrevendo as equações deste
sistema, temos:
nnnn
nn
nn
bxa
bxaxa
bxaxaxa
=
=++=+++
22222
11212111
.
(2.17)
A solução do sistema triangular superior (2.17) é calculada pelas substituições
retroativas, a saber:
nn
nn a
bx = , ,
22
232322 a
xaxabx nn−−−=
, 11
121211 a
xaxabx nn−−−=
.
Regra geral: iniciando com nn
nn a
bx = , a incógnita ix é obtida pelo
somatório indicado em (2.18),
ii
n
ijjiji
i a
xab
x
+=
−= 1
)(
, para 1,,1 −=ni .
(2.18)
Algoritmo 2.2: Substituições retroativas (ou reversas).
Dados: uma matriz triangular superior com elementos da diagonal diferentes de zero, A , nn × ,
um vetor b em nℜ e n .
nnnn abx ← Para 1,,1 −= ni 0←soma Para nij ,,1 += jij xasomasoma +←
iiii asomabx )( −←
Exemplo 2.21: Calcule a solução do sistema triangular superior
−=
− 04
21
20000100
43201001
4
3
2
1
x
x
x
x
usando o algoritmo de substituições retroativas.
0)2(04 =−=x 3=i , 0=soma , 4=j , 0)0(00 =×+=soma , 41)04(3 −=−−=x 2=i , 0=soma , 3=j , 12)4(30 −=−×+=soma ;
4=j , 12)0(412 −=×+−=soma , 72))12(2(2 =−−=x 1=i , 0=soma , 2=j , 0)7(00 =×+=soma ;
3=j , 0)4(00 =−×+=soma ; 4=j , 0)0(10 =×+=soma , 11)01(1 =−=x
Tx ]0471[* −= .
Finalmente, trataremos o problema (2.13) (ou (2.14)), para nm = , com a
hipótese de que o determinante da matriz A é diferente de zero e que a matriz de coeficientes
não está expressa na forma triangular.
2.4.3 O método de eliminação de Gauss
O método de eliminação de Gauss consiste em transformar um sistema de
equações lineares, bAx = , através de operações elementares, em um sistema triangular
superior equivalente. A partir daí, usa-se o algoritmo de substituições retroativas.
A obtenção do sistema equivalente é feita operando-se sobre as linhas da
matriz aumentada ],[ bA objetivando-se sempre anular os elementos de uma dada coluna que
estão imediatamente abaixo do elemento da diagonal, designado como pivô. Este procedimento
é repetido para as primeiras 1−n colunas do sistema.
Usaremos kija para denotar o coeficiente ija da matriz A no final da etapa k
e kib para denotar a −i ésima coordenada do vetor b no final da etapa k . A etapa k é a fase em
que se elimina a variável kx nas equações nkk ,,2,1 ++ . Supomos que 0)det( ≠A . Assim,
podemos reescrever o sistema de equações lineares de forma que o elemento 01111 aa = seja
diferente de zero:
==
0002
01
02
02
022
021
01
01
012
011
00 ],[],[
nnnnn
n
n
baaa
baaa
baaa
bAbA
.
Na etapa 1 eliminamos a variável 1x das equações ni ,,2 = , subtraindo da
equação i a primeira equação multiplicada por 011
01
1 aam i
i = , para ni ,,2 = , onde 011a é
denominado pivô da etapa 1. Ao final desta etapa, obteremos a matriz aumentada equivalente
=
1112
12
12
122
11
11
112
111
11
0
0],[
nnnn
n
n
baa
baa
baaa
bA
,
onde
=1ija 0
110
jiij ama − , para ni ,,2 = e nj ,,2,1 = ,
=1ib 0
110 bmb ii − , para ni ,,2 =
=11 ja 0
1 ja , para nj ,,2,1 = ,
=11b
01b
Na etapa 2, dado que 0)det( ≠A , sempre teremos o elemento 0122 ≠a .
Então, podemos reescrever a matriz 1A , sem alterar a posição da linha 1, de modo que o pivô da
etapa 2, 122a , seja diferente de zero. Agora eliminaremos a variável 2x das equações
ni ,,3 = , subtraindo da equação i a segunda equação multiplicada por 122
12
aai para
ni ,,3 = . Ao final desta etapa, obteremos a matriz aumentada equivalente
=
2223
23
23
233
22
22
223
222
21
21
213
212
211
22
00
000
],[
nnnn
n
n
n
baa
baa
baaa
baaaa
bA
,
onde
=2ija 1
121
jiij ama − , para ni ,,3 = e nj ,,2 = ,
=2ib 1
221 bmb ii − , para ni ,,3 =
=2ija 1
ija , para 2,1=i e nj ,,2,1 = ,
=2ib 1
ib , para 2,1=i .
Continuamos com este processo até a etapa 1−n , onde obteremos ao final
desta etapa a matriz aumentada equivalente
=
−−
−−−−
−
−−−−
−−
−−−−
−−−
−−
11
13
13
113
133
12
12
112
123
122
11
11
111
113
112
111
11
0000
000
],[
nn
nnn
nnn
nn
n
nnn
nn
nn
nnn
nn
nnn
nn
ba
baaa
baaaa
baaaaa
bA
.
Agora o sistema linear equivalente é triangular superior. O sistema está
pronto para a aplicação do Algoritmo 2.2.
Os procedimentos descritos nesta seção são expressos na forma de um
algoritmo, como a seguir.
Algoritmo 2.3: Eliminação de Gauss.
Dados: uma matriz quadrada A , nn × , com 0)det( ≠A , um vetor b em nℜ e n .
Para 1,,1 −= nk Para nki ,,1 +=
kk
ika
am ←
0←ika Para nkj ,,1 +=
kjijij maaa −←
kii mbbb −←
Em seguida, ilustraremos o Algoritmo 2.3 resolvendo um exemplo numérico.
Exemplo 2.22: Reduza o seguinte sistema a um sistema triangular superior
=−=++=++
21654032
21
321
321
xx
xxx
xxx
Em notação matricial temos
−=
201116540321
],[ bA .
Usando o algoritmo de eliminação de Gauss,
0,414,2,1 21
1121 ====== aa
amik ,
3)2(45,,2 22122222 −=×−=−←= amaaaj , 6)3(46,,3 23132323 −=×−=−←= amaaaj , 1)0(41, 2122 =×−=−← bmbbb .
0,111,3 31
1131 ===== aa
ami ,
3)2(11,,2 32123232 −=×−−=−←= amaaaj , 3)3(10,,3 33133333 −=×−=−←= amaaaj , 2)0(12, 3133 =×−=−← bmbbb .
Neste ponto obtemos
−−−−
233016300321
~],[ bA .
Continuando o Algoritmo 2.3,
0,133,3,2 32
2232 ==−
−==== aaamik ,
3)6(13,,3 33233333 =−×−−=−←= amaaaj , 1)1(12, 3233 =×−=−← bmbbb .
Neste ponto obtemos
−−130016300321
~],[ bA .
Portanto, o sistema equivalente triangular superior é como a seguir
==−−=++
13163032
3
32
321
x
xx
xxx
Exemplo 2.23: Calcule a solução do sistema triangular superior obtido pela aplicação da
eliminação de Gauss
==−−=++
13163032
3
32
321
x
xx
xxx
Pelo algoritmo de substituições retroativas obtemos
313 =x ,
13))(61( 312 −=−×+=x ,
11))1(2)(30( 311 =−×−×−=x ,
Tx ]3111[* −= .
A próxima seção tratará do método mais indicado para resolver sistemas
lineares de equações algébricas, que é a decomposição LU, também conhecida como fatoração
LU.
2.4.4 Decomposição LU de matrizes quadradas
A seção 2.4.2, intitulada “Sistemas triangulares”, mostrou que um sistema de
equações em que a matriz de coeficientes se apresenta como uma matriz triangular inferior ou
como uma matriz triangular superior é facilmente solucionável por substituições diretas ou
reversas. A seção 2.4.3 mostrou que é possível usar a eliminação de Gauss e transformar um
sistema bAx = para a forma triangular.
O método da decomposição LU associa as duas idéias: primeiro, obtém a
forma triangular superior da matriz A e, simultaneamente, armazena os multiplicadores usados
nesta operação. Em seguida, a solução do sistema é alcançada resolvendo-se dois sistemas
triangulares através das substituições direta e reversa.
Inicialmente trataremos da decomposição da matriz de coeficientes, sem
contudo, efetuar operações sobre o vetor independente, b , ao contrário do que foi feito na seção
2.4.3. O primeiro caso é quando não há troca de linhas durante a fatoração.
Exemplo 2.24: Obtenha uma decomposição LU da matriz
−−
−
=
1111121101222114
A .
O procedimento é o mesmo utilizado no processo de eliminação de Gauss. Efetuaremos
operações elementares para anular elementos das colunas da matriz, desde a coluna 1 até a
coluna 3, sempre anulando as posições abaixo do elemento da diagonal correspondente.
Anularemos a seguir os elementos que estão abaixo do elemento da posição (1,1):
−−
−−
×−←
−−
−
1111121110
2114
~)(
1111121101222114
23
23
142
22 lll, multiplicador utilizado = 4
2 ,
−−
−−
×−←
−−
−−
11110
102114
~)(
1111121110
2114
21
49
45
23
23
141
33
23
23
lll, multiplicador utilizado = 4
1 ,
−−
−−
×−←
−−
−−
21
45
45
21
49
45
23
23
141
442
14
94
52
32
3
0
010
2114
~
)(11110
102114
lll
, multiplicador utilizado = 41 .
A matriz triangular inferior, designada por L , no caso específico do método LU, possui a
diagonal principal constituída de elementos unitários, e os elementos que se situam abaixo da
diagonal são os multiplicadores utilizados nas operações elementares durante o processo de
eliminação.
Dessa forma, após anular elementos na primeira coluna, a matriz L passa a exibir a seguinte
estrutura:
=
1??
01?0010001
41
41
42
L .
Passaremos, em seguida, a anular os elementos da coluna 2 que estão abaixo da posição (2,2):
−−−
−
×
−←
−−
−−
−
21
45
45
31
27
23
23
233
21
45
45
21
49
45
23
23
000
102114
~
00
102114
23
45
lll,
multiplicador utilizado = 65
23
45
−=−
.
−−
−
×
−←
−−−
−
−−
31
25
31
27
23
23
24421
45
45
31
27
23
23
0000
102114
~
000
102114
23
45
lll
,
multiplicador utilizado = 65
23
45
−=−
.
Depois de anular elementos na segunda coluna, a matriz L apresenta a seguinte estrutura:
−−
=
1?010010001
65
41
65
41
42
L .
Anularemos o elemento da coluna 3 que está abaixo da posição (3,3):
−−
−
×
−←
−−
−
−−21
23
12
72
32
3
34431
25
31
27
23
23
00000
102114
~
0000
102114
27
25
lll
,
multiplicador utilizado = 75
27
25
= .
A matriz L exibe finalmente a sua estrutura completa,
−−
=
1010010001
75
65
41
65
41
42
L ,
e a matriz U é a própria matriz triangular superior que resultou das operações de eliminação de
Gauss,
−−
−
=
−21
23
12
72
32
3
000
0010
2114
U .
O produto das matrizes L e U resulta na matriz original A , conforme está indicado a seguir.
ALU = ,
−−
−
=
−−
−
−−
− 11111211
01222114
000
0010
2114
1010010001
212
31
27
23
23
75
65
41
65
41
42
.
Dessa forma, está concluído o Exemplo 2.23 no qual obtivemos uma decomposição da matriz
A .
Os fundamentos matemáticos da decomposição LU provêm do conceito de
matriz elementar (vide Definição 2.13 e o Teorema 2.3). No exemplo precedente, os passos para
obter a decomposição de A podem ser expressos usando matrizes elementares, do seguinte
modo:
−−
−−
=
−−
−
−=
1111121110
2114
1111121101222114
110001000010001
23
23
42
1 AE ,
−−
−−
=
−−
−
−
−=
11110
102114
1111121101222114
110001000010001
110001000100001
21
49
45
23
23
42
4112 AEE ,
=
−−
−
−
−
−
=
11111211
01222114
10000100
0010001
1000010
00100001
100
010000100001
42
41
41
123 AEEE
−−
−−
=
21
45
45
21
49
45
23
23
0
010
2114
.
Assim, as multiplicações das seguintes matrizes elementares
=
100001000100001
654E ,
=
100010000100001
65
5E e
−
=
100010000100001
75
6E
sobre AEEE 123 , na seqüência AEEEEEE 123456 , conduzem à matriz triangular superior U ,
−−
−
==
−21
23
12
72
32
3
123456
000
0010
2114
UAEEEEEE .
Ora, a inversa da matriz elementar do tipo usado na decomposição LU consiste apenas em
trocar o sinal do elemento não nulo que está fora da diagonal, e a inversa da matriz elementar é
também uma matriz elementar. Outro aspecto interessante da matriz elementar é que o produto
de duas matrizes elementares que descrevem operações sobre o triângulo inferior goza da
propriedade de superposição, observada a ordem das operações.
Para exemplificar a superposição, considere o produto 14
13
−− EE ,
−=
−
=−−
100
01000100001
1000010
00100001
100
010000100001
41
65
65
41
14
13 EE
que equivale à soma
−=
−
−+
=−+ −−
100
01000100001
10000100
00100001
1000010
00100001
100
010000100001
41
65
65
41
14
13 IEE
Conseqüentemente,
=
−
−−
10010000100001
75
65
16
15 EE
=−−
10000100010001
41
42
12
11 EE
Daí, concluímos que o produto 16
15
14
13
12
11
−−−−−− EEEEEE resultará na matriz triangular inferior,
L , como está mostrado a seguir,
UEEEEEEA 16
15
14
13
12
11
−−−−−−= ,
LUA = .
Precisamos de um procedimento sistemático para efetuar a decomposição LU
de uma dada matriz A . Suporemos inicialmente que não haverá necessidade de troca de linhas.
O Algoritmo 2.4 obtém a decomposição LU de A , nn × .
Algoritmo 2.4: Decomposição LU de A .
Dados: uma matriz quadrada A , nn × , e n .
IL ← Para 1,,1 −= nk Para nki ,,1 +=
kk
ika
am ←
0←ika mlik ← Para nkj ,,1 += kjijij maaa −←
Ao término dos passos deste algoritmo, os elementos da matriz U estarão
armazenados nas posições originalmente reservadas à matriz A , portanto, perderemos os
elementos de A .
Com a suposição de que não haverá troca de linhas, a decomposição LU pode
falhar. O Exemplo 2.25 ilustra esta situação.
Exemplo 2.25: Obtenha a decomposição LU da matriz, sem efetuar troca de linhas,
−−=114212112
A .
Ao anularmos o elemento 2− , da posição (2,1), verificamos o surgimento do zero na posição
diagonal (2,2),
( )
×−←
−− −
114300112
~114212112
122
22 lll .
A presença deste elemento zero impossibilita efetuar a operação de anular a posição (3,2),
ocupada pelo elemento 1. Nestas condições, dizemos que a decomposição LU falhou.
Proposição 2.4: Seja A uma matriz, nn × . A existência das matrizes triangulares L e U , na
hipótese de não podermos efetuar troca de linhas (ou seja, a primeira operação elementar
descrita na seção 2.3), tais que LUA = , é assegurada sempre que as submatrizes principais
líderes de A forem não singulares.
Entretanto, a operação elementar troca de linhas resolve este impasse.
No Exemplo 2.26, efetuaremos a decomposição LU da matriz do exemplo
precedente e, simultaneamente, construiremos uma matriz denominada matriz de permutação,
simbolizada por P .
Exemplo 2.26: Obtenha a decomposição LU da matriz, com troca de linhas se necessário,
−−−
=114212212
A .
Ao tentarmos anular o elemento 2− , da posição (2,1), verificamos o surgimento de zero na
posição diagonal (2,2). Reiniciaremos o processo, trocando então a linha 1 e a linha 3 , cuja
operação estará representada pela matriz elementar 1E ,
=001010100
1E .
Teremos,
−−−=
212212114
1AE .
Anulamos, em seguida, o elemento 2− da posição (2,1),
( )
−−×−←
−−− −
2120
114~
212212114
25
2114
222 lll .
Anulamos o elemento 2, que está na posição (3,1),
( )
−−
×−←
−−
25
21
25
21
142
33
25
21
0
0
114
~
212
0
114
lll
,
Partimos, finalmente, para anular o elemento 21 que se encontra na posição (3,2),
( )
−×−−←
−−
0000
114
~10
0
114
25
21
23325
21
25
21
lll
.
A matriz triangular superior, U , é
−=000
0114
25
21U ,
e a matriz L , é
−= −
1101
001
21
21L ,
com a ressalva de que uma troca de linhas ocorreu e está representada na matriz P (que é o
produto de matrizes elementares que refletem as trocas de linhas ocorridas),
=001010100
P .
Para concluirmos o exemplo, precisamos entender o papel da matriz P na
decomposição LU. Se fizermos o produto LU não iremos obter a matriz A , ao contrário do
que foi mostrado no Exemplo 2.23 onde não ocorreu troca de linhas, isto é,
−−−=
−
−= −
212212
114
0000
114
1101
001
25
21
21
21LU .
Todavia, o produto obtido é a matriz A pré-multiplicada por P . Então, como
regra geral, a decomposição LU quando trocas de linhas estão representadas pela matriz P é tal
que,
LUPA = ,
e
PLUA = .
O Exemplo 2.26 solucionado anteriormente, além de mostrar como proceder
quando há troca de linhas, também ilustra o caso em que a matriz A é singular e a
decomposição LU é realizada normalmente. Isto pode ser constatado no fato de que o
determinante da matriz U é zero (que é igual ao determinante da matriz A , conforme
estabelecido pela Proposição 2.1).
A solução de um sistema de equações lineares algébricas com n equações e n incógnitas,
bAx = , compatível determinado, é realizada sem dificuldades se estivermos de posse da
decomposição LU da matriz de coeficientes. Suporemos que na decomposição não houve troca
de linhas, então a solução é obtida com os seguintes passos: uma vez que agora
bUxLxLUAx === )()( ,
(1) decomposição: LUA=
(2) substituição direta: bLy =
=
−−
−
−−
n
n
n
n
nnnn
nn
b
b
b
b
y
y
y
y
lll
ll
l
1
2
1
1
2
1
1,21
2,11,1
21
101
0010001
;
(3) substituição reversa: yUx =
=
−−−−−
−
−
n
n
n
n
nn
nnnn
nn
nn
y
y
y
y
x
x
x
x
u
uu
uuu
uuuu
1
2
1
1
2
1
,11,1
,21,222
,11,11211
00000
0
.
As etapas que solucionam os sistemas triangulares são idênticas aos métodos
descritos na seção 2.4.2, sendo que a solução de bLy = é feita aplicando o Algoritmo 2.1 e a
solução de yUx = é feita aplicando o Algoritmo 2.2.
A seguir, adaptamos os algoritmos mencionados à notação utilizada nesta
seção para apresentar o algoritmo completo de solução de um sistema de equações bAx = ,
compatível determinado, para o caso em que a troca de linhas não é necessária.
Algoritmo 2.5: Solução de bAx = através da decomposição LU.
Dados: uma matriz quadrada A , nn × , um vetor de termos independentes b e n .
IL ← Para 1,,1 −= nk Para nki ,,1 +=
kk
ika
am ←
0←ika mlik ← Para nkj ,,1 += kjijij maaa −←
11 by ← Para ni ,,2 = 0←soma Para 1,,1 −= ij
jij ylsomasoma +←
somaby ii −←
nnnn ayx ← Para 1,,1 −= ni 0←soma Para nij ,,1 +=
jij xasomasoma +←
iiii asomayx )( −←
O leitor pode, a princípio, não ver vantagem da solução de sistemas com a
decomposição LU sobre o método de eliminação de Gauss. Entretanto, uma característica muito
importante da decomposição LU é notada quando desejamos resolver sistemas com a mesma
matriz de coeficientes e diferentes vetores de termos independentes. Com as mesmas matrizes
triangulares, L e U , obtidas da decomposição da matriz A , procederemos às etapas de
substituição direta e reversa para cada vetor de termos independentes. Enquanto que, na
eliminação de Gauss, o algoritmo opera sobre a matriz aumentada, ],[ bA , de modo que para
outro vetor de termos independentes todo o processo de eliminação terá que ser realizado desde
o início.
Um aspecto extremamente importante quando tratamos da solução de
sistemas de equações lineares algébricos é o número de operações requeridas para chegarmos à
solução do sistema. Vimos anteriormente que a solução via determinante (Regra de Cramer) é
extremamente onerosa em relação ao número requerido de operações. O método de Gauss-
Jordan e a subseqüente multiplicação da inversa de A pelo vetor b é visto aqui como um
método de solução de sistemas de equações lineares algébricos.
Primeiramente, analisaremos o número de operações necessárias para a
decomposição LU de uma matriz A , nn × .
Aqui, assumimos um flop como a unidade de operação de ponto flutuante que
corresponde a um produto acompanhado de uma adição envolvendo números reais (ou seja,
dcba ×+= ). Então, supondo a primeira linha da matriz inalterada, na obtenção dos zeros na
primeira coluna realizamos )1( −nn flops e, na segunda coluna, )2)(1( −− nn flops e, na
terceira coluna, )3)(2( −− nn flops e, assim por diante, resultando no seguinte somatório,
−
=−+−
1
1))(1(
n
kknkn ,
cujo resultado é 33
)1( 32 nnnn −=−. Dizemos que a decomposição LU é )( 3
3nO flops.
Por outro lado, a obtenção da inversa da matriz A através do método de
Gauss-Jordan requer a seguinte quantidade de flops para anular as posições abaixo da diagonal
principal,
−
=−+−
1
1))(12(
n
kknkn , e
−
=−+
1
1))((
n
kknkn
flops para anular as posições acima da diagonal principal, além de aproximadamente nn )1( +
flops para tornar unitários os elementos da diagonal. Efetuando as somas indicadas, chegamos
ao número aproximado de flops requeridos na obtenção da inversa da matriz A através do
método de Gauss-Jordan
−
=−+−
1
1))(12(
n
kknkn +
−
=−+
1
1))((
n
kknkn + nn )1( +
23 3 nn +≅ .
As etapas de solução do método baseado na decomposição LU consomem
2)1(2 −n flops e, no método de solução por Gauss-Jordan, as operações requeridas para
multiplicar 1−A por b correspondem a 2n flops. Negligenciamos os termos de menor ordem no
cálculo do número de operações de ponto flutuante e concluímos que os métodos sob análise
possuem os desempenhos mostrados na Tabela 2.2.
Tabela 2.2: Número aproximado de flops requeridos para a solução de um sistema bAx = ,
sendo A uma matriz nn × , nos métodos de Gauss-Jordan e decomposição LU.
Gauss-Jordan Decomposição LU inversa
23 3 nn +
decomposição
3
3 nn −
multiplicação bA 1− 2n substituições 2)1(2 −n total
23
223 323 nnnn ≅++
total
336136 323 nnnn ≅+−+
Percebemos imediatamente que, dentre os métodos apresentados neste texto,
o que apresenta melhor desempenho é o método de solução baseado na decomposição da matriz
em seus fatores triangulares L e U .
No próximo capítulo estudaremos um tópico básico de Programação
Matemática denominado Programação Linear.
2.5 Exercícios
1. Programe a adição de duas matrizes, nm × .
2. Programe a transposição de uma matriz, nm × .
3. Programe a multiplicação de uma matriz nm × e uma matriz qn × .
4. Programe a Regra de Cramer para o Exemplo 2.16 com Tb ]321[ −= .
5. Programe o algoritmo de substituições sucessivas para o Exemplo 2.20.
6. Programe o algoritmo de substituições retroativas para o Exemplo 2.21.
7. Programe o algoritmo de eliminação de Gauss com o algoritmo de substituições retroativas
para o Exemplo 2.22.
8. Utilize o comando rref do software MATLAB para a matriz do Exemplo 2.12.
9. Utilize o comando rank do software MATLAB para a matriz do Exemplo 2.13.
10. Utilize o comando rref do software MATLAB para a matriz do Exemplo 2.14.
11. Utilize o comando null do software MATLAB para a matriz do Exemplo 2.19.
12. Utilize o comando [P,L,U]=lu(A) do software MATLAB para a matriz do Exemplo
2.24.
13. Utilize o comando [P,L,U]=lu(A) do software MATLAB para a matriz do Exemplo
2.26.
14. Programe o Algoritmo 2.5 e resolva o seguinte sistema de equações
−=
121
201010321
3
2
1
x
x
x
15. Utilize o comando x=A\b do software MATLAB para resolver o sistema do exercício
anterior.
16. Calcule a inversa da matriz A empregando o método da matriz adjunta
=201010321
A .
17. Obtenha o sistema linha equivalente a
=−=++=++
21654032
21
321
321
xx
xxx
xxx
18. Determine o posto de cada uma das seguintes matrizes
a)
=
111111
A , b)
−−−=842421
421B , c)
−=
242101
C , d)
−
−=
113111201221
D .
19. Classifique os sistemas bAx = quanto à solução: (a) compatível determinado; (b)
compatível indeterminado; e (c) incompatível (ou inconsistente).
a)
−=++−=++
=++
23331654
132
321
321
321
xxx
xxx
xxx
, b)
=−+=+−
252
321
321xxx
xxx,
c)
=++=+−=++
01132
321
321
321
xxx
xxx
xxx
, d)
=−+=+−
11
321
321xxx
xxx.
20. Mostre que o sistema
=++−=−+=++
43252723
321
321
321
xxx
xxx
xxx
não tem solução, ou seja, é incompatível.
21. Verifique se as matrizes A e B são definidas positivas ou não
a)
−−
=320221013
A , b)
−=
1231
B .
22. Obtenha as inversas das matrizes elementares
a)
=100050001
1E , b)
=102010001
2E , c)
−=
130010001
3E .
23. Utilize matrizes elementares para obter a inversa da matriz
=201010321
A .
24. Converta o sistema bAx = à forma triangular e obtenha a solução x com os dados
−
−=
311022302000
1111
A ,
=
0010
b .
25. Pesquise e descubra um método que não utilize o cálculo de determinantes para determinar
se uma matriz é ou não é definida positiva.
Capítulo 3
Programação Linear
Neste capítulo introduziremos a Programação Matemática através da
Programação Linear (PL). Definiremos o problema de PL (PPL) e estudaremos os
fundamentos da PL e o método simplex.
Iniciamos o nosso propósito definindo o problema de PL.
3.1 O problema de PL
Nesta seção definimos o problema de Programação Linear. Em particular,
definimos o problema de PL na forma padrão, no sentido de que qualquer PPL pode ser
convertido para este formato.
Consideremos os números inteiros m e n tais que nm <<0 . Dados uma
matriz numérica com coeficientes reais ,A , nm × e vetores mb ℜ∈ e ,nc ℜ∈ o problema de
Programação Linear no formato padrão é um problema de Otimização,
(P) 0. x
:a sujeito minimizar
≥==
bAx
xcz T
Seguem-se algumas definições associadas ao problema (P).
Definição 3.1: Considere o PPL (P).
a) A função linear xczx T= é chamada função objetivo.
b) O conjunto 0; ≥=ℜ∈= b, xAxxX n é chamado conjunto viável e um ponto
Xx ∈ é denominado ponto viável.
c) O conjunto ( ) ,*;* XxxcxcXxPX TT ∈∀≤∈= é chamado conjunto de soluções
ótimas e um ponto ( )PXx ∈* é denominado solução ótima.
75
d) O problema (P) chama-se problema ilimitado, quando existe uma seqüência )( kx tal
que Xx k ∈ e ,−∞→kT xc quando ∞→k .
e) O problema (P) chama-se problema inviável, quando X é vazio.
Um caso para um problema ilimitado de PL poderá ser observado no
Exemplo 3.9 adiante, enquanto que para um problema inviável, podemos recorrer ao Exemplo
2.17, quando estudamos o sistema de equações lineares incompatível.
Exemplo 3.1: Sejam dados a matriz tecnológica ,A ,3 2 × o vetor do lado direito 2ℜ∈b e o
vetor custo 3ℜ∈c a saber:
−=
101142
A ,
=
75
b e
−=
201
c .
O PPL na forma padrão é o seguinte:
.07542 : a sujeito
2minimizar
321
31
321
31
≥=+=+−
−=
x,x,x
xx
xxx
xxz
3.1.1 Obtenção do formato padrão
Geralmente, pretendemos resolver um PPL no formato do problema (P). Isto
é, o primeiro grupo de restrições envolve somente igualdades e todas as variáveis do modelo
são não negativas. Além disso, queremos minimizar o valor da função objetivo.
Na ocorrência de
, :a sujeito maximizar
Xx
xcz T
∈=
basta trocarmos o sinal no valor da função objetivo, a saber:
. :a sujeito minimizar
Xx
xcz T
∈−=−
76
Para ,m,i 1= , na ocorrência de desigualdades como mostradas a seguir
in
jjij bxa ≤
=1
ou
in
jjij bxa ≥
=1,
basta tomarmos 0≥+inx , tal que
iinn
jjij bxxa =+ +
=
1
ou
iinn
jjij bxxa =− +
=
1,
respectivamente e, assim, convertemos as restrições de desigualdade para igualdade. Dizemos
que inx + é uma variável de folga, quando adicionada na restrição e, variável de excesso,
quando subtraída na restrição.
Por outro lado, consideremos .1 ,n,j = Sejam dados números reais jl e
,ju com .0≠jl Na ocorrência de variáveis do tipo jj lx ≥ ou jj ux ≤ podemos considerar
jj lx ≥ ou jj ux ≤ como restrições do tipo ≥ ou ≤ , respectivamente.
Na ocorrência de variáveis livres, isto é, ℜ∈jx , para algum ,n,j 1= ,
basta realizarmos uma mudança de variáveis definindo,
jjj xxx ˆ−= , com 0≥jx e 0ˆ ≥jx .
Note-se que não consideramos desigualdades estritas.
Exemplo 3.2: Para converter o PPL
02
: a sujeito
5maximizar
2
21
21
≥≤+
−=
x
xx
xxz
para o formato padrão, devemos tomar 2321 =++ xxx , com 03 ≥x , e definir
541 xxx −= , com 04 ≥x e 05 ≥x ,
77
e trocar o sinal no valor da função objetivo. Assim, obtemos:
.0,,,
2:a sujeito
5minimizar
5432
5432
542
≥=−++
+−=
xxxx
xxxx
xxxz
A propósito, quando um problema de Otimização é um problema de PL?
Quando as funções envolvidas (a função objetivo e as restrições do problema) são afins
(lineares) e contínuas e, além disso, as variáveis do problema são contínuas.
3.2 A geometria da Programação Linear
Nesta seção trataremos do estudo dos fundamentos da PL. O que faremos
neste caminho, então, será reescrever o que já existe na literatura, dando uma primeira olhada
no conjunto viável como um poliedro e, em seguida, caracterizando-o como um poliedro com
um número finito de pontos extremos e com pelo menos um ponto extremo quando não vazio;
desenvolvendo um método gráfico para a solução de um PPL; e enunciando o Teorema
Fundamental da PL.
Iniciamos o nosso intuito com alguns resultados de convexidade. Afinal, o
que são poliedros?
Definição 3.2: Sejam dados um vetor não nulo na ℜ∈ , denominado vetor normal, e um
escalar ℜ∈δ .
a) O conjunto
; δ=ℜ∈= xaxH Tn
é denominado um hiperplano.
b) Os conjuntos
; δ≤ℜ∈= xaxH Tnl
e ; δ≥ℜ∈= xaxH Tn
u
são denominados semiespaços fechados.
c) Um poliedro é um conjunto formado pela interseção de um número finito de
semiespaços fechados.
78
Pela definição de poliedro, observamos que o conjunto vazio é um poliedro,
porque o conjunto vazio é a interseção de zero semiespaços fechados, por exemplo.
Exemplo 3.3: A Figura 3.1 representa um hiperplano H definido pelo vetor normal
[ ]T,,a 2010= e pelo número 3,0=δ . Observe que o vetor a define a inclinação do
hiperplano enquanto que δ define a posição de .H No sentido do vetor normal, obtemos uH
(região hachurada) e, no sentido contrário, .lH Observe, também, que H é um poliedro,
porque é a interseção de dois semiespaços fechados, lH e .uH
Figura 3.1: Representação de um hiperplano H e de semiespaços fechados lH e uH no 2ℜ .
Agora, o que é um conjunto convexo?
Definição 3.3: Sejam dados q vetores nqxxx ℜ∈,,, 21 .
a) Dizemos que n x ℜ∈ é uma combinação linear de nq , x,, xx ℜ∈21 , quando
existem q escalares ℜ∈q, ,, 21 tais que
qq xxxx +++=
22
11 .
b) Dizemos que n x ℜ∈ é uma combinação convexa de nq , x,, xx ℜ∈21 , quando
x é uma combinação linear e
79
121 =+++ q e ]1,0[21 ∈q, ,, .
A notação ]1,0[ significa intervalo fechado cujos extremos são 0 e 1.
c) Seja S um subconjunto do nℜ . Dizemos que S é um conjunto convexo, quando
todas as combinações convexas de quaisquer dois pontos de S pertencem a S .
d) Seja S um subconjunto convexo do nℜ . Um ponto x em S é denominado ponto
extremo de ,S quando x não é uma combinação convexa de quaisquer dois outros
pontos distintos em .S
No exemplo a seguir são ilustrados dois conjuntos: um conjunto convexo e
um conjunto não convexo.
Exemplo 3.4: Na Figura 3.2(a) temos um conjunto convexo com quatro pontos extremos e a
Figura 3.2(b) não é um conjunto convexo. São também mostrados dois pontos 1x e 2x
pertencentes aos conjuntos e x um ponto extremo da Figura 3.2(a).
(a) (b)
Figura 3.2: Exemplos no 2ℜ de (a) um conjunto convexo S , e (b) um conjunto não convexo.
No conjunto da Figura 3.2(a) verificamos que, dados quaisquer dois pontos
deste conjunto, os que são uma combinação convexa desses dois pontos também pertencem
ao conjunto, o que não ocorre em relação ao conjunto da Figura 3.2(b). Além disso, na Figura
3.2(a) x é um ponto extremo porque não pode ser escrito como uma combinação convexa de
dois pontos distintos dele em S , enquanto que na Figura 3.2(b) não existe ponto extremo
porque o conjunto não é convexo.
1x 1x
2x 2x
x
80
Agora, do ponto de vista computacional, vamos reescrever a definição de
ponto extremo de uma maneira mais operacional. Iniciamos com a seguinte definição.
Definição 3.4: Sejam dados uma matriz ,A , nm × ,0 nm << e um vetor b em mℜ .
Consideremos um sistema de equações lineares , bAx = tal que posto( A ) m= .
a) Uma matriz quadrada ,B , mm × obtida de ,A com m vetores coluna linearmente
independentes denomina-se matriz base de A . Uma matriz ,N ( )mnm −× , obtida de
,A com os mn − vetores coluna restantes denomina-se matriz não base.
b) Consideremos uma matriz base ,B mm × . O conjunto de índices correspondentes a
esta matriz base ,B no sistema , bAx = chama-se conjunto de índices base. O
conjunto com os demais mn − índices chama-se conjunto de índices não base.
Denotamos o conjunto de índices base por BI e o conjunto de índices não base por
NI . Os conjuntos BI e NI têm cardinalidade m e mn − , respectivamente.
c) Consideremos uma matriz base ,B mm × . As variáveis correspondentes a esta
matriz base ,B no sistema , bAx = são denominadas variáveis básicas. As demais
mn − variáveis são as variáveis não básicas. Denotamos o vetor de variáveis básicas
por Bx e o vetor de variáveis não básicas por Nx .
d) Anulando as mn − variáveis não básicas, obtemos um sistema compatível
determinado, constituído de m equações e m incógnitas. Determinando o valor das
variáveis básicas, obtemos uma solução básica. Ou seja, façamos 0=Nx e
resolvemos o sistema linear bBxB = .
e) Uma solução básica onde as variáveis básicas são não negativas denomina-se solução
básica viável.
f) Uma solução básica viável onde existe ao menos uma variável básica nula denomina-
se solução básica viável degenerada.
Por conveniência, suponhamos que mxxx ,,, 21 sejam as variáveis
básicas, que são as coordenadas de Bx , e nm xx ,,1 + sejam as variáveis não básicas,
coordenadas de Nx . Então, neste caso, os conjuntos BI e NI são como a seguir:
,,2,1 mIB = e ,,2,1 nmmIN ++= .
81
Para a resolução do sistema bAx = buscamos exprimir Bx em função de
Nx , a saber:
bx
xNBbAx
N
B
=
= ][ =+ bxx NB
.11 NB NxBbBx −− −= (3.1)
Para 0=Nx , bBxB 1−= e x é uma solução básica. Se 01 ≥= − bBxB para 0=Nx , então
x também é uma solução básica viável.
Exemplo 3.5: Considere o sistema linear
.03
3
4321
41
321
≥=+=++
, x, x, xx
x x
xxx
Neste exemplo, a matriz A e o vetor b são definidos por
=
10010111
A e
=
33
b .
Primeiramente, tomamos a matriz base
=
0111
B ,
obtida de A através da primeira coluna e da segunda coluna. Segue-se que o conjunto de
índices base e o conjunto de índices não base são, respectivamente,
2,1=BI e 4,3=NI , a solução básica é
Tx ]0003[= ,
porque o vetor de variáveis não básicas é TTN xxx ]00[][ 43 == e o vetor de variáveis
básicas é calculado por
=
=
33
0111
2
1
xx
bBxB
==+
,3
3
1
21
xxx
isto é, TTB xxx ]03[][ 21 == . Tanto a solução básica viável quanto a solução básica
viável degenerada coincidiram com a solução básica ,x uma vez que 0≥Bx e, em particular,
82
02 =x . Por outro lado, tomando a matriz base
=
1001
B ,
obtida de A através da terceira coluna e da quarta coluna, segue-se que o conjunto de índices
base e o conjunto de índices não base são, respectivamente,
4,3=BI e 2,1=NI , a solução básica é
Tx ]3300[= ,
porque o vetor de variáveis não básicas é TTN xxx ]00[][ 21 == e o vetor de variáveis
básicas é calculado por
=
=
33
1001
4
3
xx
bBxB
==
,3
3
4
3
xx
isto é, TTB xxx ]33[][ 43 == . Neste caso, a solução básica viável possui 0>Bx , logo,
não é uma solução básica viável degenerada.
Se para um PPL um ponto extremo é uma solução básica viável e vice-
versa, então obteremos uma caracterização mais operacional para pontos extremos; do ponto
de vista computacional. É o que afirmamos no próximo teorema, cuja demonstração pode ser
encontrada em BREGALDA, OLIVEIRA e BORNSTEIN, 1988.
Teorema 3.1: Consideremos o PPL (P). Um ponto viável Xx ∈ é ponto extremo se, e
somente se, x é uma solução básica viável.
Assim, podemos calcular pontos extremos através do cálculo de soluções
básicas viáveis. Além disso, devemos observar que a correspondência entre pontos extremos
e soluções básicas viáveis não é em geral um a um (veja Exercício 4).
O próximo resultado caracteriza o conjunto viável de um PPL, formalizando
assim, a sua geometria.
Teorema 3.2: Consideremos o PPL (P). Todo conjunto viável X é um poliedro com um
número finito de pontos extremos e, quando não vazio, possui ao menos um ponto extremo.
83
O exemplo que será apresentado a seguir corresponde a um método gráfico
para solucionar um PPL.
Exemplo 3.6: (Um método gráfico): Consideremos o problema de PL,
.0 , 2 :a sujeito
minimizar
21
21
1
≥=+
=
xx
xx
xz
Este problema possui uma única solução ótima, Tx ]20[* = , porque o
menor valor que podemos ter para 1x é 01 =x . Logo, 22 =x .
Apesar da simplicidade com que obtivemos a solução ótima para este
problema, poderíamos, também, tê-la obtido pelo seguinte método gráfico, conforme mostra a
Figura 3.3.
Devemos tomar pontos viáveis no conjunto viável X com o menor valor da
função objetivo, uma vez que na solução ótima *x , xcx c TT ≤* para todo Xx ∈ . Desta
forma, relembrando a definição de hiperplano, o vetor dado ,nc ℜ∈ não nulo (se
XP, Xc == )(0 ) e o número xcT=δ para cada ,Xx ∈ definem um hiperplano para cada
.Xx ∈ Na Figura 3.3, por exemplo, para
==
021xx , 21 =x cT , e para
==
5,15,02xx ,
5,02 =xcT ; e para
==
203xx , 03 =xcT . Aqui não é possível encontrar outro ponto
Xx ∈ tal que 0≤xcT . Portanto, [ ]Txx 20* 3 == é a solução ótima. Observemos que os
hiperplanos percorrem o sentido contrário ao vetor custo c , quando na minimização.
84
Figura 3.3: Solução do Exemplo 3.6 através de um método gráfico.
Assim, estamos prontos para enunciar o Teorema Fundamental da
Programação Linear, cuja demonstração pode ser encontrada em BREGALDA, OLIVEIRA e
BORNSTEIN, 1988.
Teorema 3.3: Consideremos o PPL (P). Se (P) admite solução ótima, então uma solução ótima
é atingida em ao menos um ponto extremo do conjunto viável.
Na próxima seção apresentaremos o desenvolvimento de um método para
resolver o problema (P).
=0
2x1
2xc 1T =
==2
0xx 3*
=5,1
5,0x2
c
5,0xc 2T =
X
2x
1x
0xc 3T =
85
3.3 Método simplex primal
Todo método advém da necessidade de resolvermos algum problema. Nesta
seção, estamos interessados na solução dos problemas de PL através do estudo do método
simplex, devido a DANTZIG, 1951.
Consideremos o PPL (P), no formato padrão,
(P) ,0
:a sujeito minimizar
≥=
=
x
bAx
xcz T
onde são dados uma matriz ,A ,nm × e vetores mb ℜ∈ e ,nc ℜ∈ com nm <<0 .
Sem perda de generalidade, consideramos a matriz A de posto completo, ou
seja, A possui uma submatriz quadrada invertível, e o vetor do lado direito 0≥b , ou seja,
nenhum elemento de b é negativo. Se nm = , usamos o Capítulo 2, porque neste caso basta
resolver um sistema de equações lineares algébricas.
A idéia do método simplex consiste em caminhar pela fronteira do poliedro
de um PPL, através de pontos extremos adjacentes com valores da função objetivo sempre
menores do que os valores anteriores.
Enunciamos, a seguir, um algoritmo denominado de algoritmo mestre, em
uma tentativa de exprimir, sob esta forma, as idéias do método simplex.
Algoritmo 3.1: Algoritmo mestre.
Dados: 0x solução básica viável inicial associada a uma matriz base inicial 0B .
0←k .
Repita
Escolha, se possível, uma nova variável básica daquelas variáveis não básicas.
Escolha, se possível, uma nova variável não básica daquelas variáveis básicas.
Atualize 1+kB e 1+kx .
1+← kk .
Até que convirja.
Devemos agora responder a uma pergunta chave acerca do algoritmo
86
mestre:
como se determina uma solução básica viável inicial?
Este problema consiste em encontrar um ponto viável inicial. Denominamos
este problema de fase 1 ou, equivalentemente, problema de viabilidade. Aqui, supomos que o
ponto viável inicial é dado, porque a idéia do método simplex para a fase 2 (problema de
otimalidade), que desenvolvemos neste capítulo, é semelhante. Esta hipótese é forte, no
sentido de que não trataremos problemas inviáveis de PL.
Considere o problema de PL (P). Denotamos uma solução básica viável para
(P), nx ℜ∈ˆ , associada a uma matriz base ,B mm × . Denotamos, também, uma matriz não
base N , )( mn m −× . Por definição, 0ˆ 1 ≥= − bBxB e 0ˆ =Nx .
De um modo geral, como não podemos garantir que os índices das variáveis
básicas e das variáveis não básicas estão ordenados, os conjuntos de índices base e de índices
não base serão representados genericamente como a seguir, respectivamente:
,,, 21 mB iiiI = e ,,, 21 mnN jjjI −= .
A matriz de coeficientes tecnológicos ,A particionada, tem suas colunas da
matriz base e da matriz não base conforme mostrados a seguir, respectivamente:
][21 miii AAAB = e ][
21 mnjjj AAAN −= ,
onde ,,,,21 miii AAA
mnjjj AAA −,,,21
representam as colunas da matriz A
correspondentes aos seus respectivos índices.
Analogamente à partição de ,A o vetor de custos fica conforme a seguir:
Tmiii
B cccc ][21
= e Tmnjjj
N cccc ][21 −= .
Uma vez que uma matriz base é conhecida, todo ponto viável x , para (P),
pode ser escrito com o vetor de variáveis básicas
Tmiii
B xxxx ][21
=
87
e com o vetor de variáveis não básicas
Tmnjjj
N xxxx ][21 −= .
Desenvolvendo bAx = obtemos a expressão (3.1), a saber:
bAx = =+ bxx NB
.11 NB NxBbBx −− −= (3.1)
Desenvolvendo xcT e usando a última igualdade,
NTNNTBNTNBTBT xcNxBbBcxcxcxc )()()()()( 11 +−=+= −−
.])()[()( 11 NTBTNTBT xNBccbBcxc −− −+= (3.2)
Portanto, de (3.1) e (3.2), e relembrando que 0ˆ 1 ≥= − bBxB , podemos
reescrever o problema (P) assim:
.0,0 :a sujeito
])()[()( minimizar 11
11
≥≥−=
−+=−−
−−
NNB
NTBTNTB
xNxBbBx
xNBccbBc z
(3.3)
Observe que o valor da função objetivo em (3.3) pode ser reescrito assim:
.)(
0)(
11
−+==
−−
N
BT
BTNTBT
x
x
cNBcbBcxcz
Definição 3.5: (Custo reduzido) Designamos o vetor
−=
− BTN cNBcs
)(
01
como vetor custo reduzido.
Cada componente do vetor s é a taxa de redução no valor da função
objetivo com respeito à mudança na variável não básica.
Historicamente, na publicação do livro (DANTZIG, 1963), o método
88
simplex foi formalizado através do formato tabular. Quer dizer, podemos representar o
problema de PL (P) pelo seguinte quadro:
Tabela 3.1 – Quadro do simplex.
Base TBx )( TNx )( RHS
0=Bs BTNN cNBcs )( 1−−= xcz T ˆ−=− Bx I NB 1− 01 ≥− bB
Na Tabela 3.1, na primeira linha estão representadas as variáveis básicas Bx
e as variáveis não básicas Nx . Na segunda linha estão representados o vetor custo reduzido
(conforme Definição 3.5) e o negativo do valor da função objetivo. Na terceira linha desta
tabela está representado o sistema bAx= particionado assim:
=+=+=+= −−−−− bBNxBIxbBNxBBxBbxxbAx NBNBNB 11111
[ ] ,, 11 bBx
xNBI
N
B−− =
onde bB 1− é o vetor do lado direito do quadro simpex denotado por RHS (right hand side).
Exemplo 3.7: Considere o problema de PL no formato padrão
minimizar =z 21 2xx −−
.0,,,,3624:a sujeito
54321
51
421
321
≥=++=++=++
xxxxx
xx
xxx
xxx
Desejamos expressar o PPL no formato tabular segundo a matriz base definida pelo conjunto
de índices base, 5,4,2=BI e a matriz não base definida pelo conjunto de índices não
base 3,1=NI .
A partição da matriz A que retrata a base corrente é a seguinte:
89
=100011001
B e
=010211
N .
A seqüência de cálculos seguirá o que está mostrado na Tabela 3.1.
O vetor de variáveis básicas, bBxB 1−= ,
,324
364
100011001
364
100011001 1
=
−=
=
−
Bx
e a solução básica viável, x ,
=
=
003
24
3
1
5
4
2
x
x
x
x
x
x
xN
B
=
32040
x .
O valor da função objetivo, xcz T ˆ= ,
8
32040
]00021[ −=
−−=z .
O vetor custo reduzido, BTNN cNBcs )( 1−−= ,
−
−
−=−=
−
−
002
010211
100011001
01
)(
1
1
T
BTNN cNBcs
−
−−
−=
002
010211
100011001
01
T
Ns
90
.21
22
01
002
0111
11
01
=
−−
−
−=
−
−−
−=
T
Ns
Portanto, Ts ]00201[= é o vetor custo reduzido.
Note-se que no cálculo anterior
−=−
0111
111NB .
No quadro do simplex, Tabela 3.2, temos:
Tabela 3.2 – Quadro do simplex para o Exemplo 3.7.
Base 1x 2x 3x 4x 5x RHS
1 0 2 0 0 8=− z
2x 1 1 1 0 0 4
4x 1 0 1− 1 0 2
5x 1 0 0 0 1 3
Observe na Tabela 3.2, que a matriz identidade BBI 1−= está representada
pelas colunas de índices em 5,4,2=BI , enquanto que NB 1− pelas colunas de índices em
3,1=NI . O vetor do lado direito do quadro simplex é obtido por bB 1− e, na primeira linha,
temos o vetor custo reduzido e o negativo do valor da função objetivo 8=− z .
O próximo teorema fornece uma condição suficiente para uma solução
básica viável ser uma solução ótima. A demonstração pode ser encontrada em FANG e
PUTHENPURA, 1993.
Teorema 3.4: Se x é uma solução básica viável com vetor custo reduzido não negativo, então
x é uma solução ótima para o problema (P).
Usando o Teorema 3.4 no problema de PL do Exemplo 3.7, verificamos que
Tx ]32040[= é uma solução ótima, porque o vetor custo reduzido
91
Ts ]00201[= é não negativo, o que pode ser observado também na primeira linha no
quadro simplex na Tabela 3.2.
3.3.1 Mecanismo de mudança de base
Para entender como o método simplex iterativamente produz uma nova
solução básica viável a partir de uma solução básica viável conhecida, precisamos determinar
uma direção que se deve seguir sobre uma aresta do poliedro convexo X . Observando o
Algoritmo 3.1, escolher uma nova variável básica daquelas variáveis não básicas, significa
verificar se podemos melhorar o valor da função objetivo a partir da solução básica viável
conhecida, o que é garantido pelo Teorema 3.4. Isto é, deve existir alguma coordenada do
vetor custo reduzido negativa. Por outro lado, escolher se possível uma nova variável não
básica daquelas variáveis básicas, significa que deve existir uma nova solução básica viável.
Definição 3.6: (Direção de aresta) Dado o conjunto viável 0; ≥=ℜ∈= b, xAxxX n , uma
direção de aresta u em X , cujos pontos extremos são kx e lx , é um vetor tal que
uxx lk λ+= , onde λ é um número real.
A Figura 3.4 ilustra duas possíveis direções de arestas de um politopo
(poliedro limitado) a partir de 0x . Note que uxx λ+= 02 , para algum λ real.
Figura 3.4: Direções de arestas num politopo do 2ℜ a partir de 0x .
Suponhamos que, estando num ponto extremo (solução básica viável) kx ,
para uma matriz base B , desejamos alcançar o ponto extremo adjacente 1+kx e, para isto,
2x
1x
2x
1x 0x
u
92
uma variável básica deverá dar lugar a uma variável que é não básica. Isto significa que,
apenas uma variável não básica poderá crescer seu valor a partir de zero, a qual
denominaremos hx , NIh ∈ .
Usando (3.1), sendo bBx kB 1−= o vetor de variáveis básicas associado ao
ponto extremo corrente, 1+kBx é o vetor de variáveis básicas associado ao ponto extremo
adjacente caracterizado como
−= −−+
0
00
][21
11
hmnjjj
kBkB
xAAABxx
hhkBkB xABxx 11 −+ −= .
De acordo com a Definição 3.6, hAB 1−− é uma direção de aresta no mℜ ,
enquanto que hx deverá ser o tamanho do passo que poderemos dar nesta direção para obter
um novo ponto extremo. Genericamente, o vetor direção de aresta, nu ℜ∈ , é expresso como
h
AB
u
h
←
−
=
−
0
1
0
1
.
(3.4)
Por conveniência, designaremos hAB 1−− por hd− (veja BAZARAA, JARVIS, SHERALI,
1997).
Neste ponto de nossa exposição surge naturalmente a seguinte pergunta:
Quanto podemos ‘caminhar’ seguindo a direção u sem perder a viabilidade?
Para responder esta questão, façamos a seguinte análise. O sistema bAx = é
expresso da forma NB NxBbBx 11 −− −= , como a seguir
93
,ˆ
ˆ
ˆ
ˆ
222
111
hhmmkmk
hhiikik
hh
kk
hh
kk
xdbx
xdbx
xdbx
xdbx
−=
−=
−=−=
(3.5)
onde ikb é a −i ésima componente do termo bB 1− , pois Bi Ik ∈ . Precisamos determinar o
máximo acréscimo que a variável hx poderá sofrer sem perder viabilidade. Ora, para valores
mid hi ,...,1,0 =≤ , o crescimento de hx não provocará a saída da base de qualquer variável
que se encontra no primeiro membro, dado que 0ˆ ≥ikb , Bi Ik ∈ . Portanto, apenas quando
mid hi ,...,1,0 => , teremos a saída da base de uma das variáveis do primeiro membro.
A questão agora é a seguinte:
qual variável sairá da base para dar lugar à variável hx que está entrando?
A análise da expressão
hhi
ik
hi
ik xd
b
d
x−=
ˆ, para todo Bi Ik ∈ , mi ,...,1= e 0>h
id ,
mostra que a menor razão hi
ik
d
b indicará qual variável do primeiro membro sairá da base
mediante o crescimento de hx . Este critério é conhecido como teste da razão mínima, que é
formalmente expresso no Procedimento 3.1.
Procedimento 3.1: (Teste da razão mínima) Escolhida para entrar na base uma variável hx ,
sendo NIh ∈ , e calculado hhi ABd 1−= com mi ,...,1= , para determinar a variável a sair da
base sem perder viabilidade, aplicamos o teste da razão mínima
qBihih
i
ik
mihq
qkkIkd
d
b
d
bíndice,0;
ˆmin
ˆ
,...,1
∈>==
. (3.6)
O índice qk que resulta do teste da razão mínima é o índice da variável que sairá da base, com
94
a garantia de não perder viabilidade, ou seja, alcançar uma nova solução básica viável.
Finalmente, as respostas para as duas perguntas colocadas anteriormente
são: qkx , Bq Ik ∈ , sairá da base e
hq
qkh
d
bx
ˆ= ,
sendo hq
qk
d
b o valor que hx irá assumir ao entrar na base e, também, o tamanho do passo na
direção de aresta obtida por (3.4).
Exemplo 3.8: Considere o PPL no formato padrão do Exemplo 3.7 e, também, a solução
básica viável TTB xxxx ]364[][ 543 == . Supondo que 2x tenha sido escolhida para
entrar na base, calcule o vetor direção da aresta, 32 ℜ∈d , e a nova solução básica viável.
A partição da matriz A e do vetor x que retrata a base corrente é a
seguinte:
=100010001
B e
=011211
N ,
=
=
003
64
2
1
5
4
3
x
x
x
x
x
x
xN
B
=
36400
x ,
de modo que, 5,4,3=BI e 2,1=NI .
Tomamos a coluna da variável 2x em A , designada por 2A , e calculamos a
direção 2d pela aplicação da expressão (3.4)
−=
−=
−
10
10
22
1 dAB
u ,
onde 22
1 dAB −=− − é
95
=
=
−
011
011
100010001 1
2d .
Portanto,
−−
=
10011
u e
=011
2d .
A nova solução básica viável é calculada depois de decidir, observando o
teste da razão mínima, qual variável sairá da base sem perder viabilidade. Então,
3índice416
,14
min 13,2,1
===
=kkq
i e 4
ˆ22
1
3 == xdb
,
a variável 3x sairá da base e assumirá o valor 0 , enquanto 2x entrará na base com valor 4.
Finalizando o exemplo, calculamos a solução para a nova matriz base B :
5,4,2ˆ =BI e 3,1ˆ =NI ,
=
−
364
100011001 1
Bx ,
TBx ]324[ˆ = e TNx ]00[
ˆ = ,
=
=
320
40
5
4
3
2
1
x
x
x
x
x
x .
O próximo teorema fornece um critério de possível melhoria para o valor da
função objetivo do problema (P). A demonstração pode ser encontrada em BREGALDA,
OLIVEIRA E BORNSTEIN, 1988.
Teorema 3.5: Considere o PPL (P). Seja dada uma solução básica viável x associada a uma
96
matriz base B . Considere ,0<hs para algum ,NIh ∈ tal que existe 0>hid ao menos para
algum mi ,...,1= . Ainda, considere
∈>== Bi
hih
i
ik
mihq
qkI, kd;
d
b
d
b0
ˆmin
ˆ
,...,1.
(3.7)
Então, fazendo hq
qkh
d
bx
ˆ= a nova variável básica, anulamos
qkx fazendo-a variável não básica,
obtendo assim uma nova solução básica viável x tal que .xcxc TT ≤
Usando o Teorema 3.5 no problema de PL do Exemplo 3.7, verificamos no
quadro simplex, Tabela 3.3, que NIh =∈ 2,1 e 11 −=s e 22 −=s . Além disso, o vetor
Td ]121[1 = e Td ]011[2 = . Ao escolhermos 2=h ( 022 <−=s ), o índice para entrar
no novo conjunto de índices base, calculamos o mínimo do quociente entre os elementos da
última coluna e da coluna dois, para as coordenadas positivas de 2d . Daí encontramos o
índice 3=qk , o índice para entrar no novo conjunto de índices não base. Observemos as duas
setas na Tabela 3.3: a seta vertical indica que 2x será a nova variável básica e 3x a nova
variável não básica.
Tabela 3.3 – Quadro do simplex para o Exemplo 3.8 para 5,4,3=BI .
↓
Base 1x 2x 3x 4x 5x RHS
1− 2− 0 0 0 0=− z 1l ← 3x 1 1 1 0 0 4 2l 4x 2 1 0 1 0 6 3l 5x 1 0 0 0 1 3 4l
A partir do Tabela 3.3, o número 1 na interseção da linha 2l (seta
horizontal) e coluna referente a 2x (seta vertical) é o elemento pivô. Assim, devemos zerar o
restante dos elementos desta coluna usando as seguintes operações elementares: 233 lll −← e
211 2lll +← . O próximo quadro do simplex, Tabela 3.4, mostra o resultado; que coincide
97
com o Tabela 3.2 do exemplo anterior.
Tabela 3.4 – Quadro do simplex para o Exemplo 3.8 para 5,4,2ˆ =BI .
Base 1x 2x 3x 4x 5x RHS
1 0 2 0 0 8=− z
2x 1 1 1 0 0 4
4x 1 0 1− 1 0 2
5x 1 0 1 0 1 3
Exemplo 3.9: Considere o PPL no formato padrão
.0,
2:a sujeito
minimizar
21
21
1
≥=−
−
xx
xx
x
Seja a solução básica viável 21 == xxB . Supondo que 2x tenha sido escolhida para entrar na
base, calcule o vetor direção da aresta, ℜ∈2d , e analise o PPL.
A partição da matriz A e do vetor x que retrata a base corrente é a
seguinte:
1=B , 1−=N e
=
=
=
02
2
1
x
x
x
xx
N
B
de modo que, 1=BI e 2=NI .
Tomamos a coluna da variável 2x em A , designada por 2A , e calculamos
a direção 2d pela aplicação da expressão (3.4)
−=
−=
−
11
22
1 dABu ,
onde 22
1 dAB −=− − é
1)1()1( 12 −=−= −d .
Portanto,
98
=
11
u e 12 −=d .
Isto significa que não podemos obter uma nova variável básica e concluímos que o PPL é
ilimitado.
Este fato, no Exemplo 3.9, sugere o seguinte resultado, cuja demonstração
pode ser encontrada em BREGALDA, OLIVEIRA E BORNSTEIN, 1988.
Teorema 3.6: Considere o PPL (P). Seja dada uma solução básica viável ,x a qual está
associada uma matriz base .B Se tivermos sh 0< e 0≤hd , para algum ,NIh ∈ então (P) é
um problema ilimitado.
Usando o Teorema 3.6 no problema do Exemplo 3.9, verificamos no quadro
do simplex, Tabela 3.5, que NIh =∈ 2 e 012 <−=s . Todavia, o vetor 012 <−=d .
Observemos na Tabela 3.5 que 2x como uma nova variável básica melhora o valor da função
objetivo, mas em uma direção que não encontramos uma nova solução básica viável, uma vez
que o Procedimento 3.1 não se verifica.
Tabela 3.5 – Quadro simplex para o Exemplo 3.9 em que o PPL é ilimitado.
Base 1x 2x RHS 0 1− 2=− z
1x 1 1− 2
A partir das análises apresentadas nas seções precedentes, podemos
estabelecer os passos do algoritmo simplex. Para a entrada na base e para a saída da base,
utilizaremos a regra do menor índice (BLAND, 1977) para garantirmos convergência.
3.3.4 O algoritmo simplex
Finalmente, estabelecemos o algoritmo simplex revisado fase 2 para
resolver o problema de PL (PPL). No método simplex, pode ocorrer um fenômeno
denominado ciclagem, que consiste em voltarmos para a mesma matriz base após um certo
número de iterações do algoritmo. Assim, enunciamos o algoritmo simplex com uma técnica
anti-ciclagem, ou seja, com a regra de Bland (BLAND, 1977).
99
Algoritmo 3.2: Simplex.
Dados: uma solução básica viável 0x associada a uma matriz base inicial ,0B um conjunto de
índices base 0BI e um conjunto de índices não base
0NI .
0←k .
Repita
Calcule o vetor multiplicador simplex ,mRy ∈ resolvendo o sistema linear
kBTk cyB = .
Calcule o vetor custo reduzido nRs ∈ tal que,
0=ls , para para todo kBIl ∈ , e
lT
ll Aycs −= para todo kNIl ∈ .
Se 0≥s
então kx é uma solução ótima.
senão
Entrada na base: calcule o novo índice base
0;min <=∈ lIl
slhkN
.
Calcule o vetor direção de aresta ,Rd mh ∈ resolvendo o sistema linear
hh
k AdB = .
Se 0≤hd
então problema ilimitado.
senão
Saída da base: calcule o novo índice não base
.I, k; dd
x
d
x; kk
kBihih
i
kik
mihi
kik
ikBIik
q
∈>===∈
0minmin,...,1
0
00
0
Atualize os índices base e não base, respectivamente,
)(1 qkBkB khII −∪←+ , e
100
)(
1hkII qkNkN −∪←+ .
Atualize a matriz base: substitua a coluna qkA de A em kB pela coluna hA de A ,
obtendo-se assim 1+kB .
Calcule a nova solução básica viável ,1 nk Rx ∈+ resolvendo o sistema linear
bxB kBk =+
+1
1 , com .01 =+kqkx
1+← kk .
Até que 0≥s ou 0≤hd .
Temos algumas observações a fazer acerca deste algoritmo. Inicialmente,
observe que são dados os conjuntos de índices base 0BI e não base .
0NI Isto se deve à nossa
conveniência de escrita e de implementação. Depois, o vetor custo reduzido s é calculado
pela definição em dois passos: primeiro, referenciamos o vetor multiplicador simplex y ; e
segundo, o cálculo das coordenadas de s associadas ao conjunto de índices não base da
iteração corrente é feito usando o vetor multiplicador simplex ao invés do cálculo de inversão
de matrizes. Também, observe que os critérios de parada exibindo uma solução ótima é
devido ao Teorema 3.4 e certificando problema ilimitado é devido ao Teorema 3.6. Ainda,
quando possíveis, tanto as escolhas para a entrada na base quanto para a saída da base são
devidas ao Teorema 3.5 acrescidas da técnica anticiclagem do menor índice (regra de Bland).
Observe também que atualizamos a nova matriz base por uma troca de colunas na matriz A .
Isto é o que caracteriza o método simplex revisado, isto é, o esforço computacional é muito
menor do que o método simplex tradicional. Finalmente, é importante afirmar que, com a
hipótese de φ≠X , o método simplex converge no sentido de que encontra uma solução
ótima para (P), ou certifica que o problema (P) é ilimitado.
Exemplo 3.10: Determine a solução ótima do problema de PL, conhecida a solução básica
viável inicial correspondendo aos índices base 3,2=BI e não base 4,1=NI ,
101
21 3minimizar xxz +=
0,,,85:a sujeito
4321
421
321
≥=−+=−+−
xxxx
xxx
xxx
.
Vamos aplicar passo a passo o Algoritmo Simplex 3.2.
Inicialização:
3,20
=BI e 4,10
=NI ,
e a matriz base
−=
0111
0B ,
a solução básica viável inicial é
−=
−=
=
−
85
1110
85
0111 1
3
20
x
xxB
=
38
0Bx ,
=
=
0
0
4
10
x
xxN .
O vetor Bx é algumas vezes designado como b ,
==
38ˆ0 bx B .
Passo 1: Primeiro teste de convergência:
Na iteração 0=k , o vetor multiplicador simplex 2ℜ∈y é
]30[1110
]03[)( 10
0 =
−== −Bcy TBT .
O vetor custo reduzido é
0=ls , para para todo 3,2∈l , e
lT
ll Aycs −= para todo 4,1∈l ,
−=−=
444
111
Aycs
AycsT
T
,
22)13)1(0(111
]30[1 11 −=−=×+−×−=
−−= ss
102
3))1(300(01
0]30[0 44 =−×+×−=
−−= ss .
Como temos uma componente do vetor custo reduzido negativa, significa
que a base corrente não é ótima, então passamos ao próximo passo.
Passo 2: Mudança de base ou segundo teste de convergência:
Escolhemos para sair da base a variável 1x que tem custo reduzido negativo,
21 −=s . Então,
1=híndice .
A direção 21 Rd ∈ é
−=
−11
0111
12
11
d
d
=
−
−=
−
−=
−
21
11
1110
11
0111 1
12
11
d
d.
Em seguida, iremos escolher uma variável para entrar na base observando
inicialmente o teste da razão mínima,
23
23
,18
min,min2,11
2
03
11
02
2,11
0
=
=
=== ii
q
qk
dx
dx
d
x,
32 == kkíndice q . Concluída a mudança de base, no próximo passo atualizaremos a solução
básica.
Passo 3: Atualização da base:
Atualizamos os índices base e não base,
1,21
=BI , e
4,31
=NI .
Atualizamos a matriz base,
−=
1111
1B .
Calculamos a nova solução básica viável,
103
−=
−=
=
−
85
85
1111
21
21
21
211
1
21
x
xxB
=
23
213
1Bx ,
=
=
0
0
4
31
x
xx N .
Incrementamos k , 1=k , e retornamos ao passo 1.
Passo 1: Primeiro teste de convergência:
Na iteração 1=k , o vetor multiplicador simplex 2ℜ∈y é
]21[]13[)(2
12
12
12
11
1 =
−== −Bcy TBT ,
O vetor custo reduzido é
0=ls , para para todo 1,2∈l , e
lT
ll Aycs −= para todo 4,3∈l ,
−=−=
444
333
Aycs
AycsT
T
,
11)02)1(1(001
]21[0 33 ==×+−×−=
−−= ss
2))1(201(01
0]21[0 44 =−×+×−=
−−= ss .
Observamos que todas as componentes do vetor custo reduzido são não
negativas, o que significa que a base corrente é ótima.
Finalmente, a solução ótima do PPL é 1x com valor da função objetivo z , a
saber:
Tx ]00[ 213
231 = , ]0031[1 == xcz T .21
00
213
23
=
No próximo capítulo iniciamos o estudo de processos estocásticos.
104
3.4 Exercícios propostos
1. Expressar os seguintes problemas de PL no formato padrão:
(a)
.0
2
2:a sujeito
maximizar
21
21
21
1
≥≥+≤+
x x
xx
x x
x
,
(b)
.2 :a sujeito
minimizar
21
1
=+ x x
x
(c)
8.1,0 ,0
1
3000 005,0:a sujeito
2maximizar
32
32
321
21
≤≤≥≥−≤++
−
xx
xx
xx x
xx
2. Quais dos seguintes problemas de otimização são problemas de PL? Justifique.
(a)
.0
1 :a sujeito
5 minimizar
2
321
3
≤≤+−
x
xxx
x
(b)
.0 ,
22 :a sujeito
)1log( minimizar
21
221
1
≥=+
+
xx
xx
x
(c)
.1 0, ,
0 :a sujeito
minimizar
21
21
1
∈=−
−
xx
xx
x
3. Desenhe conjuntos com zero, um, dois e uma infinidade de pontos extremos.
105
4. Considere o PPL
21minimizar xxz −=
.0,323:asujeito
21
2
1
21
≥≤≤≤+
xx
x
x
xx
Pede-se:
(a) coloque o PPL no formato padrão;
(b) verifique que todos os pontos extremos são soluções básicas viáveis e vice-versa; e
(c) verifique que o número de pontos extremos é menor do que ou igual ao número de
soluções básicas viáveis.
5. Encontre um poliedro não vazio tal que um conjunto viável de qualquer PPL não pode
assumir. Por quê?
6. Use o método gráfico para construir exemplos para um PPL:
(a) com uma única solução ótima;
(b) com uma infinidade de soluções ótimas;
(c) ilimitado; e
(d) inviável.
7. Considere o PPL
.0
2 :a sujeito
minimizar
21
21
1
≥=−
−
, x x
xx
x
Pede-se:
(a) resolva graficamente este problema;
(b) para o conjunto de índices base 1=BI e a solução básica viável [ ] ,02ˆ Tx = use o
Teorema 3.6 para concluir que este PPL é um problema ilimitado;
(c) encontre a direção de aresta 2ℜ∈u a partir de x , tal que u é uma direção de descida, isto
é, 0<ucT ;
(d) implemente o Algoritmo 3.2 para este problema de PL.
106
8. Considere o PPL
.0
2 :a sujeito
minimizar
21
21
1
≥=+
, xx
xx
x
Pede-se:
(a) resolva graficamente este problema.
(b) para a solução básica viável [ ] ,02ˆ Tx = use o Teorema 3.5 para concluir que a nova
variável x possui xcxc TT ˆ≤ ; quem é x ?;
(c) implemente o Algoritmo 3.2 para este problema de PL.
9. Implemente o método simplex tabular para o problema do Exemplo 3.10.
10. Considere o problema do Exemplo 3.10, agora, com um vetor do lado direito
Tb ]102[= . Resolva-o usando o Algoritmo 3.2 e o método simplex tabular.
11. Consulte a página do Laboratório de Programação Linear (LabPL –
http://www.ucg.br/Institutos/LabPL/Index.html) para resolver alguns problemas de PL em
geral. Pratique algumas de suas resoluções on-line e observe a existência de outros métodos
de resolução.
12. Faça uma pesquisa da literatura em PL, por exemplo, YOSHIDA de 1987, e compare o
método simplex com o método simplex revisado.
Capítulo 4
Distribuições de Probabilidade
Uma distribuição de probabilidade atribui uma probabilidade a cada valor da
variável aleatória ou a cada intervalo de valores. Quando tratamos com variáveis que podem
assumir apenas valores discretos, a cada possível valor da variável podemos associar a no
máximo um valor de probabilidade. Temos, assim, a noção de função de um conjunto para
outro conjunto, de modo que o primeiro conjunto contém os valores possíveis da variável
aleatória e o segundo conjunto contém as probabilidades. Para variáveis que assumem valores
contínuos em ℜ , temos que as variáveis são definidas num dado intervalo de números reais e
as probabilidades pertencem ao intervalo ]1,0[ . No caso discreto, para um certo valor ix do
primeiro conjunto associamos diretamente a probabilidade de sua ocorrência, que é designada
por )( ixP . Por outro lado, para o caso contínuo, não tem sentido o cálculo da probabilidade
para um valor especificado de x . Trabalhamos então com a noção de função densidade de
probabilidade, que no caso unidimensional é uma função real, isto é, ℜ→ℜ:f , que permite
calcular as probabilidades associadas uma variável aleatória contínua.
A exemplo dos modelos matemáticos determinísticos, nos quais as funções
desempenham importante papel (por exemplo, a linear, a quadrática, a exponencial, a
trigonométrica, etc.), verificamos também que, na obtenção de modelos estocásticos para
problemas do mundo real, algumas distribuições de probabilidade surgem mais
freqüentemente que outras. Neste capítulo estudaremos as distribuições de probabilidade de
variáveis discretas, a binomial, a hipergeométrica, a uniforme e a distribuição de Poisson, e
também as distribuições de probabilidade de variáveis contínuas, a retangular ou uniforme
continua, a normal, a exponencial e a distribuição de Erlang.
Antes de iniciarmos o estudo das distribuições de probabilidade, faremos
uma breve revisão do conceito de probabilidade. Após esta revisão trataremos dos modelos
empíricos e dos modelos teóricos no estudo de probabilidades.
108
4.1 Probabilidade
Um sonho humano sempre foi prever o futuro. No entanto, como este
intento não pode ser plenamente satisfeito, a existência de uma ‘medida’ que permita verificar
as chances de ocorrerem determinados acontecimentos ou eventos é um passo importante. Á
medida da incerteza associada a um dado evento damos o nome de probabilidade. A primeira
tarefa a ser empreendida trata-se de corretamente identificar todos os eventos ou
acontecimentos que de fato sejam possíveis em relação à situação que examinamos. Estamos
particularmente interessados em experiências cujos resultados são imprevisíveis e
mutuamente exclusivos. Isto significa que, em cada repetição dessa experiência é impossível
prever, com absoluta certeza, qual o resultado que será obtido e, além disso, a ocorrência de
um resultado exclui a ocorrência de qualquer um dos demais, o que quer dizer que, só um dos
eventos pode acontecer de cada vez. Toda experiência com essas características é chamada de
experimento aleatório, e seus possíveis resultados são chamados de eventos. Por último, resta-
nos verificar quais são os que possuem maiores ou menores “chances” de ocorrer.
O conceito de probabilidade está diretamente associado ao conceito de
conjunto e, também, à idéia de contagem dos elementos desse conjunto e dos elementos dos
seus subconjuntos.
Para cada experimento aleatório ε , definiremos o espaço amostral S como
o conjunto de todos os resultados possíveis de ε . Dado um experimento aleatório, os métodos
empíricos de cálculo de probabilidade caracterizam-se pela contagem ou enumeração
exaustiva dos elementos do espaço amostral S com a finalidade de obter a freqüência relativa
de certo evento A , sendo que A é um subconjunto de S , ou seja, SA ⊆ . O evento A
relativo a um particular espaço amostral S associado a um experimento ε é simplesmente
um conjunto de resultados possíveis. Aplicamos então a definição clássica de probabilidade.
Definição 4.1 (Probabilidade) Seja um experimento aleatório ε cujo espaço amostral é
caracterizado pelo conjunto S , e seja um evento aleatório caracterizado pelo conjunto A , a
probabilidade de ocorrência do evento A é a razão da cardinalidade de A e a cardinalidade
de S , conforme estabelece a expressão
||||
)(SA
AP = , (4.1)
109
onde, A e S são a quantidade de elementos do conjunto A e a quantidade de elementos do
conjunto S , respectivamente.
Apresentaremos a seguir um exemplo de aplicação da Definição 4.1.
Exemplo 4.1: A cesta ilustrada na Figura 4.1 contém seis bolas, sendo duas pretas e quatro
brancas.
Figura 4.1: Cesta com seis bolas.
Realizaremos o experimento aleatório que consistirá em retirar
simultaneamente duas bolas, anotar suas cores e em seguida devolvê-las à cesta. Qual é a
probabilidade de neste experimento retirar uma bola preta e a outra branca?
Vamos supor inicialmente como se as bolas brancas fossem identificadas
por números de 1 a 4 e as pretas por números de 1 a 2. Com o auxílio desse artifício
descreveremos o espaço amostral S associado a este experimento aleatório, representando as
bolas brancas por 421 ,,, bbb e, as pretas, por 1p e 2p ,
.,,,,,,,,,,,,,
,,,,,,,,,,,,,,,,
21241423132212
2111434232413121
pppbpbpbpbpbpb
pbpbbbbbbbbbbbbbS =
O número de elementos do espaço amostral, ou seja, || S , é a combinação
simples de seis bolas tomadas duas a duas, isto é, 1526 =C .
O evento “uma bola preta e a outra branca” é um subconjunto de S
representado pelo conjunto A , mostrado a seguir:
.,,,,,,,,,,,,,,, 2414231322122111 pbpbpbpbpbpbpbpbA =
Aplicamos a Definição 4.1 e obtemos a solução,
110
158
||||
)( ==SA
AP .
A fórmula geral para o cálculo da probabilidade de exatamente x eventos
na amostra é
nN
xnDN
xD
C
CC −− ,
onde, N é o número de itens da coleção de objetos, D é o número desses objetos que gozam
de certa propriedade e n é o número de elementos da amostra.
O problema solucionado anteriormente é um exemplo do modelo estocástico
hipergeométrico.
A principal conclusão que extraímos desse exemplo é que a probabilidade
depende diretamente do conjunto que define o espaço amostral e do subconjunto que descreve
o evento que caracteriza objetivamente o processo que estamos estudando.
A seguir resolveremos um exemplo parecido com o Exemplo 4.1, de modo
que as alterações do enunciado levarão a um problema completamente diferente.
Exemplo 4.2: Considere a cesta ilustrada na Figura 4.1. Realizaremos o experimento aleatório
que consistirá em retirar uma bola anotar sua cor e devolvê-la à cesta e, em seguida, pegar
uma segunda bola e proceder do mesmo modo. Qual é a probabilidade de retirar uma bola
preta e a outra branca?
O número de elementos do espaço amostral, S , é 3662 = . Se fossemos
enumerar os elementos do espaço amostral, bastaria obter o produto cartesiano do conjunto
,,,,, 214321 ppbbbb com ele próprio. Neste caso, percebemos que a ordem de aparecimento
do elemento, ou seja, qual cor ocorre em primeiro lugar está em discussão, isto porque um
elemento é retirado e depois é retirado outro, diferentemente do que foi feito no Exemplo 4.1.
O evento “uma bola preta e a outra branca” é um subconjunto de S
representado por A , mostrado a seguir:
).,(),,(),,(),,(),,(),,(),,(),,(
),,(),,(),,(),,(),,(),,(),,(),,(
4241323122211211
2414231322122111
bpbpbpbpbpbpbpbp
pbpbpbpbpbpbpbpbA =
111
Note que cada elemento do conjunto é um par ordenado, enquanto que, no
exemplo anterior, cada elemento era um conjunto de dois elementos.
Aplicamos a Definição 4.1 e obtemos a solução,
94)(
3616
||||
)( =→== APSA
AP .
Uma forma alternativa para solucionar o exemplo é a seguinte. As
probabilidades de retirar uma bola branca e de retirar uma preta, são, respectivamente, 32 e
31 . Se desenvolvermos o binômio 2
31
32 )( + obtemos
91
94
942
310
321
311
320
312
322
31
32 )()()()(2)()()( ++→++=+ .
A segunda parcela do desenvolvimento binomial corresponde à
probabilidade de retirar uma bola branca e uma preta (vide os expoentes). O expoente do
binômio é o número de tentativas no evento. A generalização desse procedimento nos levaria
a uma fórmula geral para o cálculo de probabilidade com reposição. Este exemplo
corresponde ao modelo estocástico binomial.
A probabilidade tal como estudada nesta seção não permite sua aplicação
em problemas complexos, uma vez que a contagem dos elementos do espaço amostral nem
sempre é trivial e a representação do fenômeno aleatório sob a forma de conjuntos não é
praticável em muitas situações.
Uma forma de trabalhar com probabilidade que permite o uso do
computador é a sua interpretação como freqüência relativa no contexto de um experimento
aleatório.
4.1.1 Probabilidade e freqüência relativa
Considere um experimento aleatório e um evento a ele associado, designado
por A . São realizadas, inicialmente, 1k repetições do experimento; depois 21 kk + repetições;
em seguida, 321 kkk ++ , continuando dessa maneira até realizarmos rkkkk ++++ 321
112
repetições do experimento. Seja n o número de repetições do experimento, isto é,
rkkkkn ++++= 321 , e )(An o número de vezes que o evento A ocorre, então a
freqüência relativa de A , )(Af , é
nAn
Af)(
)( = .
(4.2)
A freqüência relativa )(Af goza da seguinte propriedade: à medida que o
número de repetições do experimento aleatório for aumentado, a freqüência relativa baseada
neste número crescente de repetições tenderá a se ‘estabilizar’ próxima de algum valor
numérico definido (MEYER, 1980). Esta propriedade é descrita formalmente no Teorema 4.1,
que é atribuído a Bernoulli, 1713, e é conhecido como ‘Primeira Lei dos Grandes Números’.
Teorema 4.1: Quando o número de realizações de um experimento aleatório cresce muito, a
freqüência relativa do sucesso associado vai se aproximando cada vez mais de certo valor que
denominamos de probabilidade.
Este teorema nos fornece uma interpretação da probabilidade que é
adequada a cálculos com o computador. Esta noção é explorada exaustivamente no capítulo
deste livro que trata de Simulações.
Os fenômenos aleatórios podem ser descritos através de métodos empíricos
ou por meio de modelos teóricos de probabilidade. Utilizando uma distribuição empírica de
probabilidade seja no processo de simulação seja na solução de problemas de tomada de
decisão, estaremos limitando as possíveis ocorrências futuras às condições válidas no passado.
Alguns acontecimentos podem não ter tido oportunidade de ocorrência, o que impede sua
reprodução no futuro. Usando uma distribuição teórica de probabilidade nas condições
descritas, estaremos adicionando informações ao comportamento da variável, o que torna o
modelo mais apto a prever o futuro. Desta forma, sempre que houver condições favoráveis,
devemos optar pelo uso do modelo teórico ajustado ao invés do modelo empírico.
A seguir trataremos os métodos empíricos para depois abordarmos os
modelos teóricos.
4.2 Distribuição de probabilidade e variável aleatória
113
1 2 0 X
Com o objetivo de mostrar a relação entre a variável aleatória X e a
probabilidade )(XP , iniciaremos o estudo de distribuições de probabilidade analisando
alguns casos empíricos.
Exemplo 4.3: Consideremos o lançamento simultâneo de duas moedas, cujo espaço amostral é
),(),,(),,(),,( CoCoCaCoCoCaCaCaS = . A variável aleatória X representa o número de
caras que aparecem. Na Tabela 4.1 vemos a associação existente entre o evento ‘cara’, a
variável X e a probabilidade ).(XP
Tabela 4.1: Relações entre evento, variável aleatória e probabilidade.
Espaço amostral Número de caras )(X )(XP ),( CaCa 2
41
),( CoCa , ),( CaCo 1 2
14
14
1 =+
),( CoCo 0 4
1
Ao definirmos a distribuição de probabilidade estabelecemos uma
correspondência entre os valores da variável aleatória e os valores da probabilidade. A função
)()( ii xXPxf == determina a distribuição de probabilidade da variável aleatória X .
A Figura 4.2 ilustra a distribuição de probabilidade da Tabela 4.1.
Figura 4.2: Distribuição de probabilidade do evento ‘número de caras’.
O Exemplo 4.4 que será apresentado a seguir mostra a estreita relação
existente entre distribuição de freqüência e distribuição de probabilidade.
Exemplo 4.4: Após 30 dias de observações o número de acidentes diários num grande
estacionamento de veículos foi catalogado. A Tabela 4.2 mostra os dados obtidos.
21
41
)(XP
114
Tabela 4.2: Distribuição de freqüência de acidentes num estacionamento.
Número de acidentes Freqüência 0 22 1 5 2 2 3 1 30=i if
As probabilidades são obtidas dividindo as freqüências pelo total de
observações. A Tabela 4.3 mostra a distribuição de probabilidade para este problema.
Tabela 4.3: Distribuição de probabilidade de acidentes num estacionamento.
Número de acidentes Probabilidade 0 0,73 1 0,17 2 0,07 3 0,03 = 00,1)(XP
Devemos ressaltar que a associação entre freqüência relativa e probabilidade
só é possível se o número de observações for suficientemente grande.
Exemplo 4.5: No lançamento de dois dados são observados os números de pontos das faces
que saem voltadas para cima. Definimos uma variável aleatória X que é igual à soma dos
pontos das faces de cima de ambos os dados. Os resultados possíveis são catalogados e estão
apresentados na Tabela 4.4.
Tabela 4.4: Distribuição de probabilidade de X .
X 2 3 4 5 6 7 8 9 10 11 12 )(XP 36
1 362 36
3 364 36
5 366 36
5 364 36
3 362 36
1
A Figura 4.3 representa graficamente XXP ×)( , sob a forma de histograma.
115
12111098765432
Figura 4.3: Distribuição de probabilidade do evento ‘soma dos pontos das faces de dois
dados’.
A seguir são apresentadas duas definições fundamentais no estudo de
processos estocásticos.
4.2.1 Esperança matemática e variância de uma variável aleatória discreta
Definimos esperança matemática de uma variável aleatória discreta X
como a soma de todos os produtos possíveis dos valores da variável aleatória pelas
respectivas probabilidades. Através da expressão (4.3) definimos a esperança matemática
)(XE .
=∞
=1),()(
iii xPxXE
(4.3)
onde, )(XE é a média ponderada dos possíveis valores de X , cada um ponderado por sua
probabilidade.
No contexto do estudo de probabilidades, esperança (ou valor esperado)
possui o mesmo significado de média, por isso, é muitas vezes designado por x quando se
trata de amostra e µ para uma população.
Definimos variância de uma variável aleatória como a esperança matemática
do quadrado da diferença entre a variável aleatória e sua média, ou seja,
365
61
91
121
181
361
)(XP
116
2))(()( XEXEXV −= . (4.4)
A expressão (4.4) advém da definição clássica de variância, que é a
seguinte:
1
)(1
2
)( −
−==
N
xxN
ii
XV ,
onde, N é o número de elementos da amostra e 1−N é o número de graus de liberdade.
Após desenvolvimentos, a definição de variância pode ser expressa
conforme mostrada em (4.5).
22 )]([)()( XEXEXV −= , (4.5)
onde, = )()( 22ii xPxXE e 2)]([ XE é o quadrado da esperança matemática )(XE .
Ressaltamos que a variância é igual ao desvio padrão ao quadrado, isto é,
2)( sXV = , onde s é o desvio padrão amostral.
Agora estamos preparados para estudar os modelos teóricos de
probabilidade. Iniciaremos o estudo com distribuições de variáveis aleatórias discretas.
4.3 Distribuição hipergeométrica
A distribuição hipergeométrica é a distribuição de probabilidade discreta
mais elementar e é aplicável aos casos de amostragens sem reposição. Consideremos uma
coleção de N itens, sendo que D desses itens tenham certa propriedade e o restante, DN − ,
não tenha esta propriedade. Se a amostra de n itens for retirada sem reposição, então a
probabilidade de exatamente x eventos na amostra é obtida pela relação (4.6):
nN
xD
xnDN
C
CCxXP
−−== )( .
(4.6)
O valor esperado de uma variável hipergeométrica é dado pela expressão
(4.7).
117
ND
nXE =)( .
(4.7)
A variância de uma variável hipergeométrica é dada pela expressão (4.8).
−−
−=1
1)(N
nNND
ND
nXV .
(4.8)
Apresentamos a seguir um exemplo para ilustrar a aplicação da distribuição
de probabilidade hipergeométrica.
Exemplo 4.6: Em um lote de doze peças do mesmo modelo, quatro são defeituosas. Sendo
retiradas aleatoriamente duas peças, qual é a probabilidade de ambas serem defeituosas?
A primeira pergunta que surge é se o experimento é feito sem reposição ou
com reposição. Vamos resolver o problema considerando sem reposição, que é o caso da
distribuição hipergeométrica. Primeiramente, analisemos a retirada de duas peças por meio de
um processo empírico.
Para utilizarmos o método empírico direto, estabelecemos as seguintes
definições:
evento A = primeira peça defeituosa ;
evento B = segunda peça defeituosa .
A probabilidade de retirarmos uma peça defeituosa é124
)( =AP .
Supondo que os eventos A e B sejam dependentes, ou seja, a peça retirada
no evento A afeta a probabilidade de retirada da segunda peça, a probabilidade de retirarmos
simultaneamente duas peças defeituosas é o produto da probabilidade do evento A e a
probabilidade do evento B tendo em vista que A ocorreu.
111
113
124
)()()( =×=×=∧ ABPAPBAP .
Agora, resolveremos o mesmo problema (Exemplo 4.6) aplicando a
definição de distribuição hipergeométrica.
118
Supondo que não haja reposição no experimento teremos a distribuição
hipergeométrica. O experimento aleatório em que são retiradas peças defeituosas de um lote
de peças é um exemplo típico de aplicação da distribuição hipergeométrica.
Pela definição dada em (4.6), a propriedade que é referida pode ser ‘o
defeito das peças’. Portanto, temos 4=D peças com esta propriedade; 12=N peças no lote.
Desejamos calcular a probabilidade de retirar duas peças com defeito, sem
reposição, então: a amostra retirada tem 2=n itens; como queremos duas defeituosas implica
que o número de eventos é 2=x ; portanto, a probabilidade é
111
6661
)2(212
24
08
212
24
228 =×====
−
C
CC
C
CCxP .
Um método de verificação dos resultados obtidos passa pela enumeração
dos elementos do espaço amostral, o qual denominamos de método empírico enumerativo, é
apresentado a seguir.
Suponhamos que as peças sejam representadas por letras,
lkjihgfedcba ,,,,,,,,,,, . Imaginemos que as peças dcba ,,, sejam as quatro defeituosas
do lote. Formando subconjuntos de duas peças, teremos o espaço amostral S . O total de
elementos de S é 66!)212(!2
!12212 =
−=C elementos, uma vez que a ordem que as peças
aparecem no grupo não é importante. O evento ‘duas peças defeituosas’ é representado pelo
subconjunto ,,,,,,,,,,, dcdbcbdacabaA = . Aplicamos a Definição 4.1 e
obtemos 111
666
)( ==AP . Esta é a probabilidade de retirar exatamente duas peças sem
reposição (retirar uma peça, não repô-la no lote e depois retirar uma segunda peça).
4.4 Distribuição binomial
Antes de introduzir a distribuição binomial, primeiramente vamos relembrar
o desenvolvimento do binômio )( pq + elevado ao expoente inteiro n . Segundo o Teorema
Binomial, temos o somatório:
knkn
k
kn
n qpCqp −
==+
0)( .
119
O número
=
k
nCk
n é conhecido como coeficiente binomial e é definido
pela relação (4.9):
!)(!!
knkn
Ck
n kn −
==
.
(4.9)
Definimos a variável aleatória X como o número de sucessos nas n
tentativas. Logo, X pode assumir os valores n,,3,2,1,0 . Para xX = , temos x sucessos
e xn − fracassos, então a distribuição binomial é expressa pela relação (4.10):
xnxxn qpCxXP −== )( , (4.10)
onde: )( xXP = é a probabilidade de exatamente x eventos em n tentativas independentes;
p é a probabilidade do evento numa tentativa;
q é a probabilidade de que o evento não ocorra na mesma tentativa, 1=+ pq .
Ao aplicarmos as definições (4.3) e (4.4), concluímos que o valor esperado
da distribuição binomial é np e sua variância é npq .
As condições para aplicação da distribuição binomial requerem que os
eventos sejam independentes e complementares, e que devemos conhecer a probabilidade do
sucesso de uma tentativa, p , e a probabilidade do insucesso, q , além do que as
probabilidades p e q devem manter-se constantes no decorrer do experimento (isto é, com
reposição).
A distribuição binomial de probabilidade é adequada aos experimentos que
apresentam apenas dois resultados: sucesso ou fracasso. A condição que exige que as
probabilidades p e q sejam constantes é satisfeita tirando-se amostras e repondo no universo
cada unidade amostral retirada.
Para ilustrar a distribuição binomial consideremos o Exemplo 4.7, que é o
mesmo Exemplo 4.6 com a diferença de que há reposição ao retirar as duas peças.
Exemplo 4.7: Em um lote de doze peças do mesmo modelo, quatro são defeituosas. São
retiradas aleatoriamente duas peças, uma após a outra e com reposição. Qual é a probabilidade
de ambas as peças serem defeituosas?
120
Consideremos que o sucesso consiste em retirar uma peça defeituosa do lote
de doze, em que existem quatro defeituosas. Então, a probabilidade do sucesso é31
124 ==p
para uma tentativa. Não retirar uma peça defeituosa corresponde à probabilidade
complementar, 32
31
11 =−=−= pq ou 128=q .
Identificamos os parâmetros .eventos2,tentativas2 == xn São duas
tentativas porque retiramos uma peça e depois a outra. Aplicamos a expressão (4.10) para o
cálculo da probabilidade de ocorrer exatamente duas peças defeituosas,
91
32
31
)2(02
22 =
== CxP .
Eis mais um exemplo de aplicação do modelo binomial.
Exemplo 4.8: Considere um processo de fabricação onde a probabilidade de ocorrência de um
item defeituoso é de 0,2. Se tirarmos uma amostra de vinte itens, qual é a probabilidade de
ocorrerem menos de três itens defeituosos na amostra?
A probabilidade de ocorrência de menos de três itens significa o seguinte:
nenhum item defeituoso, um item ou dois itens defeituosos. Portanto, aplicaremos a
distribuição binomial conforme a seguir:
.206,0)3(
,)8,0()2,0()8,0()2,0()8,0()2,0()3(
),2()1()0()3(1822
201911
202000
20
=<++=<
=+=+==<
xP
CCCxP
xPxPxPxP
A soma de termos de probabilidades exibida anteriormente é denominada de
probabilidade conjunta.
4.5 Distribuição uniforme discreta
Para um conjunto com 1+n elementos, a distribuição uniforme de
probabilidade é dada pela relação (4.11):
121
11
)(+
==n
xXP .
(4.11)
A relação (4.11) é válida para os seguintes valores de X ,
nanaaaaxX +−+++== ),1(,,2,1, .
A média e a variância são, respectivamente,
2)(
naXE += ,
(4.12)
12)2(
)(+= nn
XV .
(4.13)
O Exemplo 4.9 mostra como são feitos os cálculos de probabilidades com a
distribuição uniforme discreta.
Exemplo 4.9: Uma variável aleatória discreta pode ter apenas os valores 6,5,4,3 e 7 .
Supondo que distribuição de probabilidade dessa variável é uniforme, qual é a probabilidade
de que a variável aleatória tenha o valor 4? Qual é a probabilidade de que a variável tenha
valores menores ou iguais a 6? Determine também a média e a variância.
Para este exemplo, com o auxílio da relação (4.11) determinamos o valor de
n ,
.47,6,5,4,3,3),1(3,23,13,3
,),1(,,2,1,
==+−+++=
+−+++=
nx
nnx
nanaaaax
Dado que a distribuição é uniforme, a probabilidade de que uma variável
aleatória tenha um valor particular dentre os valores possíveis para X é a mesma para
qualquer outro valor. Neste exemplo, a probabilidade de que a variável tenha valor 4 é,
20,051
141
11
)4( ==+
=+
==n
XP .
122
A probabilidade de que a variável aleatória x tenha valores menores ou
iguais a 6 é a probabilidade de termos os números 3, 4, 5 ou 6,
80,020,020,020,020,0)6( =+++=≤XP .
A média é
524
32
=+=+= nax .
A variância é
212
)24(4)( =+=XV .
4.6 Distribuição de Poisson
Em muitos casos, conhecemos o número de sucessos, porém, se torna difícil
e, às vezes, sem sentido, determinar o número de fracassos ou o número total de tentativas.
Por exemplo, considere automóveis que passam num cruzamento. Podemos, num dado
intervalo de tempo, anotar quantos carros com uma determinada característica passaram pelo
cruzamento específico, porém, o número de carros que deixaram de passar pela esquina não
poderá ser determinado.
A distribuição de Poisson é usada nas situações probabilísticas onde a área
de oportunidade de ocorrência de um evento é grande, mas a oportunidade de ocorrência em
um intervalo particular (ou em um ponto particular) é muito pequena. Os experimentos de
Poisson fornecem valores numéricos de uma variável aleatória X que representam os
números de sucessos que ocorrem durante um dado intervalo de tempo ou em uma região
especificada. Se for tempo, o intervalo de tempo pode ser de qualquer ordem de grandeza,
como um minuto, um dia, uma semana, um mês ou mesmo um ano. Se for uma medida
geométrica, a região especificada pode ser um segmento de reta, um volume de um sólido, um
pedaço de material, etc.
Assim, um experimento de Poisson pode gerar observações para a variável
aleatória X que representa o número de chamadas telefônicas por hora recebidas num
123
escritório, ou o número de horas que uma escola fica sem luz elétrica. Em outras palavras, a
distribuição de Poisson descreve o número de vezes que ocorre um evento, que certamente
ocorrerá muitas vezes, mas que é pouco provável que ocorra num particular instante de
observação. Essa característica é típica de chegadas em uma fila de espera.
A probabilidade de x ocorrências em um processo de Poisson com
parâmetro α é definida pela relação (4.14).
αα −== ex
xXPx
!)( , +∈ Zx .
(4.14)
O parâmetro α permite empregar o modelo de Poisson seja para tempo,
para distância, para área, etc. Quando trabalhamos com tempo, o parâmetro α é definido
como t∆= λα , onde λ é uma taxa na unidade de tempo.
Os histogramas mostrados na Figura 4.4 ilustram distribuições de
probabilidade de Poisson para quatro diferentes valores de α . A abscissa é a variável x .
Figura 4.4: Histogramas da distribuição de Poisson para quatro valores do parâmetro α .
Na distribuição de Poisson, a média e a variância são, respectivamente,
124
α=)(XE , (4.15)
α=)(XV . (4.16)
Iremos, a seguir, interpretar fisicamente os parâmetros da distribuição de
Poisson através de exemplos.
Exemplo 4.10: Uma fila de atendimento de um pronto socorro recebe em média quatro
acidentados por hora. Qual é a probabilidade de chegar em uma hora até dois acidentados?
Calcularemos primeiro a taxa λ . A taxa de chegada é hora
sacidentado4=λ ,
sendo o tempo de observação hora1=∆t . Vamos calcular as probabilidades dos eventos
2,1,0 === xxx , ou seja, ninguém chega, chega um e chegam dois acidentados no
intervalo de uma hora:
nenhuma chegada, 018,0!0)14(
)0( 140
=×== ×−exP ,
uma chegada, 074,0!1
)14()1( 14
1=×== ×−exP ,
duas chegadas, 146,0!2)14(
)2( 142
=×== ×−exP .
A probabilidade de ocorrerem chegadas de até dois acidentados em uma
hora é a probabilidade conjunta dos eventos analisados anteriormente,
.238,0)3(,146,0074,0018,0)3(
,)2()1()0()3(
=<++=<
=+=+==<
xP
xP
xPxPxPxP
Convidamos o leitor a fazer uma comparação deste exemplo com o
Exemplo 4.8. Será possível resolver o Exemplo 4.8 utilizando o modelo de Poisson?
Exemplo 4.11: Num processo de fabricação que produz lâminas de vidro, em que o número
médio de defeitos por lâmina é cinco, qual é a probabilidade de que uma lâmina tenha
exatamente seis defeitos?
125
Dos dados, temos que o número médio de lâminas é 5=α e o número de
eventos é .6=x Portanto, a solução é imediata,
146,0!6
5)6( 5
6=== −exP .
Exemplo 4.12: Uma companhia de seguros estima que 0,005% de uma população sofre cada
ano de certo tipo de acidente. Qual é a probabilidade que a companhia tenha que pagar a mais
do que três pessoas dentre as dez mil seguradas contra este tipo de acidente em um dado ano?
A probabilidade de uma pessoa acidentar-se é 0,00005. Isto significa que a
taxa anual de ocorrências deste tipo de acidentes é
anopessoas5,0
1000.1000005,0 =×=λ .
O número médio de ocorrências é 5,0=∆tλ e o número de eventos é .3=x
.002,0998,01)1,3(
,!
5,01)1,3(1)1,3(
3
0
5,0
=−==∆>
×−==∆≤−==∆>
=
=
−
txP
xe
txPtxPx
x
x
Nas seções seguintes analisaremos as distribuições de probabilidade de
variáveis contínuas mais importantes do ponto de vista da Pesquisa Operacional. Porém, antes
de iniciarmos o estudo dessas distribuições, estabeleceremos definições que serão de grande
utilidade para a compreensão das mesmas.
4.7 Variável aleatória contínua e distribuições de probabilidade
Certos experimentos aleatórios requerem que a variável aleatória, X ,
assuma valores reais. Por exemplo, se estivermos estudando a medida da altura de pessoas em
um conjunto especificado de uma comunidade, a variável X não é mais restrita a valores
discretos. As alturas podem ser 89,1 metros ou 01,2 metros, etc. Outro exemplo é quando
126
precisamos medir uma temperatura ou uma tensão elétrica, que certamente não são números
inteiros. Isto nos leva à consideração das variáveis aleatórias contínuas, que podem ser
definidas em todo conjunto real, ou em intervalos especificados do mesmo conjunto.
Para tratarmos das distribuições continuas, considere as seguintes
definições.
Definição 4.2: (Função densidade de probabilidade, fdp) Seja o intervalo contínuo ),( baI = ,
sendo a e b números reais, ba < . A variável aleatória X que tome os valores reais x , tais
que Ix ∈ , tem uma distribuição ℑ se sua função densidade de probabilidade, )(xf ,
ℜ→ℜ:f , for tal que
a) 0)( ≥xf ,
b) =b
adxxf 1)( ,
c) =≤≤ 21
)()( 21xx dxxfxXxP , probabilidade de que X esteja entre os
valores 1x e 2x ,
d) = dxxfxF )()( , função de probabilidade acumulada.
Definição 4.3: (Esperança matemática de uma variável aleatória contínua) Seja X uma
variável aleatória contínua com função densidade de probabilidade, )(xf , o valor esperado de
X é
= ba dxxxfXE )()( . (417)
Definição 4.4: (Variância de uma variável aleatória contínua) Seja X uma variável aleatória
contínua com função densidade de probabilidade, )(xf , a variância de X é
22 )]([)()( XEdxxfxXVb
a−= . (4.18)
Compare a expressão (4.8) com a expressão (4.5).
127
Agora estamos prontos para o estudo de algumas distribuições de variáveis
aleatórias continuas.
4.7.1 Distribuição normal
Uma das distribuições mais importantes é a distribuição normal. Uma das
razões dessa importância é que a distribuição normal, comumente, representa com boa
aproximação as distribuições de freqüência observadas em diversos fenômenos naturais.
Outra razão é que a distribuição normal pode ser relacionada com a maioria das distribuições
de probabilidade existentes por meio do Teorema do Limite Central (vide seção 4.8). Além
disso, para um número grande de tentativas, as normais servem como aproximação de
probabilidades binomiais.
A distribuição normal é também conhecida como distribuição de Gauss. A
distribuição de Gauss é contínua e simétrica em torno da média e sua curva estende-se de
menos infinito ( ∞− ) a mais infinito ( ∞+ ).
Matematicamente, a função densidade de probabilidade (fdp) da distribuição
normal é definida por (4.19):
,21
)( 22
2)(
σ
µ
σπ
−−=
x
exf ∞+<<∞− x .
(4.19)
Na equação (4.19), os símbolos possuem os seguintes significados:
µ : média da população;
σ : desvio padrão;
π : número irracional cujo valor aproximado é 3,1415;
e : número irracional cujo valor aproximado é 2,71828.
O parâmetro µ é a média da distribuição normal. Este valor é a média
populacional, que junto com a variância populacional, 2σ , são valores supostamente
conhecidos. É importante fazer neste ponto um paralelo entre µ e a média x , definida
anteriormente. Seja uma população de tamanho N donde vamos retirar todas as possíveis
128
amostras simples de tamanho n dessa população, e para cada uma vamos calcular a média x .
A Figura 4.5 ilustra a relação existente entre µ e x .
Figura 4.5: Ilustração da relação entre µ e x .
As relações da média, do desvio padrão e da variância para uma amostra e
para uma população são apresentadas na Tabela 4.5.
Tabela 4.5: Relações dos parâmetros com amostra e população.
Parâmetro Amostra População finita
Quantidade de elementos n N
Média x µ
Desvio padrão s σ
Variância 2s 2σ
A probabilidade de uma variável aleatória contínua normalmente distribuída
ser igual ou menor que um número a é a área sob a curva normal de ∞− a a .
Matematicamente, esta probabilidade é dada pela relação (4.20):
=≤∞−
adxxfaxP )()( = área sob a curva normal de ∞− até a ,
(4.20)
=≤∞−
− −a
dxeaxPx
22
2)(
21
)( σ
µ
σπ.
população
amostra
x média µ média
129
Do mesmo modo, a probabilidade de uma variável aleatória normalmente
distribuída ser maior do que um valor dado a é,
)(1)( axPaxP ≤−=> .
As curvas normais exibem características especiais em termos de sua forma
geométrica, de como se especificam e também de como são utilizadas para obtenção de
probabilidades. O gráfico de uma distribuição normal se assemelha muito a um sino: é suave e
unimodal, e simétrico em relação à sua média. Menos óbvio é o fato de que a curva se
prolonga indefinidamente em qualquer das direções, a partir da média. Aproxima-se cada vez
mais do eixo horizontal à medida que aumenta a distância a contar da média, mas nunca chega
a tocar no eixo.
Outra característica importante é que uma distribuição normal fica
completamente especificada por dois parâmetros: sua média e seu desvio padrão. Em outras
palavras, existe uma única distribuição normal para cada combinação de uma média µ e um
desvio padrão σ . Diferentes combinações de média e desvio padrão originam curvas normais
distintas.
A probabilidade de uma variável aleatória distribuída normalmente tomar
um valor entre dois pontos dados é igual à área sob a curva normal compreendida entre os
dois pontos.
É essencial reconhecer que uma distribuição normal é uma distribuição
teórica. Para mensurações físicas grupadas numa distribuição de freqüência é uma
distribuição ideal; nenhum conjunto de valores efetivos adaptar-se-á exatamente a ela. Assim
é que, por exemplo, os valores reais não variam entre ∞− e ∞+ . As limitações do
instrumento que se usa nas medições eliminam efetivamente outros valores potenciais. Não
obstante, tais deficiências são amplamente contrabalançadas pela facilidade de utilização da
distribuição normal na obtenção de probabilidades, e pelo fato de que a referida distribuição
ainda constitui uma boa aproximação de dados reais. Assim, quando dizemos que uma
variável aleatória é distribuída normalmente, a afirmação deve ser interpretada como uma
implicação de que a distribuição de freqüência de seus resultados possíveis pode ser
satisfatoriamente bem aproximada pela distribuição normal de probabilidades. Logo, a curva
130
normal é um modelo. Em simulações computacionais é comum o emprego da distribuição
normal truncada, conforme será vista no Capítulo 7.
Como a integração indicada na equação (4.20) não pode ser efetuada
diretamente pelos métodos triviais de Cálculo Diferencial e Integral, usamos tabelas para
determinar as áreas sob a curva normal. Uma forma de facilitar a obtenção das probabilidades
normais é utilizar a forma normal padronizada e apresentar os valores em tabelas. As Tabelas
4.6 e 4.7 apresentam valores das áreas sob a curva normal padronizada. Nessas tabelas, dados
os valores de x , µ e σ , tem-se a proporção da área total sob a curva que está sob a porção
da curva de ∞− a σ
µ−= xz .
A distribuição normal constitui, na realidade, uma família infinitamente
grande de distribuições (isto é, uma para cada combinação µ e σ ). Conseqüentemente, seria
inútil procurar elaborar tabelas que atendessem a todas as necessidades. Há, entretanto, uma
alternativa bastante simples que contorna o problema: tomando como ponto de referência a
origem e o desvio padrão como medida de afastamento a contar daquele ponto (unidade de
medida), determinamos uma nova escala que é comumente conhecida como escala z .
Utilizamos a variável normal padronizada dada pela relação (4.21):
σµ−= x
z .
(4.21)
As áreas sob a curva de qualquer distribuição normal podem ser achadas
utilizando-se uma tabela normal padronizada, após fazer a conversão da escala original para a
escala em termos de desvios padrões. A tabela dá a área sob a curva (isto é, a probabilidade de
um valor cair naquele intervalo) entre ∞− e valores escolhidos de z , isto é,
)( zZP ≤<−∞ . Temos, então, que se X é uma variável aleatória com distribuição normal
de média µ e desvio padrão σ , podemos escrever )()( zZPxXP ≤<−∞=≤<−∞ onde
Z é uma variável aleatória tal que σ
µ−= xz . A partir desta transformação, a distribuição
resultante tem média igual a zero e desvio padrão igual a um. Por isso, é denotada por )1,0(N .
131
Tabela 4.6: Áreas sob a curva normal padronizada de ∞− a z , 0≤z .
σµ−x
0,09 0,08
0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00
−3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023 −3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00033 0,00034 −3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048 −3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069 −3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00085 0,00087 0,00090 0,00094 0,00097
−3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135 −2,9 0,0014 0,0014 0,0015 0,0015 0,0016 0,0016 0,0017 0,0017 0,0018 0,0019 −2,8 0,0019 0,0020 0,0021 0,0021 0,0022 0,0023 0,0023 0,0024 0,0025 0,0026 −2,7 0,0026 0,0027 0,0028 0,0029 0,0030 0,0031 0,0032 0,0033 0,0034 0,0035 −2,6 0,0036 0,0037 0,0038 0,0039 0,0040 0,0041 0,0043 0,0044 0,0045 0,0047
−2,5 0,0048 0,0049 0,0051 0,0052 0,0054 0,0055 0,0057 0,0059 0,0060 0,0062 −2,4 0,0064 0,0066 0,0068 0,0069 0,0071 0,0073 0,0075 0,0078 0,0080 0,0082 −2,3 0,0084 0,0087 0,0089 0,0091 0,0094 0,0096 0,0099 0,0102 0,0104 0,0107 −2,2 0,0110 0,0110 0,0113 0,0116 0,0119 0,0122 0,0125 0,0129 0,0136 0,0139 −2,1 0,0143 0,0146 0,0150 0,0154 0,0158 0,0162 0,0166 0,0170 0,0174 0,0179
−2,0 0,0183 0,0188 0,0192 0,0197 0,0202 0,0207 0,0212 0,0217 0,0222 0,0228 −1,9 0,0233 0,0239 0,0244 0,0250 0,0256 0,0262 0,0268 0,0274 0,0281 0,0287 −1,8 0,0294 0,0301 0,0307 0,0314 0,0322 0,0329 0,0336 0,0344 0,0351 0,0359 −1,7 0,0367 0,0375 0,0384 0,0392 0,0401 0,0409 0,0418 0,0427 0,0436 0,0446 −1,6 0,0455 0,0465 0,0475 0,0485 0,0495 0,0505 0,0516 0,0526 0,0537 0,0548
−1,5 0,0559 0,0571 0,0582 0,0594 0,0606 0,0618 0,0630 0,0643 0,0655 0,0668 −1,4 0,0681 0,0694 0,0708 0,0721 0,0735 0,0749 0,0764 0,0778 0,0793 0,0808 −1,3 0,0823 0,0838 0,0853 0,0869 0,0885 0,0901 0,0918 0,0934 0,0951 0,0968 −1,2 0,0985 0,1003 0,1020 0,1038 0,1057 0,1075 0,1093 0,1112 0,1131 0,1151 −1,1 0,1170 0,1190 0,1210 0,1230 0,1251 0,1271 0,1292 0,1314 0,1335 0,1357
−1,0 0,1379 0,1401 0,1423 0,1446 0,1469 0,1492 0,1515 0,1539 0,1562 0,1587 −0,9 0,1611 0,1635 0,1660 0,1685 0,1711 0,1736 0,1762 0,1788 0,1814 0,1841 −0,8 0,1867 0,1894 0,1922 0,1949 0,1977 0,2005 0,2033 0,2061 0,2090 0,2119 −0,7 0,2148 0,2177 0,2207 0,2236 0,2266 0,2297 0,2327 0,2358 0,2389 0,2420 −0,6 0,2451 0,2483 0,2514 0,2546 0,2578 0,2611 0,2643 0,2676 0,2709 0,2743
−0,5 0,2776 0,2810 0,2843 0,2877 0,2912 0,2946 0,2981 0,3015 0,3050 0,3085 −0,4 0,3121 0,3156 0,3192 0,3228 0,3264 0,3300 0,3336 0,3372 0,3409 0,3446 −0,3 0,3483 0,3520 0,3557 0,3594 0,3632 0,3669 0,3707 0,3745 0,3783 0,3821 −0,2 0,3859 0,3897 0,3936 0,3974 0,4013 0,4052 0,4090 0,4129 0,4168 0,4207 −0,1 0,4247 0,4286 0,4325 0,4364 0,4404 0,4443 0,4483 0,4522 0,4562 0,4602 −0,0 0,4641 0,4681 0,4721 0,4761 0,4801 0,4840 0,4880 0,4920 0,4960 0,5000
132
Tabela 4.7: Áreas sob a curva normal padronizada de ∞− a z , 5,3≤z .
σµ−x
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
+0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359 +0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 +0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 +0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 +0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 +0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
+0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 +0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 +0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8079 0,8106 0,8133 +0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389 +1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
+1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 +1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 +1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 +1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 +1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
+1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 +1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 +1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 +1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 +2,0 0,9773 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
+2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857 +2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 +2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 +2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 +2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
+2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964 +2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 +2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981 +2,9 0,9981 0,9982 0,9983 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 +3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99899 0,99893 0,99896 0,99900
+3,1 0,99903 0,99906 0,99910 0,99913 0,99915 0,99918 0,99921 0,99924 0,99926 0,99929 +3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 +3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965 +3,4 0,99966 0,99967 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976 +3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
O Exemplo 4.13 mostra como calcular a probabilidade com distribuição
normal utilizando a variável z e as tabelas.
133
Exemplo 4.13: Num laboratório, repetidas medições executadas numa peça utilizando certo
instrumento eletrônico resultam numa seqüência de valores. Os erros de medição comportam-
se de forma aleatória segundo a distribuição de Gauss. A média da distribuição é vinte e o
desvio padrão é oito. Qual é a probabilidade de medir valores menores que quatorze?
Temos: 14;8;20 === aσµ , que é o maior valor da variável aleatória x .
Aplicamos a fórmula (4.21) para variável normal padronizada:
75,08
2014 −=−=z .
Desejamos obter a probabilidade )14( ≤xP . Na verdade, com a
transformação, vamos buscar na tabela a área sob a curva normal modificada de .a z∞−
Consultamos a Tabela 4.6. Localizamos na primeira coluna o valor 7,0− e
no cruzamento dessa linha com a coluna de 0,05 encontramos o número 0,2266. Portanto, a
probabilidade procurada é .2266,0)14( =≤xP O valor 0,2266 pode ser interpretado como a
proporção dos valores menores do que 14.
Exemplo 4.14: Os pesos de 600 estudantes são normalmente distribuídos com média 65,3 kg
e variância 30,25. Determine o número de estudantes que pesam: (a) entre 60 e 70 kg ; e (b)
mais de 63,2 kg .
Vamos considerar primeiro o cálculo da probabilidade para estudantes que
pesam entre 60 e 70 kg. Suporemos também que x≅µ e s≅σ . A variância é o quadrado do
desvio padrão:
kgXV 5,525,30)( ==→= σσ .
Vamos calcular a probabilidade de a variável aleatória estar entre 60 e 70
kg , que é
)7060( ≤≤ xP .
134
Raciocinando em termos da área da curva normal, vamos calcular a área de
∞− a 70 e subtrair desse valor a área que vai de ∞− a 60 ,
)60()70()7060( ≤−≤=≤≤ xPxPxP .
Temos que calcular as variáveis normais padronizadas 6070 e zz (para
isso temos que empregar a relação (4.21)),
.96,05,5
3,6560
,85,05,5
3,6570
60
70
−=−=
=−=
z
z
Consultamos as Tabelas 4.6 e 4.7 entrando com os valores de z e achamos
os seguintes números:
.6338,01685,08023,0)7060(
,1685,0)60(
,8023,0)70(
60
70
=−=≤≤=≤→=≤→
xP
xPz
xPz
O número esperado de estudantes com pesos compreendidos entre 70e60
é o produto 3806006338,0 ≅× estudantes.
A probabilidade de termos estudantes com mais que 63,2 kg é obtida do
seguinte modo. Vamos calcular a probabilidade de a variável aleatória ser menor ou igual a
63,2 kg ,
)2,63( ≤xP .
Como a área total sob a curva normal é igual a um, vamos subtrair dessa
área o resultado obtido, )2,63( ≤xP , já que queremos calcular a probabilidade )2,63( >xP ,
.38,05,5
3,652,63),2,63(1)2,63(
−=−=
≤−=>
z
xPxP
135
Consultamos a Tabela 4.7 e obtemos:
3520,0)2,63( =≤xP .
Concluímos que a probabilidade de, neste universo, encontrarmos
estudantes com mais de 63,2 kg é
648,0352,01)2,63(1)2,63( =−=≤−=> xPxP .
Desse modo, esperamos que 389600648,0 ≅× estudantes tenham peso
superior a 63,2 kg .
4.7.2 Distribuição retangular ou uniforme
Nesta seção trataremos apenas da distribuição retangular (uniforme)
contínua. Esta distribuição é aplicável em situações nas quais as probabilidades de todos os
sucessos são iguais. A Figura 4.6 ilustra a função densidade de probabilidade retangular.
Figura 4.6: Distribuição retangular contínua.
A função da Figura 4.6 é definida conforme a relação (4.22):
xba
)(xf
ab −1
136
>
≤≤−
<
=
bx
bxaab
ax
xf
,0
,1,0
)( .
(4.22)
Notemos que a área do retângulo ilustrado na Figura 4.6 é igual a um, como
deve ser para qualquer função densidade de probabilidade. A probabilidade de que uma
variável aleatória x tenha um valor menor ou igual a um número 1x que pertença ao intervalo
],[ ba é:
bxaabax
abdx
dxxfxxPx
a
d
a≤≤
−−=
−==≤ 1
11
1 )()( ,
onde, )( 1xxP ≤ é a probabilidade acumulada da variável aleatória x de a até 1x .
A média e a variância das variáveis aleatórias da distribuição uniforme são
obtidas pelas expressões (4.23) e (4.24), de acordo com as Definições (4.3) e (4.4).
2)(
baXE
+== µ . (4.23)
12)(
)(2
2 abXV
−== σ . (4.24)
4.7.3 Distribuição exponencial
A função densidade de probabilidade exponencial é definida pela relação
(4.25).
xexf ββ −=)( , ∞<≤ x0 . (4.25)
Esta forma de distribuição de probabilidade é conhecida mais
especificamente como distribuição exponencial negativa ( 0>β ) e, nesta forma, é
137
freqüentemente usada para descrever tempos de serviço em modelos de fila de espera. Neste
tipo de aplicação, a variável aleatória x representa o tempo.
Em aplicações na teoria de filas, o parâmetro β da relação (4.25) é o
número de ocorrências na unidade de tempo. Por exemplo, β pode ser a taxa de chegada de
usuários por unidade de tempo (neste caso, na teoria de filas, β corresponderia ao parâmetro
λ , que é a notação usual para a taxa média de chegada de usuários).
A média e a variância das variáveis aleatórias da distribuição exponencial
são obtidas pelas relações (4.26) e (4.27).
βµ 1
)( ==XE . (4.26)
βσ 1
)( 2 ==XV . (4.27)
A probabilidade acumulada exponencial desde zero até um instante que
tenha transcorrido um tempo t∆ , isto é, a função de distribuição acumulada, é dada por
(4.28):
tetxP ∆−−=∆≤ β1)( (4.28)
A função de distribuição acumulada é obtida integrando a função )(xf em
x de 0 a .t∆ O valor acumulado mede a probabilidade de o intervalo entre duas ocorrências
consecutivas ser menor ou igual ao intervalo de tempo t∆ .
Exemplo 4.15: Numa linha de montagem de televisores, localizada na Zona Franca de
Manaus, obtivemos a informação de que o tempo de serviço médio por aparelho é de duas
horas. Qual é a probabilidade de ocorrer um tempo de serviço de menos de 1:40 horas?
A média é igual a aparelhohoras2
1 =β
o que implica em .5,0=β O
intervalo requerido de execução do serviço é horas.35
6040
1 horas40:1 =+= A probabilidade
de termos intervalos de execução do serviço inferiores a 40:1 horas é:
138
.5654,0)35
(
,11)35
( 83334,035
5,0
=≤
−=−=≤ −×−
xP
eexP
4.7.4 Distribuição de Erlang
Esta distribuição de probabilidade leva o nome do seu criador, o
dinamarquês Erlang, um estudioso pioneiro da área de telecomunicações, que viveu no século
XIX. A função densidade de probabilidade da distribuição de Erlang é definida em (4.29).
m
m
am
exxf
ax
)!1()(
1
−=
−−, ∞<≤ x0 .
(4.29)
Onde:
a : parâmetro de escala ou coeficiente de variação, 0>a ;
m : parâmetro de fôrma ( m é um número inteiro positivo).
Após a comparação entre as distribuições exponencial negativa e Erlang, é
imediata a constatação de que em (4.29) para 1=m e β=a1 teremos a fdp exponencial
definida em (4.25).
A média e a variância das variáveis aleatórias da distribuição Erlang são
obtidas pelas relações (4.30) e (4.31).
amXE == µ)( . (4.30)
maXV 22)( == σ . (4.31)
A função de probabilidade acumulada da fdp de Erlang, calculada desde
zero até um valor especificado x , é dada por (4.32).
139
−= −
=−
10 !
)(1)( m
i
ia
xa
x
iexF .
(4.32)
A distribuição Erlang é usada como uma extensão para a distribuição
exponencial se o coeficiente de variação for menor que 1 (isto é, 1<a ), por exemplo nas
seguintes aplicações:
a) na modelagem de tempos de atendimento (ou de serviço) de sistemas
de filas;
b) na modelagem do tempo de reparo e tempo entre falhas de
equipamentos e sistemas.
Na primeira aplicação mencionada, um servidor com tempos de serviço cuja
distribuição seja Erlang( ma, ) pode ser representado como se fosse uma série de m
servidores com tempos de serviço de distribuição exponencial.
Especificamente em sistemas de telecomunicações, a distribuição Erlang é
empregada na modelagem do tráfego de chamadas telefônicas.
Para m não muito grande, a utilização do computador para o cálculo do
fatorial seja na expressão (4.29) e seja em (4.32) requer certos cuidados por parte do
programador em face das limitações de representação da aritmética inteira das máquinas
atualmente disponíveis. Todavia, existem métodos para contornar essas dificuldades.
Em simulações com o uso do computador, a distribuição Erlang é gerada a
partir de variáveis uniformemente distribuídas seguindo os passos apresentados no Algoritmo
4.1.
Algoritmo 4.1: Obtenção de variáveis de Erlang a partir da distribuição continua uniforme.
Dados: os parâmetros m e a .
Faça 1←P Para mi ,,1 = )1,0(Uui ← iuPP ×← PamaErlang ln),( ×−←
Na seção seguinte será estudado um teorema de capital importância para
simulações em computador, que encontra muitas aplicações em Pesquisa Operacional.
140
)( yP
61
4.8 Teorema do Limite Central
Este teorema afirma que, sob condições genéricas, as somas e as médias das
amostras de medidas aleatórias extraídas de uma população tendem a apresentar uma
distribuição aproximadamente bem comportada, desde que a amostragem seja repetida. O
significado desta afirmação pode ser melhor ilustrado com um exemplo.
Exemplo 4.16: Considere a população referente à experiência de se jogar um dado não viciado
um número grande de vezes. A distribuição de probabilidade é dada pelo histograma da
Figura 4.7.
Figura 4.7: Distribuição de y , que é o número obtido ao se jogar um dado.
Extraímos uma amostra de 5=n medidas (jogamos o dado cinco vezes e
anotamos os resultados obtidos) obtendo assim a amostra desejada. Por exemplo,
suponhamos que os números anotados nessa primeira amostra sejam 3,1,5,3=y e 2 .
Calculemos a soma dessas cinco medidas e também a média da amostra, y . A título de
experiência, vamos repetir a amostragem cem vezes. Os resultados para cem amostras estão
parcialmente indicados na Tabela 4.8, juntamente com os valores correspondentes de =
5
1iiy e
y .
Tabela 4.8: Medidas da amostra: soma e média.
Número da amostra Medidas contidas na amostra iy y
1 3, 5, 1, 3 ,2 14 2,8 2 3, 1, 1, 4, 6 15 3,0
. . . . . . . . . . . . 100 2, 4, 3, 4, 6 19 3,8
y 0
654321
141
Construiremos um histograma de freqüências de y (ou de =
5
1iiy ) para essas
cem amostras e teremos uma representação gráfica da distribuição empírica. Observaremos
um resultado interessante: embora os valores de y, na população ( 6,5,4,3,2,1=y ), sejam
equiprováveis (vide Figura 4.7) e, por conseguinte, possuam uma distribuição perfeitamente
uniforme, as médias das amostras (ou somas) apresentam uma distribuição não uniforme.
Em termos formais, um enunciado do Teorema do Limite Central é como
apresentado a seguir.
Teorema 4.2: Se amostras aleatórias com n observações forem extraídas de uma população
com média µ e desvio padrão σ , então, quando n for grande, a média amostral será
normalmente distribuída com média µ e desvio padrão n
σ.
A aproximação aludida no Teorema 4.2 será tanto mais perfeita quanto
maior for o valor de n .
Para ilustrar este teorema foi elaborado no ambiente MATLAB um código
para simular o lançamento do dado por cinco vezes consecutivas. Esse experimento foi
repetido mil vezes. O histograma de freqüências resultante é conforme ilustrado na Figura 4.8.
Figura 4.8: Histograma de freqüências que se apresenta com o aspecto de uma normal.
142
O código escrito com instruções do MATLAB é mostrado na Figura 4.9.
n = input('Entrar com o tamanho da amostra: ');
m = input('Entrar com a quantidade de simulações: ');
for k = 1:m,
soma = 0;
for i = 1:n,
y(i) = fix(1 + 6*rand);
soma = soma + y(i);
end;
media(k) = soma/n;
end;
maior = norm(media, inf); menor = norm(media, -inf);
h = (maior - menor)/m;
x = menor: h: maior;
hist(media, x)
Figura 4.9: Código em MATLAB para verificação do Teorema do Limite Central.
Chamamos a atenção do leitor para forma do histograma da Figura 4.8, que
lembra a forma de sino típica da distribuição normal.
Ressaltamos que o Teorema do Limite Central não especifica a distribuição
da população. Na realidade, a distribuição da população pode se apresentar sob uma vasta
gama de distribuições de probabilidade e é isto que torna este teorema notável e de grande
aplicabilidade. O Teorema do Limite Central também pode ser enunciado de modo específico
para uma população uniformemente distribuída.
Teorema 4.3: Sejam kuuu ,,, 21 , k variáveis aleatórias independentes uniformes e sejam
)( iuE=µ e )(2iuV=σ a esperança e a variância, respectivamente. Ao obter
==
k
iiux
1, a
esperança e a variância de X são, respectivamente, µkXE =)( e 2)( σkXV = , e tem-se,
para k grande, que σµ kkXZk )( −= é aproximadamente a distribuição normal
padronizada.
143
Considerando ainda o Exemplo 4.16, observamos que o Teorema do Limite
Central poderia ser enunciado de maneira alternativa para a soma dos resultados de uma
amostra =
5
1iiy , que também tende a apresentar uma distribuição normal, de média µ e desvio
padrão n
σ à medida que n se torne cada vez maior.
Este teorema nos diz que a média e o desvio padrão da distribuição das
médias amostrais são definitivamente relacionados à média e o desvio padrão da população
amostrada, bem como ao tamanho n da amostra. As duas distribuições têm a mesma média,
µ , e o desvio padrão da distribuição das médias amostrais é igual ao desvio padrão da
população σ dividido por n . Conseqüentemente, a dispersão da distribuição das médias
amostrais será consideravelmente menor (n
1 , no máximo), quanto mais difusa for a
distribuição da população. Mais importante ainda é o fato de o Teorema do Limite Central
afirmar que a distribuição das médias amostrais é aproximadamente normal (distribuição de
Gauss) para amostras de tamanho n moderado ou grande.
4.9 Exercícios propostos
1. Resolva os problemas supondo distribuição binomial:
a) Uma moeda é lançada 5 vezes seguidas e independentes. Calcule a probabilidade de
serem obtidas 3 caras nessas 5 provas.
b) Dois times de futebol A e B, jogam entre si 6 vezes. Encontre a probabilidade de o
time A ganhar 4 jogos. (Lembre-se que a probabilidade de um time ganhar uma
partida é 31 ).
c) Considere um processo de fabricação onde a probabilidade de ocorrência de um item
defeituoso é de 0,05. Se tirarmos uma amostra de 10 itens, calcule a probabilidade de
menos de três itens defeituosos na amostra.
2. Resolva os problemas supondo distribuição hipergeométrica:
a) Uma empresa possui 8 diretores, dos quais 5 são homens e 3 são mulheres. Uma
comissão de 3 diretores deve ser constituída através de sorteio para representar a
144
empresa num Congresso que acontecerá em Cancun. Qual é a probabilidade de ser
sorteada uma comissão que tenha exatamente 2 mulheres?
b) Pequenos motores elétricos são expedidos em lotes de 50 unidades. Antes que uma
remessa seja aprovada, um inspetor escolhe 5 desses motores e os inspeciona. Se
nenhum dos motores inspecionados for defeituoso, o lote é aprovado. Se um ou mais
forem verificados defeituosos, todos os motores da remessa serão inspecionados.
Suponha que existam, de fato, três motores defeituosos no lote. Calcule a
probabilidade de que a inspeção de todo o lote de 50 seja necessária? (Sugestão:
calcule a probabilidade ),1( ≥XP onde X é o número de motores). Resposta: .28,0≅
3. Suponha um jogo de 25 números (inteiros de 1 a 25) no qual são escolhidos 15 números.
Apenas o acerto dos 15 números dá um excelente prêmio ao felizardo. No sorteio, os números
são retirados de um mesmo globo sem reposição. Um esperançoso apostador está intrigado
porque ele normalmente acerta 10 ou 11 pontos e nunca fez os 15. Como podemos explicar
isto para o apostador usando o modelo hipergeométrico? Será que acertar poucos pontos é
difícil também? Faça cálculos e, se for necessário, um gráfico também.
4. Uma companhia de seguros descobriu que somente cerca de 0,1 por cento da população
está incluído em certo tipo de acidente cada ano. Se seus 10.000 segurados são escolhidos ao
acaso na população, qual é a probabilidade de que não mais do que 5 de seus clientes venham
a estar incluídos em tal acidente no próximo ano? (Resposta: 0,067).
5. Resolva o Exemplo 4.8 usando o modelo de Poisson com parâmetro α igual a 4.
6. Prove a expressão (4.15) do valor esperado para o modelo de Poisson dado pela expressão
(4.14).
7. Resolva os problemas supondo distribuição normal:
a) Um teste padronizado de escolaridade tem distribuição normal com média igual a 100 e
desvio padrão igual a 10. Determine a probabilidade de um indivíduo submetido ao
teste ter nota: (1) maior que 120 (resposta: 0,0228); (2) entre 85 e 115 (resposta:
0,8664).
145
b) Uma lâmpada eletrônica tem duração média de 850 dias e desvio padrão de 40 dias.
Sabendo que a duração é normalmente distribuída, calcule a probabilidade de uma
lâmpada desse tipo durar: (1) entre 700 e 1.000 dias (resposta: 0,9998); (2) menos de
750 dias (resposta: 0,0062).
8. Entrando em um sistema de auto-atendimento de um banco, os clientes com seus
automóveis acessam o caixa-rápido. Os tempos de utilização são exponencialmente
distribuídos com uma média de 45 segundos. Qual é a probabilidade de ocorrer um tempo de
acesso ao caixa-rápido de menos de 30 segundos?
9. Resolva o problema supondo distribuição uniforme discreta. Uma tabela de 100 números
(00 a 99) dispostos aleatoriamente. Fecha-se o olho e ao acaso aponta-se para um dos
números da tabela. Qual é a probabilidade de ‘apontar’ o número 24? Qual é a probabilidade
de acertar um número correspondente à sua idade nesta tabela? Supondo que ninguém na sala
tem menos de 20 e mais que 45 anos, qual é a probabilidade de apontar números na faixa de
idades do pessoal da sala? Qual é a média dos números dessa tabela? Qual é a variância? Qual
é o desvio padrão?
Capítulo 5
Processos de Markov
Neste capítulo trataremos de uma seqüência de estados que segue um
processo de Markov, tal que a probabilidade da próxima ocorrência dependerá apenas da
ocorrência imediatamente anterior. Isto é, trataremos com cadeias de Markov de primeira
ordem.
Processos de Markov constituem um tipo especial de processo estocástico
que possui a propriedade de que as probabilidades associadas com o processo num dado
instante do futuro dependem somente do estado presente, sendo, portanto, independentes dos
eventos no passado. Desse modo, os processos markovianos são caracterizados pelo que se
designa como ‘falta de memória’.
Para caracterizar processos de Markov de maneira precisa é necessário
estabelecer uma definição formal.
5.1 Definição e caracterização de processos de Markov
Antes de apresentar a definição de processos de Markov, vamos expor um
conceito mais abrangente que é o de processo estocástico.
Processo estocástico é definido como uma coleção indexada de variáveis
aleatórias tX , onde o índice t pertence a um dado conjunto T . O conjunto T é
normalmente composto de números inteiros não negativos, e tX representa uma característica
mensurável de interesse num instante de tempo t . Formalmente, a notação indicada pela
expressão (5.1) define processo estocástico sobre um dado espaço de probabilidade
; TtX t ∈ . (5.1)
Os valores assumidos pela variável aleatória tX são chamados estados, e o
conjunto de todos os possíveis valores forma o espaço de estado do processo.
147
Como exemplo de um processo estocástico podemos citar o tráfego de
dados em uma rede local de computadores que se encontra interligada à rede Internet. Neste
sistema, mensagens eletrônicas são recebidas e enviadas enquanto são feitos downloads de
arquivos. A taxa de transferência de bits por unidade de tempo num dado servidor desta rede é
uma variável incerta que depende da intensidade de uso do sistema pelos usuários conectados
naquele momento. Podemos, neste sistema, caracterizar a variável aleatória tX como a
velocidade de transferência de dados em sbits , onde t é o instante de tempo pertencente ao
intervalo ),0[ ∞=T . O espaço de probabilidade neste exemplo corresponde à função
densidade de probabilidade que rege o comportamento da variável aleatória tX , por exemplo,
uma distribuição normal.
Definição 5.1: (Processo de Markov) Um processo estocástico ; TtX t ∈ é chamado um
processo de Markov quando, para qualquer tempo tttt n <<<< 10 , a distribuição
condicional de tX para os valores dados de nttt XXX ,,,
10 dependem somente de
ntX :
- se tX assumir valores discretos, esta definição é expressa como
),,,|( 01 01xXxXxXxXP tntntt nn
==== −− = )|( ntt xXxXP
n== , (5.2)
- se tX assumir valores contínuos, esta definição é expressa como
),,,|( 01 01xXxXxXxXP tntntt nn
===≤ −− = )|( ntt xXxXP
n=≤ . (5.3)
Nestas expressões, 110 ,,, −nttt representam o passado, e t e nt são o
futuro e o presente respectivamente.
É interessante estabelecer claramente como é lida, por exemplo, a expressão
(5.2), que é como segue: a probabilidade da variável X ter valor igual a certo valor x no
tempo t , dado que a variável aleatória tenha assumido os valores nx , ,,1 −nx 0x ,
respectivamente, nos tempos nt , ,,1 −nt 0t , é igual a probabilidade da variável X ter valor
igual a um certo valor x no tempo t , dado apenas que a variável tenha assumido o valor nx
no tempo nt .
A Definição 5.1 pode ser traduzida para a linguagem natural, como segue:
um processo estocástico é um processo de Markov se o futuro do processo, conhecido o
estado presente, é independente do passado.
148
É fundamental no estudo de processos de Markov a noção de estado.
Propriedades em comum entre indivíduos (ou objetos) caracterizam o que designamos por
estados. São apresentados a seguir exemplos de objetos ou coisas que possuem propriedade
em comum:
- máquinas em uma linha de produção, cujos estados podem ser máquina
funcionando, máquina parada e em reparo, máquina parada aguardando por reparo;
- uma população que migra de uma região para outra, podendo encontrar-se
em um dos seguintes estados: população ociosa, população empregada;
- safras de soja na região Centro-Oeste do Brasil, sendo que os estados
podem ser safra boa, safra ruim ou safra razoável.
Os processos de Markov sempre envolvem a variável ‘tempo’, seja
considerada na forma discreta onde o tempo varia em saltos (ou seja, intervalos regulares), ou
na forma contínua podendo assumir valores reais.
Nos exemplos citados anteriormente podemos notar que o tempo está
presente. Uma máquina ao estragar requer tempo para ser consertada, podendo, portanto,
exibir alteração em seu estado se observada a intervalos regulares de tempo. Povos que
migram de um lugar a outro fazem isto com certa periodicidade. Safras ocorrem em meses
determinados que diferem em função da região e da cultura considerada.
5.2 Relevância dos processos de Markov e possíveis aplicações
Em todas as áreas da atividade humana busca-se quantificar eventos que
possuem certo grau de incerteza de ocorrência. Isto implica de certa forma na necessidade de
“prever o futuro”. Modelos matemáticos probabilísticos são concebidos para auxiliar o
homem na tomada de decisão.
No mundo real há diversos sistemas dinâmicos que podem ser modelados
como processos de Markov. Eis alguns exemplos de aplicações:
- planejamento de sistemas de atendimento a filas de espera que são
normalmente modelados como processos de ‘nascimento e morte’;
- dimensionamento de recursos computacionais para servir a processos que
compartilham tempo e espaço;
- avaliação de equipamentos em operação numa linha de produção industrial
ou em instalações complexas;
149
- estudo de fenômenos econômicos e movimentos sociais;
- análise de processos biológicos, como a evolução de certas espécies vivas
seja para fins de exploração comercial ou para a preservação;
- análise da evolução de certa epidemia numa comunidade.
Na bibliografia de Pesquisa Operacional são encontradas aplicações de
processos de Markov que compreendem desde o estudo de sistemas móveis de comunicação,
passando pelo tráfego de sinais digitais e o desenvolvimento de técnicas que objetivam
disponibilizar o serviço aos usuários, bem como a análise da evolução de corporações e
sistemas sociais com o passar do tempo. Em todas as aplicações nota-se um traço comum – o
tempo.
Conforme estabelecido na Definição 5.1, há duas categorias de processos de
Markov: (1) os processos de tempo discreto, em que o índice t assume apenas valores inteiros
não negativos, ou seja, ,2,1,0=t ; e (2) os processos nos quais a variável tempo é contínua,
ou seja, ),0[ ∞∈t . Em ambas as categorias, os estados são caracterizados por números
inteiros não negativos definidos a partir dos valores que a variável aleatória X pode assumir.
5.3 Processos de Markov de tempo discreto
Um processo de Markov está completamente especificado se forem
conhecidas as probabilidades de transição e a distribuição inicial de probabilidades dos
estados.
Toda vez que um estado suceder a outro, dizemos que o processo
estocástico markoviano deu um passo. O passo pode representar um período de tempo que
resulte em outro estado possível. Se o número de passos é zero, tal situação representa o
presente, igual a um estará representando um possível estado no próximo passo, e assim por
diante.
Iniciaremos o estudo de processos de Markov de tempo discreto definindo
probabilidades de transição.
Definição 5.2: (Probabilidades de transição) As probabilidades condicionais
)|( 1 iXjXP tt ==+ , para ,2,1,0=t ,
150
são chamadas de probabilidades de transição. Se, para cada i e j ,
)|()|( 011 iXjXPiXjXP tt =====+ , para todo ,2,1,0=t ,
então as probabilidades de transição para um passo são ditas estacionárias e usualmente são
denotadas por ijp .
A probabilidade de transição do estado i ao estado j , em um passo,
simbolizada por ijp , é a probabilidade de um objeto que se encontra no estado i após um
intervalo de tempo fixo predeterminado ser encontrado no estado j .
Para n passos à frente, como extensão da Definição 5.2, é possível escrever
as probabilidades de transição para cada i e j , com ,2,1,0=n , conforme a expressão:
)|()|( 0 iXjXPiXjXP ntnt =====+ , para todo ,2,1,0=t (5.4)
Para simplificar a notação, usaremos a seguinte simbologia:
ijpiXjXP === )|( 01 ,
)()|( 0 npiXjXP ijn === .
De acordo com a referência (HILLIER e LIEBERMAN, 1995), a notação
)(npij introduzida anteriormente implica que, para 0=n , )0(ijp é )|( 00 iXjXP == ,
sendo igual a 1 se ji = e igual a 0 em caso contrário.
As probabilidades de estados são definidas como a seguir.
Definição 5.3: (Probabilidade de estado no instante n ) A probabilidade do estado i tomada
no instante n é a probabilidade de um objeto ocupar o estado i após um número n finito de
passos. Formalmente, para 1+M estados,
)()( iXPnp ni == , para Mi ,,2,1,0 = .
151
Especificamente para o instante inicial tem-se a distribuição inicial de
probabilidades de estados, a qual é representada por um vetor linha )0(p , cujas componentes
são as probabilidades )(npi , Mi ,,2,1,0 = .
])0()0()0()0([)0( 210 Mppppp = (5.5)
De posse das definições estabelecidas nesta seção, estamos prontos para
apresentar um exemplo numérico.
Exemplo 5.1: Numa certa região durante o período de chuvas, que dura cerca de seis meses a
cada ano, os estados observados são dois: dias ensolarados e dias chuvosos, os quais serão
designados pelos índices 0 e 1, respectivamente. A partir de observações históricas, foram
obtidas para um passo (ou seja, um dia) as probabilidades de transição supostas constantes. A
um dia chuvoso sucederá um dia chuvoso com probabilidade igual a 43 e, um dia ensolarado,
com probabilidade 41 . Dias ensolarados sucedem dias ensolarados com probabilidades iguais
a 21 , enquanto que, ao ocorrer um dia ensolarado, a probabilidade de chover no dia seguinte
é 21 . Desejamos estudar o regime de chuvas dessa região modelando o processo estocástico
descrito como um processo de Markov. Como primeira informação desse estudo, precisamos
inferir sobre o número esperado de dias chuvosos anualmente se a tendência descrita pelas
probabilidades permanecer inalterada.
Primeiramente vamos identificar os dados fornecidos no enunciado com as
probabilidades definidas anteriormente. Sendo 0 o número associado ao estado “sol” e 1 o
número associado ao estado “chuva”, temos as probabilidades condicionais seguintes para um
passo:
- dia chuvoso sucede dia chuvoso → 43
1101 )1|1( ==== pXXP ;
- dia ensolarado sucede dia chuvoso → 41
1001 )1|0( ==== pXXP ;
- dia chuvoso sucede dia ensolarado → 21
0101 )0|1( ==== pXXP ;
- dia ensolarado sucede dia ensolarado → 21
0001 )0|0( ==== pXXP .
152
Para encontrar a probabilidade do estado 0 em um passo, )1(0p , podemos
utilizar o conceito de probabilidade total, o qual para dois estados possui a seguinte expressão:
)1()1|0()0()0|0()0()1( 00100110 ===+====== XPXXPXPXXPXPp ,
)0()0()1( 1100000 ppppp += .
Na última expressão observamos )0(0p e )0(1p , que são as probabilidades
iniciais dos estados (vide a Definição 5.3).
Procedendo de modo análogo, para encontrar a probabilidade do estado 1
em um passo, )1(1p , utilizamos novamente o conceito de probabilidade total:
)0()0|1()1()1|1()1()1( 00100111 ===+====== XPXXPXPXXPXPp ,
)0()0()1( 0011111 ppppp += .
Se for de interesse determinar as probabilidades dos estados 0 e 1 em dois
passos, respectivamente, )2(0p e )2(1p , tendo em vista que as probabilidades de transição
são constantes, basta escrever as expressões conforme mostradas a seguir:
)1()1()2( 1100000 ppppp += ,
)1()1()2( 0011111 ppppp += .
Se prosseguirmos com esta forma de calcular, o cálculo se revelará
enfadonho, com grande possibilidade de confusão com tantos índices.
Uma forma alternativa e muito mais funcional consiste no emprego da
representação matricial. Das expressões de cálculo de )1(0p e )1(1p , obtém-se a
representação matricial mostrada a seguir:
=
1110
01001010 ])0()0([])1()1([
pp
pppppp .
153
Analogamente, das expressões de cálculo de )2(0p e )2(1p , extraímos a
representação matricial mostrada a seguir:
=
1110
01001010 ])1()1([])2()2([
pp
pppppp .
Ora, se substituirmos o vetor ])1()1([ 10 pp da segunda expressão pela
primeira expressão obteremos o seguinte:
=
1110
0100
1110
01001010 ])0()0([])2()2([
pp
pp
pp
pppppp ,
2
1110
01001010 ])0()0([])2()2([
=
pp
pppppp .
Finalmente, ao empregarmos o Princípio da Indução Matemática é imediata
a conclusão de que uma expressão para n passos pode ser escrita, conforme está indicada a
seguir:
n
pp
ppppnpnp
=
1110
01001010 ])0()0([])()([ .
Esta expressão resolveria o exemplo em pauta se conhecêssemos a
distribuição inicial, isto é, o vetor ])0()0([ 10 pp . No entanto, veremos à frente, neste
capítulo, que, sob certas condições, as probabilidades dos estados a longo prazo são
independentes da distribuição inicial, sendo esta outra propriedade inerente à maioria dos
processos de Markov.
Retornamos então ao Exemplo 5.1. Para resolver o exemplo lançamos mão
de um artifício conhecido por árvore de probabilidades. A Figura 5.1 ilustra o diagrama em
árvore partindo do estado 0, onde são considerados apenas quatro passos. Outro diagrama
poderia ser construído, porém, partiria do estado 1.
Mostraremos como se calcula a probabilidade do estado 1 após quatro
passos, isto é, )4(1p . Notamos na árvore de probabilidades (Figura 5.1) que, dado que os
eventos são independentes, precisamos multiplicar todas as probabilidades dos ‘caminhos’
154
que levam ao estado 1 para calcular a probabilidade do estado 1 em quatro passos
(BILLINTON, 1970).
Figura 5.1: Diagrama em árvore de probabilidades iniciando no estado 0.
A Tabela 5.1 mostra em detalhes os cálculos para obtenção de )4(1p .
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
sol
chuva
sol
chuva
sol
chuva
sol
chuva
sol
21
21
21
21
21
21 2
1
21
21
21
21
21
21
21
21
21
43
43
43
43
43
43
43
41
41
41
41
41
41
41
Passo 1 Passo 2 Passo 3 Passo 4
155
Tabela 5.1: Planilha de cálculo da probabilidade do estado 1.
Produtos de probabilidades de transição Probabilidades parciais
=01000000 pppp21
21
21
21
161
=11010000 pppp43
21
21
21
323
=01100100 pppp21
41
21
21
321
=11110100 pppp43
43
21
21
649
=01001001 pppp21
21
41
21
321
=11011001 pppp43
21
41
21
643
=01101101 pppp21
41
43
21
643
=11111101 pppp43
43
43
21
12827
Probabilidade total (probabilidade do estado 1 em quatro passos) 664,012885 ≈
Se construirmos uma tabela para mostrar os cálculos da probabilidade do
estado 0 para quatro passos, chegaremos sem dúvida no valor 336,0)4( 12843
0 ≈=p . Se
estendermos os cálculos para mais passos não é difícil concluir que a probabilidade do estado
1 encaminhará para 32 , enquanto que a probabilidade do estado 0 será de 3
1 , preservadas as
condições.
Com estes cálculos podemos responder à questão formulada no enunciado
do Exemplo 5.1. Portanto, espera-se que, em seis meses, 120 dias serão chuvosos
( 12018032 =× ), e 60 dias serão ensolarados.
5.3.1 Matriz de transição de probabilidades
Uma notação conveniente para representar probabilidades de transição para
n passos é a forma de matriz.
Definição 5.4: (Matriz de probabilidades de transição para n passos) Seja MS ,,1,0 = o
conjunto finito de estados, e seja o par de estados ),( ji , tal que SSji ×∈),( . Associe a cada
par ),( ji um número real )(npij , de modo que sejam satisfeitas as propriedades
156
1)(0 ≤≤ npij para SSji ×∈∀ ),( e =∈Sj
ij np 1)( para Si ∈∀ , define-se a matriz nP (leia-
se matriz P elevada ao expoente n ),
=
)()()(
)()()()()()(
10
11110
00100
npnpnp
npnpnp
npnpnp
P
MMMM
M
M
n
.
(5.6)
Especificamente, para um passo, a matriz de probabilidades de transição é
como representada em (5.7), onde é omitido o índice )1( .
=
MMMM
M
M
ppp
ppp
ppp
P
10
11110
00100
.
(5.7)
Em particular, para 0=n , tem-se como conseqüência natural que 0P é a
própria matriz identidade, I , de ordem )1()1( +×+ MM , o que está de acordo com o fato de
que )0(ijp é igual a )|( 00 iXjXP == e
≠=
=jise
jisepij ,0
,1)0( .
Com base no teorema da probabilidade total e na definição de probabilidade
de transição para n passos, )|()( 1 iXjXPnp nnij === − , tem-se a expressão (5.8) para o
cálculo da probabilidade do estado j em n passos
)()0()()( nppjXPnp iji
inj === . (5.8)
157
A partir da expressão (5.8) podemos concluir que a matriz nP é relacionada
à distribuição inicial de probabilidades, )0(p , definida pela expressão (5.5), e ao vetor de
probabilidades de estados para n passos, através da expressão (5.9)
nPpnp )0()( = . (5.9)
Esta expressão pode ser deduzida pela aplicação do Princípio da Indução
Matemática, a exemplo do que foi feito durante a solução do Exemplo 5.1 para o caso
particular de um processo de 2 estados.
Em relação à expressão (5.9), se o espaço de estados S do processo de
Markov nX for finito, então o cálculo de nP é relativamente fácil. Para processos de
Markov com espaços de estados contáveis, porém infinitos, o cálculo de nP não é trivial.
Contudo, existem métodos para determinar o comportamento assintótico, isto é, quando
∞→n , de )(np e nP .
5.3.2 Cadeias de Markov
Uma forma visual conveniente para representar um processo de Markov é
através de um grafo que se compõe de nós, que são os estados, e arcos direcionados que
simbolizam as transições entre estados. Este grafo é denominado diagrama de transição.
Definição 5.5: (Cadeia de Markov) A seqüência nX , ,2,1,0=n , é chamada uma cadeia
de Markov homogênea de tempo discreto, com espaço de estados ,,2,1,0 MS = , e
matriz de probabilidades de transição, P , se para todo ,2,1,0=n a condição
ijnn piXjXPiXjXP ====== − )|()|( 011
é satisfeita para todo SSji ×∈),( .
Considere o exemplo apresentado a seguir.
158
Exemplo 5.2: Considere o problema enunciado no Exemplo 5.1. Desejamos utilizar a
representação sob a forma de diagrama de transição de uma cadeia de Markov para expressar
o problema daquele enunciado.
Identificamos dois estados, portanto, 1=M , e o espaço de estados
é 1,0=S . O produto cartesiano, SS × , é )1,1(),0,1(),1,0(),0,0( . A matriz de
probabilidades de transição para um passo é a seguinte:
=→
=
43
41
21
21
1110
0100 Ppp
ppP .
O grafo que corresponde à cadeia de Markov para este exemplo é ilustrado
na Figura 5.2.
Figura 5.2: Diagrama de transição de uma cadeia de Markov com dois estados.
A análise de cadeias de Markov utilizando matriz de probabilidades de
transição pode ser efetuada tomando-se certas precauções tendo em vista que nem todos os
processos de Markov de tempo discreto comportam-se de modo semelhante à medida que o
número de passos aumenta.
Surge então a necessidade de uma classificação das cadeias de Markov.
5.3.3 Classificação das cadeias de Markov
Os estados de um processo de Markov são divididos em transitório e
recorrente. Esta classificação diz respeito à probabilidade do processo retornar a um dado
estado i se o processo partiu deste estado.
0 1 2
101 =p
43
11 =p 2100 =p
4110 =p
159
Seja iif a probabilidade de que o processo retornará ao estado i dado que o
processo tenha partido deste estado, então segue a definição de estado recorrente.
Definição 5.6: (Estado recorrente) Um estado i é recorrente se e somente se, partindo do
estado i , o processo eventualmente retornará ao estado i com probabilidade 1=iif .
O processo cuja cadeia de Markov foi apresentada no Exemplo 5.2 possui
ambos os estados recorrentes. Outro exemplo de estados recorrentes corresponde à matriz de
probabilidades de transição mostrada a seguir:
=
0110
P .
Uma cadeia de Markov com dois estados recorrentes está ilustrada na Figura
5.3.
Figura 5.3: Diagrama de transição de uma cadeia de Markov com dois estados recorrentes.
Estados transitórios, também conhecidos como não recorrentes, são aqueles
que, partindo do estado i , há uma probabilidade positiva de que o processo não retornará a
esse estado (isto é, 1<iif ). Estados recorrentes e transitórios podem coexistir numa mesma
cadeia de Markov. A caracterização de estados transitórios não é trivial e, por esta razão, os
detalhes de processos de Markov desse tipo não serão enfatizados neste texto.
Um tipo especial de estado recorrente é o estado absorvente cuja definição é
estabelecida a seguir, conforme a referência (TRIVEDI, 2002).
Definição 5.7: (Estado absorvente) Um estado i é dito ser um estado absorvente se e somente
se a probabilidade iip é igual a 1.
1 111 =p 0 100 =p
160
A cadeia cujo diagrama de transição está ilustrado na Figura 5.3 tem ambos
os estados absorventes.
É importante ressaltar que só é possível ‘escapar’ de um estado absorvente
se o processo for reiniciado, ou seja, se o processo partir novamente de qualquer outro estado
que não seja absorvente. Vamos apresentar um exemplo para tornar mais claras as definições.
Exemplo 5.3: Considere um navio com dois sistemas propulsores, que são duas turbinas
idênticas. Seja nX a variável aleatória tal que seu valor é o número de turbinas em operação
normal no passo n . Se uma das turbinas falhar, ela poderá ser consertada, enquanto se ambas
falharem, o navio pára, mas ainda haverá possibilidade de que uma das turbinas seja
consertada sendo esta a reignição do processo de Markov e não a transição para outro estado.
As probabilidades são as seguintes: se uma turbina que nunca passou por reparo é boa no
tempo 1−nt , ela tem confiabilidade de 90% no tempo nt ; porém, uma turbina que se estragou
no tempo 1−nt , após reparada, é apenas 60% confiável no tempo nt . Suponha as
probabilidades independentes e modele o problema como um processo de Markov de tempo
discreto.
Os valores possíveis para a variável X são: 0, 1 e 2, sendo,
respectivamente, duas turbinas estragadas, apenas uma operando e ambas operando. O
modelo de probabilidades sugerido é o Binomial já que os eventos são independentes, ou seja,
a falha de uma turbina não implica na falha da outra, e cada turbina só pode ser encontrada em
uma dentre duas condições.
As probabilidades de transição são calculadas como a seguir.
- ambas em operação, 221 )2|2( pXXP nn === − ,
81,09,09,022 =×=p ;
- uma turbina boa e a outra estragada dado que ambas estavam em operação,
211 )2|1( pXXP nn === − , 18,09,01,01,09,021 =×+×=p ;
- ambas estragadas dado que as duas estavam boas, 201 )2|0( pXXP nn === − ,
01,01 212220 =−−= ppp ;
- uma em operação e a outra entra em operação após o reparo, 121 )1|2( pXXP nn === − ,
161
54,06,09,012 =×=p ;
- nenhuma em operação dado que apenas uma estava boa, 101 )1|0( pXXP nn === − ,
04,04,01,010 =×=p ;
- uma em operação dado que uma delas estava estragada, 111 )1|1( pXXP nn === − ,
42,01 101211 =−−= ppp .
O estado 0 é absorvente uma vez que entrando nele não se pode abandoná-
lo exceto se o processo partir novamente, portanto, 100 =p .
A matriz de probabilidades de transição para um passo fica conforme está
mostrada:
=10004,042,054,001,018,081,0
012
012
P.
As análises de sistemas cujos modelos são representados por processos de
Markov de tempo discreto para elevado número de passos trazem informações importantes.
No entanto, nem todos os processos comportam-se de maneira idêntica para ∞→n e, por
isso, não permitem que certas conclusões sejam extraídas.
Daí advém a necessidade de estabelecer objetivamente sob quais condições
as probabilidades limites existem e se possuem ou não algum significado físico.
Definição 5.8: (Probabilidade limite ou probabilidade estacionária) Para o estado j de uma
cadeia de Markov, o elemento jv , para Mj ,,1,0 = , é definido como a probabilidade
limite )(lim npv jn
j∞→
= , ou seja, jv é a probabilidade do estado j em regime estacionário.
Em conseqüência, o vetor ][ 10 Mvvvv = é o vetor de regime estacionário.
Nos desenvolvimentos que seguem será mostrado que para determinadas
cadeias nem sempre é possível obter o vetor de probabilidades limites. Uma propriedade
162
requerida para a existência de jv , tal como definida anteriormente, é que a cadeia seja
aperiódica.
Definição 5.9: (Periodicidade de estados) Se partindo do estado i retornamos a este estado em
um número par ou ímpar (maior que 1) de passos dizemos que o estado é periódico, com
período igual ao menor número inteiro de passos que for necessário para alcançar o estado. A
uma cadeia com estados periódicos designamos cadeia periódica. Por outro lado, será
aperiódica se todos os estados forem aperiódicos.
Uma forma de verificar a periodicidade de estados é visualizar o processo
como uma árvore de probabilidades. Por exemplo, a cadeia cuja matriz é
=
0110
10
10
P,
é periódica com período 2. A árvore de probabilidades ilustrada na Figura 5.4 mostra isto
claramente.
Figura 5.4: Árvore de probabilidades de uma cadeia de Markov com dois estados periódicos.
Por outro lado, ambos os estados da cadeia de Markov da Figura 5.3 são
aperiódicos. Outro exemplo de cadeia com estados aperiódicos é a cadeia cuja árvore está
ilustrada na Figura 5.1. Na árvore da Figura 5.1 é fácil visualizar que, partindo do estado 0, é
possível alcançar o estado 0 em um passo; de modo análogo, se a partida for do estado 1
alcança-se o mesmo estado em um passo.
Em contraposição aos estados absorventes, se todos os estados de uma dada
cadeia de Markov se comunicam a matriz de probabilidades de transição dessa cadeia exibirá
propriedades especiais. A definição de estados comunicantes é dada em seguida.
0 1 0 1
1º passo 2º passo 3º passo
1=n 2=n 3=n
163
Definição 5.10: (Estados comunicantes) O estado i se comunica com o estado j se, partindo
do estado i , é possível alcançar o estado j direta ou indiretamente, observando-se o sentido
do arco que os une.
Exemplo 5.4: Dadas as matrizes de transição associadas às cadeias de Markov, identificar se
os estados se comunicam ou não. As posições marcadas com * (asterisco) representam
números positivos (probabilidades de transição para um passo).
a)
=*******0*
210
210
P.
Os estados da cadeia de Markov da matriz P são representados pelos
números 1,0 e 2 .
Partindo do estado 1, isto é, segunda linha da matriz, é possível chegar
diretamente a qualquer um dos estados. Na primeira linha, de 0 não conseguimos chegar
diretamente ao estado 1. Todavia, de 0 podemos chegar ao estado 2 e daí alcançamos 1.
Portanto, na cadeia que a matriz P representa todos os seus estados se comunicam.
A outra matriz é mostrada a seguir.
b)
=0**0*0***
210
210
P.
A partir desta matriz é possível construir o diagrama de transição da cadeia,
na qual a existência de seta indica elemento positivo na matriz. A Figura 5.5 ilustra o
diagrama de transição que corresponde à última matriz.
Figura 5.5: Diagrama de transição de uma cadeia de Markov onde o estado 1 é absorvente.
1 0
2
164
Ao analisarmos a cadeia da Figura 5.5 é imediata a constatação de que os
estados 0 e 2 se comunicam e que o estado 1 não se comunica com os demais.
As cadeias de Markov em que todos os estados podem ser alcançados a
partir de todos os outros estados em um número finito de passos são chamadas de cadeias
irredutíveis. Assim, as cadeias dos Exemplos 5.2 e 5.4(a) são irredutíveis e aperiódicas.
Os autores Hillier e Lieberman demonstram que todos os estados em uma
cadeia de Markov irredutível são recorrentes. Implicando que para identificar se uma cadeia
de Markov é irredutível é o bastante provar que todos os estados do processo se comunicam.
Esta assertiva pode ser colocada de outra forma, mais prática, conforme está exposta no
Teorema 5.1.
Teorema 5.1: Uma condição suficiente para uma cadeia ser identificada como irredutível é
que exista algum número n inteiro não negativo tal que 0)( >npij para todo i e j .
Este teorema fornece uma regra prática para a identificação de cadeias
irredutíveis. Em outras palavras, ao elevarmos a matriz P da cadeia que se quer identificar a
potências n de pequenos valores, por exemplo, 2=n , 3=n , etc., podemos verificar se
existe algum n para o qual 0)( >npij para todo i e j . Em caso afirmativo, a cadeia é
irredutível. A referência (BRONSON, 1985) designa a cadeia que atende à condição do
Teorema 5.1 de cadeia regular.
Vamos aplicar o resultado do Teorema 5.1 para identificar as cadeias cujas
matrizes são dadas no Exemplo 5.5.
Exemplo 5.5: Dadas as matrizes seguintes:
a)
=**0*0*0**
P ; e b)
=
*0*00*0**0*00*0*
P ;
verifique se elas correspondem à cadeias irredutíveis.
Tomamos a matriz P do caso (a) e a elevamos ao quadrado, obtendo-se:
165
=
=*********
**0*0*0**
**0*0*0**
2P .
Ao efetuarmos o produto simbólico P por P , verificamos que todas as
posições com elementos nulos foram preenchidas, portanto, é correto afirmar que a cadeia é
irredutível (ou regular).
Tomamos a matriz P do caso (b) e a elevamos ao quadrado, obtendo-se:
=
*0*00*0**0*00*0*
2P .
De posse de 2P , é imediata a constatação que a matriz 3P exibe o mesmo
padrão de preenchimentos com elementos positivos observado em P . Conseqüentemente,
todas as potências, 4P , nPP ,,5 exibirão padrões semelhantes ao de P . É possível
concluir que não existe n de tal modo que 0)( >npij . Isto implica que a cadeia em questão
não é irredutível. Conclusão idêntica pode ser extraída se aplicarmos o resultado do Teorema
5.1 à matriz do Exemplo 5.4(b), confirmando assim a identificação feita pelo método dos
estados comunicantes.
Para complementar a seção que trata da classificação das cadeias de
Markov, considere a definição de estado recorrente positivo (ou não nulo).
Definição 5.11: (Estado recorrente positivo) O estado i é recorrente positivo se, partindo do
estado i , o tempo esperado para o processo visitar novamente este estado é finito. Por outro
lado, ao partir do estado i se o tempo esperado para o processo visitar este estado for infinito,
o estado é dito recorrente nulo.
O tempo esperado para um processo re-visitar o estado i , também
conhecido como tempo médio de recorrência, é definido pela esperança matemática indicada
pela expressão (5.10)
=∞
=1)(
niiii nnfµ , para 1)(
1=
∞
=nii nf ,
(5.10)
166
onde, )(nfii é a probabilidade de re-visitar o estado i em n passos. O tempo esperado para um processo que tenha partido do estado i , após
n passos, retornar ao estado j , também conhecido como tempo de primeira passagem, é
definido conforme (5.11)
=∞
=1)(
nijij nnfµ ,
(5.11)
onde, )(nfij é a probabilidade em n passos de visitar o estado j se o processo partiu do
estado i .
Dado que 1)(1
=∞
=nij nf para SSji ×∈),( , onde, ,,2,1,0 MS = , as
probabilidades )(nfij podem ser calculadas pelas relações recursivas (5.12)
ijijij ppf == )1()1( ,
jjijijij pfpf )1()2()2( −= ,
jjijjjijjjijijij pnfnpfnpfnpnf )1()2()2()1()1()()( −−−−−−= .
(5.12)
A aplicação das expressões (5.10) a (5.12) será feita posteriormente.
Estados recorrentes positivos que são aperiódicos são chamados de estados
ergódicos. Conseqüentemente, cadeias que têm todos os estados ergódicos são designadas
como cadeias ergódicas.
5.3.4 Análise de cadeias finitas irredutíveis com estados aperiódicos
As cadeias finitas de Markov cujos estados são recorrentes positivos e
aperiódicos gozam de uma propriedade singular, que está expressa no Teorema 5.2
(TRIVEDI, 2002).
Teorema 5.2: Para uma cadeia irredutível e aperiódica, com todos os estados recorrentes
positivos, o vetor de probabilidades limites, ][ 10 Mvvvv = , tal que )(lim npv jn
j∞→
= ,
167
é o único vetor de probabilidades de regime estacionário e satisfaz as relações (5.13) e (5.14),
a saber:
vPv = , (5.13)
10
==
M
jjv , 0≥jv .
(5.14)
O cálculo do vetor v pode ser efetuado usando o computador através da
equação iterativa Pvv kk )()1( =+ , para ,2,1,0=k , arbitrando um vetor de estimativa
inicial )0(v , até que a convergência seja alcançada. Uma maneira alternativa para a obtenção
de v é o método analítico: constrói-se o sistema (5.13) e troca-se uma das 1+M equações
lineares pela relação (5.14), para, em seguida, solucionar o sistema de equações resultante.
Vamos aplicar o resultado do Teorema 5.2 para calcular as probabilidades
estacionárias dos estados do sistema do Exemplo 5.1.
Exemplo 5.6: Dado que a cadeia do Exemplo 5.1 atende as condições do Teorema 5.2, isto é,
é irredutível e aperiódica com estados recorrentes positivos, calcule as probabilidades de
regime estacionário.
Primeiramente, vamos utilizar a equação de iteração tomando o vetor inicial
]01[)0( =v , que para este exemplo fica conforme está mostrada a seguir:
,][][4
34
12
12
1)(
1)(
0)1(
1)1(
0
=++ kkkk vvvv com ]01[)0( =v .
A Tabela 5.2 resume os cálculos iterativos.
Tabela 5.2: Iterações para obtenção do vetor de probabilidades de regime estacionário.
k )(kv )1( +kv )()1( kk vv −+ 0 ]01[ ]500,0500,0[ ]500,0500,0[− 1 ]500,0500,0[ ]625,0375,0[ ]125,0125,0[− 2 ]625,0375,0[ ]656,0344,0[ ]031,0031,0[− 3 ]656,0344,0[ ]664,0336,0[ ]108108[ 33 −− ××− 4 ]664,0336,0[ ]666,0334,0[ ]102102[ 33 −− ××−
168
Em função da precisão requerida nos cálculos, mais iterações podem ser
realizadas. Sugerimos que o leitor repita o procedimento iterativo mostrado anteriormente
tomando qualquer outro vetor )0(v como estimativa inicial.
A Figura 5.6 ilustra a evolução das probabilidades dos estados 0 e 1 à
medida que o número de passos aumenta. Ressaltamos nestes cálculos a coincidência entre o
número de passos n e o contador de iterações k .
Os gráficos ilustrados na Figura 5.6 merecem alguns comentários. No
gráfico da esquerda, o vetor de probabilidades iniciais é ]01[)0( =p . Enquanto que, no
gráfico da direita, o vetor de probabilidades iniciais é ]10[)0( =p . Observa-se que o vetor
de probabilidades de regime estacionário obtido, ou seja, ])()([][ 1010 ∞∞== ppvvv ,
independe do vetor de probabilidades iniciais.
Regra geral: para qualquer cadeia irredutível aperiódica, as probabilidades
limites dos estados )(lim)(lim npnpv ijn
jn
j∞→∞→
== existem e são independentes do vetor de
probabilidades iniciais )0(p .
Figura 5.6: Probabilidades dos estados em função do número de passos para dois vetores de
probabilidades iniciais distintos.
169
O leitor é convidado a voltar ao Exemplo 5.1 e traçar um paralelo entre a
solução obtida aqui através do processo iterativo e os cálculos efetuados naquele exemplo.
Agora, o cálculo das probabilidades estacionárias será feito analiticamente.
Para tal, com base na expressão (5.13) obtemos o sistema de equações:
=
43
41
21
21
1010 ][][ vvvv →
=+−
=−
0
0
141
021
141
021
vv
vv.
Como as equações são linearmente dependentes, substitui-se a segunda
equação (arbitrou-se a segunda, mas poderia ser a primeira) pela equação (5.14). O sistema de
equações assim obtido é o seguinte:
=+=−1
0
10
141
021
vv
vv.
A solução deste sistema nos fornece ][ 32
31=v , que é a mesma solução
para a qual converge o método iterativo.
Ao estudar processos de Markov é natural a expectativa do leitor por
conhecer as aplicações dessa interessante teoria em problemas do mundo real. A interpretação
física dos resultados obtidos com os cálculos e a tradução desses resultados para a linguagem
natural são etapas essenciais para a compreensão do comportamento do sistema sob análise.
Neste contexto, apresentamos em seguida algumas interpretações relevantes:
- a probabilidade de regime estacionário, iv , é a porcentagem do tempo total
considerado que o processo permanece no estado i ;
- para cadeias ergódicas, o recíproco da probabilidade de regime
estacionário, designado por iiµ , é o tempo esperado de recorrência do estado i , isto é,
iii v
1=µ , para Mi ,,2,1,0 = ,
onde, iiµ é o tempo médio do processo re-visitar o estado i ;
170
- seja f uma função da variável aleatória X , por exemplo, custos
financeiros associados aos estados. As probabilidades estacionárias iv podem ser utilizadas
para calcular a esperança matemática de )(Xf , assim:
==
M
ii ifvXfE
0)())(( .
(5.15)
Em seguida, apresentamos um exemplo que permite a interpretação dos
resultados obtidos de maneira mais prática.
Exemplo 5.7: Uma fábrica possui duas máquinas idênticas essenciais ao processo de
manufatura e são operadas continuamente, exceto quando elas estão quebradas. Devido ao
fato que essas máquinas são muito sensíveis e quebram freqüentemente, é necessário
remunerar em tempo integral um técnico para reparar a máquina quando ocorrer alguma falha.
Suponha que o intervalo de tempo de observação seja de um dia e que a variável
aleatória nX representa o número de máquinas quebradas no dia n . Os valores possíveis para
a variável aleatória são 1,0=nX e 2 . Admita que durante cem dias de observações foram
anotadas as situações das duas máquinas, chegando-se às probabilidades de transições dos
estados para 1 dia, que estão mostradas na matriz P :
→
=100
1
602020204040402040
012
012
P
=6,02,02,02,04,04,04,02,04,0
012
012
P.
Outro dado importante é que custos de estar nos estados 0, 1 e 2 são, respectivamente, $ 0,00,
$ 1.500,00 e $ 10.000,00, e há também o custo fixo de remuneração do técnico, que é $
100,00 ao dia. O custo de duas máquinas paradas é alto porque implica na parada da linha de
produção, podendo causar sérios transtornos à fábrica. A partir das probabilidades de regime
estacionário, calcule:
(a) se ambas as máquinas se estragam, a probabilidade que o tempo para consertar uma dessas
máquinas seja de dois dias;
171
(b) na ocorrência de ambas as máquinas fora de operação, em quantos dias espera-se que esta
situação ocorra novamente;
(c) o número esperado de dias de ociosidade do técnico;
(d) o custo por dia a longo prazo para manter as máquinas.
A partir da matriz, conclui-se que a cadeia é irredutível e aperiódica, com
estados recorrentes positivos. Por isso, podemos aplicar o Teorema 5.2 para calcular o vetor
v , donde obtemos:
]4375,02500,03125,0[=v .
Para responder o item (a) precisamos calcular a probabilidade que o tempo
de primeira passagem do estado 0 ao estado 1 seja igual a 2 dias, ou seja, )2(01f . Utilizamos
então as relações recursivas para obter )2(01f
2,0)1()1( 010101 =→= fpf ,
11010101 )1()2()2( pfpf −= .
Para concluir o item (a), precisamos calcular )2(01p .
=
=48,024,028,036,028,036,044,024,032,0
6,02,02,02,04,04,04,02,04,0
6,02,02,02,04,04,04,02,04,0
2P → 24,0)2(01 =p .
Portanto, a probabilidade que o tempo para consertar uma dessas máquinas seja de dois dias é
igual a:
16,0)2(4,02,024,0)2()1()2()2( 010111010101 =→×−=→−= ffpfpf .
O item (b) pede o tempo de recorrência para o estado 2. Basta
calcular2
221v
=µ , resultando no seguinte valor:
172
3125,0122 =µ → 2,322 =µ dias.
Para o item (c), o número esperado de dias de ociosidade do técnico
corresponde aos dias em que ambas as máquinas ficam em operação, ou seja, é o tempo de
recorrência do estado 0,
4375,0100 =µ → 3,200 =µ dias.
Finalmente, para o item (d), o custo por dia a longo prazo para manter as
máquinas é a esperança matemática da função custo em regime estacionário.
00,000.103125,000,500.125,000,04375,0))(( ×+×+×=XfE → 00,500.3))(( =XfE .
Devemos adicionar ao valor obtido anteriormente o custo fixo devido à remuneração do
técnico. Portanto, o custo por dia a longo prazo para manter as máquinas é $ 3.600,00.
As cadeias de Markov analisadas nesta seção exibem a propriedade especial
de que a potência nP para n tendendo ao infinito resulta numa matriz cujas linhas são todas
iguais. A expressão (5.16) exprime a mencionada propriedade de forma mais clara
=∞→
M
M
M
n
n
vvv
vvv
vvv
P
10
10
10
lim .
(5.16)
Por exemplo, a matriz do Exemplo 5.6 ao ser elevada a expoentes cada vez
mais altos resulta na seguinte matriz:
=
=
∞→∞→ 32
31
32
31
43
41
21
21
limlimn
n
n
nP .
Esta é uma propriedade inerente às cadeias finitas irredutíveis e aperiódicas.
No entanto, cadeias que possuem estados absorventes constituem uma classe especial de
173
processos que não exibem tal propriedade. Por exemplo, a matriz do Exemplo 5.3 é um caso
que não atende à propriedade.
5.3.5 Análise de cadeias finitas com estados absorventes
O estudo das cadeias de Markov finitas com estados absorventes requer que
a matriz de probabilidades de transição P seja expressa de modo especial. Isto implica que as
linhas de P que correspondem aos estados não absorventes devem ser arranjadas em primeiro
lugar e, em seguida, nas últimas linhas figuram os estados absorventes.
A expressão (5.17) mostra uma representação na forma canônica da matriz
de probabilidades de transição quando há estados absorventes,
=→
= +
+
I
CQP
ccqq
ccqq
P rsrrrrr
srr
0
1000
010011
111111
,
estados não absorventes Q C estados absorventes 0 I
(5.17)
O cálculo da potência nP passa pelo seguinte desenvolvimento.
Primeiramente, para k natural, prova-se que kP é igual a identidade (5.18)
=
I
CQPk
k
0
~,
(5.18)
onde, o elemento da posição ),( ji da matriz kQ denota a probabilidade de chegar ao estado
não absorvente j após k passos partindo do estado não absorvente i , enquanto que C~
denota
a submatriz C após k passos.
Uma das informações mais relevantes na análise de cadeias absorventes é o
número esperado de passos em que o processo ficará no estado não absorvente i antes da
absorção. Considere o seguinte teorema.
174
Teorema 5.2: Para uma cadeia de Markov com pelo menos um estado absorvente, o número
esperado de passos para a absorção partindo do estado não absorvente i é o somatório dos
elementos da −i ésima linha da matriz 1)( −− QI .
Uma prova deste teorema fundamenta-se no fato de que para o processo
alcançar a absorção este deve transitar antes por todos os estados não absorventes nos passos
∞,,2,1,0 . Assim, o número esperado de passos antes da absorção se o processo partiu do
estado não absorvente i é a −i ésima linha da matriz que resulta do somatório
∞∞
=++ ++= QQQQQ
k
k
0
20 ,
lembrando que IQ =0 e que a norma da matriz Q seja menor que 1 (isto é, 1<Q ).
Finalmente, recorremos às séries convergentes, neste caso, aplicadas a
matrizes, que nos permite concluir que o somatório anterior é igual à matriz 1)( −− QI .
A matriz 1)( −− QI é designada como matriz fundamental e é uma rica fonte
de informação sobre cadeias de Markov. Os elementos dessa matriz dão os números de passos
(ou os números de vezes) que o processo visita os estados não absorventes antes de alcançar a
absorção (vide expressão (5.12)).
Antes de passarmos a um exemplo de aplicação vamos estabelecer mais um
conceito importante sobre cadeias absorventes. Suponhamos que o processo tenha partido do
estado não absorvente i e desejamos calcular a probabilidade de absorção no estado j . Note-
se que aqui o índice j indica um estado absorvente.
Teorema 5.4: Para uma cadeia de Markov com pelo menos um estado absorvente, a
probabilidade do processo que partiu do estado não absorvente i ser absorvido no estado j é
o elemento da posição ),( ji da matriz que resulta do produto CQI 1)( −− .
A demonstração deste teorema é deixada como exercício para o leitor. A
referência (SHAMBLIN, 1989) traz um argumento que pode auxiliar o leitor nesta tarefa.
175
Outra forma possível para se concluir pela validade do Teorema 5.4 é
mostrar que o limite n
nPlim
∞→ comporta-se como mostrado a seguir (TRIVEDI, 2002).
−=
=
−
∞→∞→ I
CQII
CQP
n
n
n
n 0)(0
0limlim
1.
(5.20)
Estamos de posse de métodos e informações que permite resolver um
exemplo de aplicação.
Exemplo 5.8: Considere o problema do enunciado do Exemplo 5.3. Ambas as turbinas em
falha constituem um estado absorvente, do qual só se pode escapar se uma das turbinas puder
ser consertada enquanto o navio estiver completamente parado, ou, se de algum modo,
turbinas novas puderem ser transportadas ao navio. Desejamos determinar o tempo médio (ou
seja, o número de passos) para o navio paralisar totalmente suas máquinas supondo que ele se
encontra com ambas as turbinas operando normalmente. Calcule também as probabilidades de
absorção.
Do Exemplo 5.3, temos que a matriz de probabilidades de transição para
este problema é a seguinte:
=10004,042,054,001,018,081,0
012
012
P.
De acordo com a expressão (5.18), as matrizes Q , C e I são como dadas a
seguir.
=
42,054,018,081,0
Q ,
=
04,001,0
C e [ ]1=I .
176
A primeira pergunta refere-se ao número de passos para alcançar o estado
absorvente 0 tendo partido do estado 2. Portanto, necessitamos calcular a matriz 1)( −− QI .
−−
=
−
=−
58,054,018,019,0
42,054,018,081,0
1001
QI ,
=
−−
=−−
−6154,145385,418462,186154,44
58,054,018,019,0
)(1
1QI .
A matriz fundamental 1)( −− QI é então da seguinte forma:
=− −
6154,145385,418462,186154,44
12
)( 1QI .
A resposta à primeira questão é a soma dos elementos da primeira linha da
matriz fundamental, que resulta em 4616,638462,186154,44 =+ . Isto significa que se duas
turbinas estiverem em operação, o número esperado de passos até que as duas se estraguem é
de 63,5 unidades de tempo.
As probabilidades de absorção são calculadas com base no Teorema 5.4.
=
=
−−
=−−
−000,1000,1
04,001,0
6154,145385,418462,186154,44
04,001,0
58,054,018,019,0
)(1
1CQI .
=− −
000,1000,1
12
)( 1CQI .
Partindo do estado com duas turbinas, a probabilidade de absorção é igual a
1. Do mesmo modo, partindo do estado com uma turbina, a probabilidade de absorção é
também igual a 1.
As probabilidades para alcançar a absorção partindo de qualquer um dos
estados não absorventes nem sempre são iguais a unidade. Isto ocorreu neste exemplo porque
na cadeia de Markov analisada há apenas um estado absorvente. O exemplo que será
apresentado a seguir considera uma cadeia com dois estados absorventes e tem por objetivo
177
principal mostrar uma forma alternativa ao Teorema 5.3 de se calcular os tempos médios para
absorção.
Exemplo 5.9: Um reservatório de uma usina hidrelétrica é utilizado com a finalidade de
prover renda adicional à população que habita suas vizinhanças através da atividade
pesqueira. Periodicamente, a companhia que detém a concessão supre o reservatório com
alevinos, que se tornarão adultos, procriarão e também servirão ao propósito da pesca.
Estudos mostraram que existem dois bons estados para pesca, os quais serão designados por
2s e 3s . No entanto, se a atividade pesqueira for intensificada, a população de peixes pode
cair a níveis em que a pesca precisa ser interrompida por certo tempo. Além disso, por causas
naturais, o crescimento excessivo da população de plantas aquáticas (algas e outras) pode
alcançar um nível a ponto de prejudicar a pesca, levando também a suspensão da atividade,
que somente será retomada após a limpeza do lago. Este sistema físico foi modelado como um
processo de Markov em que o período de tempo considerado razoável para ser tomado como
unidade de tempo é de um mês (isto significa que um passo equivale ao tempo de um mês). O
estado que corresponde a inserção de alevinos no reservatório é um estado transitório e é
denotado por 1s . Os estados de interrupção da pesca por redução do número de peixes e
suspensão da atividade por poluição aquática são simbolizados, respectivamente, por 4s e 5s ,
sendo estes estados absorventes. As probabilidades de transição foram levantadas por
métodos estatísticos e estão indicadas na matriz mostrada a seguir. Desejamos conhecer o
comportamento deste processo no regime estacionário. Determine os tempos de primeira
passagem partindo de estados não absorventes até os estados absorventes. Calcule também a
probabilidade de absorção no estado 4s se o processo partiu do estado transitório.
=
10000010001,02,02,05,001,01,07,01,001,01,008,00
5
4
3
2
1
54321
s
s
s
s
s
P
sssss
.
178
O grafo da cadeia de Markov deste exemplo está ilustrado na Figura 5.7 a
título de ilustração apenas. Note-se nesta figura o estado transitório 1s e os estados
absorventes 4s e 5s .
Figura 5.7: Diagrama de transição da cadeia de Markov do modelo de piscicultura do
reservatório.
Os tempos médios para alcançar a absorção, que são os números esperados
de meses para atingir os estados absorventes, podem ser calculados pela aplicação do
Teorema 5.3, de maneira análoga ao que foi feito no exemplo anterior.
−−
−=
−
=−8,05,007,09,00
08,01
2,05,007,01,00
08,00
100010001
QI →
=
−−
−=−
−
−
43,235,1089,116,2051,173,11
8,05,007,09,00
08,01)(
1
1QI .
A matriz fundamental 1)( −− QI é então da seguinte forma:
2s 1s
5s
4s 3s
8,0
1,0 1,0
1,0
7,0 1,0 5,0 1,0
2,0
1,0
1
1
2,0
179
=− −
43,235,1089,116,2051,173,11
)(
3
2
11
s
s
s
QI .
Os passos esperados antes da absorção são mostrados na Tabela 5.3.
Tabela 5.3: Cálculos dos passos esperados antes da absorção a partir dos elementos da matriz
fundamental.
Estado não absorvente de partida Passos esperados antes da absorção
1s 24,451,173,11 =++ meses
2s 05,489,116,2 =+ meses
3s 78,343,235,1 =+ meses
Os passos calculados na Tabela 5.3 são os tempos para absorção partindo de
estados não absorventes.
As probabilidades de absorção são obtidas aproveitando-se a matriz
fundamental com base no procedimento proposto no Teorema 5.4.
=− −
1,02,01,01,01,01,0
43,235,1089,116,2051,173,11
)( 1CQI ,
=− −
38,062,041,059,0
42,058,0
)(
3
2
11
54
s
s
s
CQI
ss
.
A probabilidade de absorção no estado 4s se o processo partiu do estado
transitório é 58,0 .
Os números que figuram na matriz obtida anteriormente podem ser obtidos
aplicando o processo iterativo estabelecido na seção 5.3.4 que foi também utilizado no
Exemplo 5.6. Arbitrando o vetor inicial [ ]00001)0( =v , após trinta iterações, obtém-
180
se o vetor [ ]4243,05756,00001,00001,00)30( =v . Os dois últimos elementos de )30(v
referem-se aos estados absorventes.
Um método alternativo de obtenção dos tempos de primeira passagem usa
as fórmulas recursivas (5.12) e (5.13). A aplicação dessas fórmulas exige cálculos sucessivos
de potências da matriz de probabilidades de transição, o que implica necessariamente no
emprego de computador (HILLIER e LIEBERMAN, 1995).
Vamos exemplificar os cálculos supondo 1s o estado de partida, ou seja,
.1=i Para 4=j , temos:
1,0)1()1( 1414 == pf ,
44141414 )1()2()2( pfpf −= → 11,018,0)2(14 ×−=f → 08,0)2(14 =f ,
441444141414 )2()2()1()3()3( pfpfpf −−= → 108,011,03,0)3(14 ×−×−=f → → 12,0)3(14 =f ,
4414441444141414 )3()2()2()3()1()4()4( pfpfpfpf −−−= → → 112,0108,011,03624,0)4(14 ×−×−×−=f → 0624,0)4(14 =f ,
44144414441444141414 )4()2()3()3()2()4()1()5()5( pfpfpfpfpf −−−−= → 10624,0112,0108,011,04207,0)5(14 ×−×−×−×−=f → ,0583,0)5(14 =f .
Para 5=j , temos:
1,0)1()1( 1515 == pf ,
55151515 )1()2()2( pfpf −= → 11,018,0)2(15 ×−=f → 08,0)2(15 =f ,
551555151515 )2()2()1()3()3( pfpfpf −−= → 108,011,0244,0)3(15 ×−×−=f → → 064,0)3(15 =f ,
5515551555151515 )3()2()2()3()1()4()4( pfpfpfpf −−−= → → 1064,0108,011,02896,0)4(15 ×−×−×−=f → 0456,0)4(15 =f ,
55155515551555151515 )4()2()3()3()2()4()1()5()5( pfpfpfpfpf −−−−= → 10456,01064,0108,011,03244,0)5(15 ×−×−×−×−=f → ,0348,0)5(15 =f .
Obviamente os cálculos devem continuar até um valor de n considerado
alto. A Tabela 5.4 mostra os resultados parciais obtidos com o uso do computador.
Aplicamos então a expressão (5.12) duas vezes, resultando em 14µ e em 15µ .
2,544814 =µ e 1,698115 =µ .
181
Adicionando os dois tempos médios, encontramos o número esperado de
passos antes da absorção partindo do estado 1s , 2429,46981,15448,2 =+ meses. Este
resultado se arredondado com duas casas decimais é o mesmo obtido anteriormente através da
matriz fundamental (vide Tabela 5.3).
Tabela 5.4: Valores de )(14 kf e )(15 kf para 40,,2,1 =k .
)(14 kf )(15 kf 0,1000 0,0091 0,0005 0,0000 0,1000 0,0058 0,0003 0,0000 0,0800 0,0068 0,0004 0,0000 0,0800 0,0043 0,0002 0,0000 0,1200 0,0050 0,0003 0,0000 0,0640 0,0032 0,0002 0,0000 0,0624 0,0037 0,0002 0,0000 0,0456 0,0024 0,0001 0,0000 0,0583 0,0028 0,0001 0,0000 0,0348 0,0018 0,0001 0,0000 0,0381 0,0021 0,0001 0,0000 0,0255 0,0013 0,0001 0,0000 0,0307 0,0015 0,0001 0,0000 0,0191 0,0010 0,0001 0,0000 0,0218 0,0011 0,0001 0,0000 0,0142 0,0007 0,0000 0,0000 0,0167 0,0009 0,0000 0,0000 0,0106 0,0005 0,0000 0,0000 0,0122 0,0006 0,0000 0,0000 0,0078 0,0004 0,0000 0,0000
O livro intitulado Matrix Analysis and Applied Linear Algebra, uma
publicação da SIAM de autoria de Carl D. Meyer, traz interessante abordagem sobre a Teoria
de Perron-Frobenius, que pode auxiliar o leitor na compreensão deste capítulo
especificamente no que se refere ao tratamento de matrizes estocásticas.
Existem processos estocásticos com características de processos de Markov
em que o tempo não é uma variável discreta, embora os estados sejam discretos. Esta classe
de processos markovianos será estudada na seção seguinte.
5.4 Processos de Markov de tempo contínuo
Processos de Markov de tempo contínuo são similares aos processos de
Markov de tempo discreto exceto pelo fato de que as transições entre estados podem ocorrer
em qualquer instante de tempo. O conjunto que denota o espaço de estados do processo, a
exemplo dos processos de Markov estudados anteriormente, é discreto, podendo ser finito ou
infinito.
Com o objetivo de caracterizar precisamente os processos markovianos de
tempo contínuo, buscaremos a seguir estabelecer formalmente as relações que regem seu
comportamento.
182
Em primeiro lugar, a Definição 5.1 se aplica aos processos de Markov de
tempo contínuo, em particular a expressão (5.3). Resta definir probabilidades de transição.
Definição 5.12: (Probabilidades de transição) Sejam dois estados i e j , o instante de tempo u
tal que tu ≤≤0 , e )(tX e )(uX as variáveis aleatórias discretas que contêm os números dos
estados nos tempos t e u , respectivamente, a probabilidade de transição ),( tupij é definida
pela probabilidade condicional
))(|)((),( iuXjtXPtupij === ,
sendo i , j ,2,1,0= , e
≠=
=ji
jittpij se,0
se,1),( .
As cadeias de Markov 0;)( ≥ttX são designadas como cadeias tempo-
homogêneas se as probabilidades de transição ),( tupij dependem somente da diferença de
tempos ut − .
Para definirmos completamente um processo de Markov de tempo contínuo
precisamos definir as probabilidades dos estados, )(tp j no instante t , para j ,2,1,0= .
Definição 5.13: (Probabilidade de estado) A probabilidade do processo ser encontrado no
estado j no instante de tempo t é definida por
))(()( jtXPtp j == .
Com base no teorema da probabilidade total, expressamos ))(( jtXP =
como o somatório:
===i
iuXPiuXjtXP ))(())(|)(( ,
de modo que, para 0=u , resulta na expressão:
183
=i
jijj ptptp )0(),0()( . (5.21)
A expressão (5.21) mostra que um processo de Markov de tempo contínuo
está completamente definido se as probabilidades de transição e o vetor inicial de
probabilidades dos estados, )]0()0()0([)0( 10 Mpppp = , são especificados,
para 1+M estados.
Em seguida, apresentaremos uma conseqüência notável das propriedades
dos processos de Markov de tempo contínuo.
Uma propriedade inerente às cadeias de Markov de tempo contínuo do tipo
tempo-homogêneas é que o futuro do processo é completamente definido no estado presente.
Portanto, a distribuição da variável aleatória tempo de permanência de um processo em um
dado estado deve ser ‘sem memória’. Designando por Y tal variável aleatória, a seguinte
probabilidade condicional
)()|( rYPtYrtYP ≤=≥+≤
descreve objetivamente essa propriedade.
Para auxiliar o leitor na compreensão desse conceito foi elaborada a Figura
5.8, na qual estão ilustradas no eixo dos tempos as localizações de t e r , sendo ],[ rttY +∈ .
A variável r é uma variável auxiliar que, no decorrer da análise, tenderá a zero.
Figura 5.8: Localização de variáveis no eixo dos tempos.
Com base na referência (TRIVEDI, 2002), segue então o teorema.
Teorema 5.5: Para cadeias de Markov tempo-homogêneas, a variável aleatória tempo que o
processo gasta (ou permanece) num dado estado possui distribuição exponencial negativa com
taxa igual a β .
tempo 0 r t rt +
futuro presente
184
A demonstração deste teorema é como segue. Seja )(tfY a função
densidade de probabilidade exponencial, tal que tY etf ββ −=)( , ),0[ ∞∈t ,
dttdF
tf YY
)()( = ,
de modo que genericamente )()( tYPtFY ≤= . A derivada de )(tFY será denotada por )(' tFY .
Do conceito de probabilidade condicional (propriedade ‘sem memória’)
advém a expressão
)(1)()(
)()(
)()(
tFtFrtF
rFtYP
rtYtPrYP
Y
YYY −
−+=→≥
+≤≤=≤ .
Se dividirmos ambos os membros da expressão anterior por r e tomarmos o
limite para 0→r teremos a equação diferencial seguinte (lembremos do quociente de
Newton do Cálculo Diferencial e Integral):
)(1)(
)0('
'tF
tFF
Y
YY −
= ,
cuja solução é a função exponencial
tFY
YetF )0('1)( −−= → t
Y etF β−−= 1)( .
Portanto, a função densidade de probabilidade para a variável aleatória
tempo gasto num dado estado das cadeias de Markov do tipo tempo-homogêneas é a
exponencial com taxa β .
Nas análises de cadeias de Markov de tempo contínuo necessitamos da
definição de taxa de transição entre dois estados (TRIVEDI, 2002).
Definição 5.14: (Taxa de transição) À função contínua não negativa )(tqij definida por
ut
ijij t
utptq
=∂∂
=),(
)(
damos o nome de taxa de transição do processo do estado i para o estado j .
185
Para uma cadeia de Markov de tempo contínuo, as taxas de transição e as
probabilidades dos estados são relacionadas por meio da equação de Kolmogorov mostrada
em (5.22) (TRIVEDI, 2002).
+−=≠ ji
iijjjj tptqtptq
dt
tdp)()()()(
)(.
(5.22)
Na equação (5.22), )(tqij é a taxa de transição estabelecida na Definição
5.14 e jq é o somatório das taxas de transição do estado j aos estados adjacentes.
Vamos ilustrar a aplicação da equação (5.22) para uma cadeia de dois
estados que está ilustrada na Figura 5.9 com suas taxas de transição.
Figura 5.9: Diagrama de transição de uma cadeia de Markov de tempo contínuo com dois
estados.
Observando o diagrama da Figura 5.9, tem-se que:
010 qq = e 101 qq = .
Escreveremos em seguida, para cada estado, a equação (5.22):
110000 pqpq
dtdp +−= ,
001111 pqpq
dtdp +−= .
Para efeito de simplificação admitiremos as taxas de transição constantes e a
seguinte notação: λ=01q e µ=10q . Em regime estacionário, as equações diferenciais
reduzem-se a equações algébricas linearmente dependentes.
01q
1 0
10q
)(1 tp )(0 tp
186
0)()( 10 =∞+∞− pp µλ , 0)()( 01 =∞+∞− pp λµ .
Negligenciamos uma das equações e utilizamos o fato de
que 1)()( 10 =∞+∞ pp para obter as probabilidades dos estados em regime estacionário.
µλµ+
=∞)(0p ,
µλλ+
=∞)(1p .
É interessante neste ponto do texto estabelecer a notação correta para
probabilidades dos estados em regime estacionário, que é basicamente a mesma utilizada na
seção que tratou de processos de Markov de tempo discreto, de acordo com a Definição 5.8.
A probabilidade limite ou probabilidade estacionária para o estado j é dada
pelo limite )(lim tpv jt
j ∞→= . Para tornar mais clara a análise da cadeia de dois estados feita
anteriormente considere o exemplo apresentado a seguir.
Exemplo 5.10: Calcular as probabilidades instantâneas dos estados 0 e 1 que constam do
diagrama de transição da Figura 5.9. Uma vez calculadas as funções )(0 tp e )(1 tp , determine
pela aplicação de limite para ∞→t as probabilidades estacionárias.
Dos cálculos efetuados anteriormente, tem-se:
100 pp
dtdp µλ +−= ,
011 pp
dtdp λµ +−= .
Para qualquer instante t , a soma 1)()( 10 =+ tptp deve se verificar. Depois
de realizadas substituições, chegamos às equações diferenciais de primeira ordem seguintes:
µµλ =++ 00 )( p
dtdp
,
λµλ =++ 11 )( p
dtdp
.
187
Ao resolvermos estas equações, supondo que o processo tenha partido do
estado 0, isto é, 1)0(0 =p e 0)0(1 =p , obtemos as soluções que são as probabilidades
instantâneas dos estados.
tetp )(0 )( µλ
µλλ
µλµ +−
++
+= ,
tetp )(1 )( µλ
µλλ
µλλ +−
+−
+= .
Para concluir o exemplo, supondo 0>+ µλ calculamos os limites das
funções )(0 tp e )(1 tp para ∞→t para obter as probabilidades estacionárias, 0v e 1v .
µλµ
µλλ
µλµ µλ
+=
++
+= +−
∞→∞→
t
ttetp )(
0 lim)(lim → µλ
µ+
=0v ,
µλλ
µλµ
µλλ µλ
+=
+−
+= +−
∞→∞→
t
ttetp )(
1 lim)(lim → µλ
λ+
=1v .
Ficam, dessa forma, estabelecidos os elementos fundamentais que
permitirão a análise de cadeias de Markov de tempo contínuo em regime estacionário.
5.4.1 Análise de cadeias de Markov de tempo contínuo para o regime estacionário
O nosso interesse resume-se aos processos de Markov que tenham
alcançado o regime estacionário. Isto quer dizer que pretendemos aplicar a teoria para análises
de problemas a longo prazo. Do ponto de vista das equações, os modelos serão independentes
da variável tempo e, conseqüentemente, não trataremos com equações diferenciais, embora os
modelos tenham origem na equação de Kolmogorov dada em (5.22).
Nas condições descritas, a equação de Kolmogorov para o −j ésimo estado
é conforme mostrada por (5.23).
+−=≠ ji
iijjj vqvtq )(0 para Mj ,,2,1,0 = . (5.23)
188
Para permitir a análise em regime estacionário, o elemento chave é a matriz
de transição a exemplo do que foi feito para cadeias de tempo discreto. O primeiro passo
naturalmente consistirá em estabelecer procedimentos sistemáticos para obter tal matriz.
5.4.1.1 Obtenção da matriz de transição
Consideremos dois pontos de partida possíveis:
- obtenção de P a partir do diagrama de transição; e
- obtenção de P a partir da equação de Kolmogorov.
No primeiro caso, o índice de cada estado é associado a uma única linha e a
uma única coluna da matriz, caracterizando genericamente um elemento de fora da diagonal
da matriz P pelo par ordenado ),( ji , com ji ≠ . O elemento da posição ),( ji , com ji ≠ ,
associa-se univocamente com o arco orientado do diagrama de transição da cadeia de Markov
que parte do estado i e vai até o estado j . Assim, tem-se a seguinte lei de formação da matriz
de transição obtida a partir de um dado diagrama de transição,
elemento da posição jiji
≠),( = taxa ijq (arco orientado de i para j ),
(5.24) elemento da posição ),( jj = jq−1 .
Para exemplificar este procedimento de obtenção da matriz P , tomaremos
como exemplo uma cadeia com quatro estados (BILLINTON, 1970).
Exemplo 5.11: Dado o diagrama da cadeia de Markov ilustrado na Figura 5.10, obtenha a
matriz de transição correspondente. Observe que nem todos os nós estão interligados.
1 0
4µ
1µ
2µ
1λ
3λ
2λ 4λ
189
Figura 5.10: Diagrama de transição de uma cadeia de Markov de tempo contínuo com quatro
estados.
Aplicamos então a regra estabelecida pela expressão (5.24) para os
elementos de fora da diagonal, donde obtemos a Tabela 5.5.
Tabela 5.5: Elementos de fora da diagonal obtidos a partir do diagrama de transição.
Arco Posição e elemento Arco Posição e elemento De 0 a 1 (0,1) → 1λ De 2 a 0 (2,0) → 2µ De 0 a 2 (0,2) → 2λ De 2 a 1 (2,1) → 0 De 0 a 3 (0,3) → 0 De 2 a 3 (2,3) → 3λ De 1 a 0 (1,0) → 1µ De 3 a 0 (3,0) → 0 De 1 a 2 (1,2) → 0 De 3 a 1 (3,1) → 4µ De 1 a 3 (1,3) → 4λ De 3 a 2 (3,2) → 3µ
O elemento da diagonal da matriz é obtido subtraindo da unidade a soma
das taxas cujos arcos deixam o nó considerado. Portanto, os elementos da diagonal são:
Posição (0,0) → )(1 21 λλ +− Posição (1,1) → )(1 41 λµ +− Posição (2,2) → )(1 32 λµ +− Posição (3,3) → )(1 43 µµ +− .
Conseqüentemente, a matriz de transição para este exemplo fica conforme
indicada a seguir.
190
+−+−
+−+−
=
)(10)(10
0)(10)(1
3210
3210
4334
3322
4411
2121
µµµµλλµµλλµµ
λλλλ
P.
Por outro lado, se for conhecido o sistema de equações que decorre da
aplicação de (5.23) a todos os estados, a obtenção da matriz de transição obedece ao seguinte
procedimento genérico.
Para a equação do estado j adicionamos a variável jv ao primeiro e ao
segundo membros simultaneamente e, em seguida, agrupamos os termos semelhantes
deixando a probabilidade estacionária jv explícita no primeiro membro. Repetimos este
procedimento para todos as 1+M equações do sistema. A idéia é reescrever o sistema sob a
forma conhecida vPv = , onde P é a matriz que se deseja obter.
Exemplificaremos este procedimento através do Exemplo 5.12.
Exemplo 5.12: Dado o sistema de equações de uma cadeia de Markov de três estados, obtenha
a matriz de transição correspondente.
012
201
210
233040
230
vvv
vvv
vvv
++−=++−=++−=
.
Adicionamos 0v , 1v e 2v a ambos os membros das equações dos estados 0,
1 e 2, respectivamente,
01222
20111
21000
2334
23
vvvvv
vvvvv
vvvvv
++−=++−=++−=
.
Após agrupar os termos semelhantes obtemos:
191
0122
2011
2100
23)31()41(
2)31(
vvvv
vvvv
vvvv
++−=++−=++−=
→
0122
2011
2100
2323
22
vvvv
vvvv
vvvv
++−=++−=++−=
,
2102
2101
2100
2323
22
vvvv
vvvv
vvvv
−+=+−=++−=
.
Por fim, resulta o sistema na forma matricial, onde a matriz de transição está
explícita.
[ ] [ ]
−−
−=
232131212
210210 vvvvvv ,
−−
−=
232131212
210
210
P.
Quanto à classificação das cadeias, a mesma classificação apresentada nas
seções que trataram de processos discretos no tempo é válida, exceto o conceito de
periodicidade que está atrelado ao conceito de passos. Assim, teremos, como antes, cadeias
com estados recorrentes e cadeias com estados transitórios. A classe das cadeias recorrentes
compreende também as cadeias absorventes. Um estado i é dito ser absorvente se 0=ijq
para ji ≠ , de modo que, uma vez que se o processo entra neste estado, o mesmo é destinado
a permanecer nele. Como definido anteriormente, em uma cadeia irredutível todo estado pode
ser alcançado de qualquer outro estado.
Os processos de Markov de tempo contínuo encontram aplicações em
diversas áreas, dentro as quais destacamos sistemas de filas de espera (processo conhecido
como nascimento e morte) e confiabilidade de sistemas físicos em geral.
192
Vamos ilustrar a análise de cadeias de Markov de tempo contínuo através da
solução de dois exemplos. O primeiro exemplo é transcrito do livro (HILLIER e
LIEBERMAN, 1995).
Exemplo 5.13: Um shopping tem duas máquinas idênticas que são operadas continuamente
exceto quando estão quebradas. Assim que uma máquina se quebra, ela é reparada
imediatamente por um técnico que fica de plantão para atender a emergência. O tempo
requerido para reparar uma máquina tem distribuição exponencial com média de 5,0 dia.
Uma vez que a operação de reparo é concluída, o tempo até a próxima falha é também uma
variável aleatória exponencial com média de 1 dia, sendo estas distribuições independentes.
Defina a variável aleatória )(tX como
=)(tX número de máquinas quebradas no tempo t ,
então os possíveis valores de )(tX são 0, 1 e 2. Portanto, sendo o tempo t uma variável
contínua que se inicia em 0=t , o processo estocástico de tempo contínuo 0;)( ≥ttX dá a
evolução do número de máquinas quebradas.
Dadas às características do problema, este pode ser modelado como um processo de Markov
de tempo contínuo com estados 0, 1 e 2. Conseqüentemente, podemos utilizar as equações de
regime estacionário apresentadas anteriormente para calcular a distribuição de probabilidades
do número de máquinas quebradas a longo prazo. Para proceder à análise, inicialmente,
precisamos determinar as taxas de transição, que comporão a matriz de transição.
Determine:
(a) as taxas de transição do processo;
(b) o diagrama de transição;
(c) a matriz de transição P ; e
(d) o percentual do tempo que ambas as máquinas estarão quebradas.
A solução é como segue. O estado ‘número de máquinas quebradas’
aumenta de 1 quando uma falha ocorre e decresce de 1 quando um reparo ocorre.
Considerando que as máquinas não se estragam ao mesmo tempo e que ambas não são
consertadas simultaneamente, as taxas 02q e 20q são iguais a zero. Se o tempo médio de
reparo é 5,0 dia, a taxa de reparo de qualquer uma das máquinas é 2 . Então, 221 =q e
193
210 =q reparos por dia. O tempo esperado até que uma máquina que está em operação se
estrague é de 1 dia, então 112 =q . Se ambas as máquinas estiverem operacionais, falhas
ocorrem a uma taxa de 211 =+ por dia. Isto significa que 201 =q .
O diagrama de transição do processo descrito é ilustrado na Figura 5.11.
Figura 5.11: Diagrama de transição do sistema de duas máquinas.
Para obter a matriz de transição utilizamos o primeiro procedimento descrito na seção 5.4.1.1.
−−
−=
120122021
210
210
P.
Para calcular as probabilidades estacionárias jv , para 2,1,0=j , utilizamos
as relações vPv = e 10
==
M
jjv , que é resolvida tal com se fez no Exemplo 5.6.
===
2,04,04,0
2
1
0
v
v
v
.
Assim, a longo prazo, ambas as máquinas estarão quebradas por 20% do
tempo, e uma máquina estará quebrada em 40% do tempo.
Estudaremos a seguir um exemplo de aplicação à confiabilidade.
201 =q
1 0
210 =q 2
112 =q
221 =q
194
Exemplo 5.14: É usual em subestações de energia elétrica utilizar dois transformadores
idênticos em paralelo, de modo que a potência de cada um dos equipamentos é suficiente para
atender a instalação. A motivação para isto é aumentar a confiabilidade da subestação
relativamente à alternativa de usar um único transformador. A Figura 5.12 ilustra o esquema
elétrico simplificado para a análise de falha. A seta da figura indica o sentido do fluxo da
energia.
Figura 5.12: Dois transformadores idênticos em paralelo.
No esquema com dois transformadores em paralelo, a indisponibilidade do sistema ocorrerá
apenas se ambas as máquinas estiverem fora de operação, porque implicará na interrupção do
fluxo de energia. Os estados possíveis para os transformadores são: ambos em operação (0 em
falha), um em operação e o outro em falha (1 em falha) e os dois fora de operação (2 em
falha). A taxa de falhas é λ e a taxa de reparo é µ , ambas associadas à distribuições
exponenciais independentes. Suponhamos também que se os dois transformadores estiverem
em operação não é possível que os dois falhem simultaneamente, e nem é possível consertar
dois transformadores ao mesmo tempo. O diagrama de transição do processo está
representado na Figura 5.13.
Figura 5.13: Diagrama de transição da cadeia de Markov de dois transformadores em paralelo.
λ2
1 0
µ
2
λ
µ2
ambos em operação
um em operação e o
outro em falha
ambos em falha
195
Supondo que as condições de regime estacionário sejam verificadas, isto é, ∞→t , determine
as seguintes informações:
(a) a probabilidade de falha do sistema;
(b) a disponibilidade do sistema; e
(c) o tempo médio para o sistema falhar dado que se encontra em plena operação.
Para solucionar o exemplo montamos a matriz de transição a partir do
diagrama da Figura 5.13.
−+−
−=
µµλµλµ
λλ
2120)(1
0221
210
210
P
Para obter as respostas às duas primeiras questões, precisamos calcular as
probabilidades estacionárias dos estados. Para tal utilizamos as relações vPv = e 10
==
M
jjv ,
que são solucionadas pelo método analítico.
2
2
0)( µλ
µ+
=v ,
21)(
2
µλλµ+
=v ,
2
2
2)( µλ
λ+
=v .
Dado que cada unidade é capaz de suprir a instalação, a probabilidade de
falha do sistema corresponde a um ou dois equipamentos em falha, que é 21 vv + ,
21 vv +2
2
)(
2
µλλµλ
++= .
A disponibilidade do sistema, no caso do sistema em paralelo, é a
probabilidade de que ao menos uma unidade esteja em operação (ou seja, disponível),
196
2
2
10)(
2
µλλµµ
++=+ vv .
A resposta ao item (b) está intimamente relacionada à natureza do problema
sob análise; neste caso, depende essencialmente da forma como são ligados os
transformadores. Por exemplo, se os transformadores estivessem em série, a disponibilidade
implicaria necessariamente na operação de ambos.
Para responder à última questão formulada, lançamos mão de um artifício:
supomos que o estado 2 é absorvente e calculamos a partir da matriz de transição modificada
o tempo para alcançar a absorção partindo do estado 0 (ambos em operação). No contexto do
estudo da confiabilidade o tempo para alcançar a falha total do sistema é designado por
MTTF, que é a sigla para Mean Time to Failure (cuja tradução é tempo médio para a falha)
(BILLINTON, 1970).
Supondo o estado 2 um estado absorvente, a matriz de transição, P , é como
segue:
+−−
=100
)(10221
210
210
λµλµλλ
P
A exemplo dos estudos feitos anteriormente na seção 5.3.5, identificamos na
matriz P a sub-matriz Q .
.)(1
22110
10
+−−
=µλµ
λλQ
Calculamos a matriz fundamental 1)( −− QI .
+=− −
λµλµλ
λ 22
2
1)(
21QI
197
Partindo do estado 0 (que é o sistema em plena operação), o MTTF (isto é, o
tempo antes do estado absorvente) é
MTTF = →++ )2(2
12
λµλλ
MTTF =22
)3(
λµλ +
.
Para concluir o estudo deste tema fascinante sugerimos a solução dos
exercícios propostos.
5.5 Exercícios propostos
1. (BRONSON, 1985) Um recenseamento econômico revelou que, numa dada população, as
famílias são divididas em dois grupos: (1) as economicamente estáveis; e (2) aquelas em
depressão. Depois de um período de 10 anos, a probabilidade de que uma família estável
assim permaneça é de 0,92, enquanto a probabilidade dela entrar em depressão é de 0,08. A
probabilidade de que uma família em depressão se torne estável é 0,03, enquanto a
probabilidade de que ela assim permaneça é de 0,97. Calcule a probabilidade de uma família
estável estar em depressão a longo prazo. Obtenha também o tempo médio que uma família
estável permanece nesta condição.
2. Um representante comercial visita seus clientes cada mês. A experiência passada mostra
que, se um cliente fez um pedido no último mês, a probabilidade de um novo pedido no mês
corrente é 0,3, e se não foi efetuado pedido algum no mês passado, a probabilidade é 0,6.
Assim, em cada um dos meses subseqüentes ao primeiro, cada cliente deve encontrar-se em
um dos dois estados:
- estado 0: nenhum pedido no mês passado; e
- estado 1: um pedido no mês passado.
Dessa forma, com base nas probabilidades de transição podemos predizer o comportamento
no futuro. Para um cliente do universo dos que não fizeram pedidos no mês anterior,
determine a probabilidade que o tempo transcorrido para efetuar um novo pedido seja de 3
meses.
3. (SHAMBLIN, 1989) Suponhamos que três fabricantes de automóvel colheram os seguintes
dados sobre as compras de clientes. A Tabela 5.6 representa a probabilidade de um cliente que
198
agora possui Ford (estado 1s ), ,0=n comprar um Ford, Chevrolet (estado 2s ) ou Plymouth
(estado 3s ) na próxima vez, isto é, no próximo passo, 1=n . Informação semelhante é
fornecida para todos os proprietários dos outros modelos.
Tabela 5.6: Probabilidade (%) de compras em função do estado atual.
Próxima compra ( 1=n )
Compra presente ( 0=n )
% compra Ford % compra Chevrolet % compra Plymouth Ford 40 30 30
Chevrolet 20 50 30 Plymouth 25 25 50
Modele o problema como uma cadeia de Markov de tempo discreto com passo igual a um
ano.
Determine:
(a) a matriz de probabilidades de transição para este processo;
(b) a classificação desta cadeia;
(c) as probabilidades estacionárias;
(d) o tempo médio que o comprador de um Ford permanece com esta marca; e
(e) o número esperado de anos que o cliente que atualmente possui um Ford compre um
Plymouth.
Como sugestão para resolver a questão (e) faça artificialmente o estado 3s um estado
absorvente e calcule o tempo esperado para a absorção.
4. Dadas as matrizes de transição para um passo, classifique cada uma das cadeias.
(a)
=3,04,03,06,03,01,07,01,02,0
P ; (b)
=
21
41
81
81
41
41
61
31
01001000
P .
5. Em 1993, a utilização do solo em uma cidade de 130 quilômetros quadrados de área
ocupada apresentava os seguintes índices:
199
uso residencial 30% → estado 1s ;
uso comercial 20% → estado 2s ;
uso industrial 50% → estado 3s .
(a) Calcule os percentuais de ocupação do solo nesta cidade em 2003, assumindo que as
probabilidades de transição para intervalos de 5 anos são dados pela seguinte matriz:
=90100207010101080
3
2
1
321
,,
,,,
,,,
s
s
s
P
sss
.
(b) Encontre as probabilidades limites dos estados de utilização do solo nesta cidade.
6. Em relação exercício anterior sobre ocupação do solo da cidade, suponha que se uma área é
destinada à indústria esta fica imprestável para uso residencial ou comercial. Imaginando o
estado 3s como estado absorvente, determine o número esperado de passos (em anos) até que
uma região que é residencial se torne industrial.
7. As sociedades ocidentais são estratificadas em função do poder aquisitivo de bens das
famílias. Supondo que as classes sociais sejam: (a) classe A – ricos; (b) classe B – classe
média; (c) classe C – pobres; e (d) classes D, E, etc. – miseráveis. No Brasil, o Instituto
Brasileiro de Geografia e Estatística, IBGE, realiza periodicamente um censo econômico, que,
com base em amostragem, traça um perfil razoavelmente preciso da população com o foco na
sua condição sócio-econômica. A cada censo são observadas as mudanças das famílias entre
as classes. Modele o processo como uma cadeia de Markov de tempo discreto, onde os
estados são as classes indicadas anteriormente e o estado do item (d) é um estado absorvente.
Para análise, considere os dados que constam da matriz de probabilidades de transição. Se o
passo é o intervalo de tempo igual a 10 anos, calcule o número de passos antes da absorção se
o processo partiu do estado ‘rico’. Ao usar a matriz, considere as seguintes associações:
pobre → 0 miserável → 1 médio → 2 rico → 3
200
=
3,06,001,01,05,01,03,0
00101,01,04,04,0
3210
3210
P.
8. Elabore um programa de computador para calcular )(kfij , sendo 1=i e 5,4=j , de modo
que a partir dos dados do Exemplo 5.9 sejam reproduzidos os resultados que constam da
Tabela 5.4.
9. (BILLINTON, 1970) Dois equipamentos idênticos são instalados e operam em série.
Suponha três estados para modelar o processo como uma cadeia de Markov de tempo
contínuo com taxas λ e µ , respectivamente, para falha e reparo. Mostre que a
disponibilidade do sistema vale 2
2
)( µλµ+
e que a MTTF é igual a λ21 . (MTTF é o tempo
médio para a falha).
10. Um sistema com um único servidor aberto ao público tem seus tempos de atendimentos
distribuídos exponencialmente com taxa igual a µ . Os tempos entre chegadas dos usuários
que demandam pelo serviço desses guichês também exibem a distribuição exponencial com
taxas iguais a λ . Os usuários que acessam o sistema surgem segundo o modelo de Poisson. O
estado é caracterizado pelo número de usuários presentes, 0 , 1, 2 , , ∞ . Nessas condições,
o sistema se enquadra como um processo de nascimento e morte, podendo ser descrito como
uma cadeia de Markov infinita de tempo contínuo. Desenhe o diagrama de transição dessa
cadeia e escreva as equações de Kolmogorov para o regime estacionário. Supondo que µλ < ,
com base em séries convergentes, prove que a expressão para a probabilidade estacionária 0v
em função do quociente µλρ = é
ρ−= 10v , onde, 0v é a probabilidade de encontrar o sistema vazio, ou seja, livre de usuários. Neste
exercício você precisará usar o resultado da série:
xxxxxxS
i
i
−=++++== ∞∞
= 11210
0 , se 10 << x .
Capítulo 6
Sistemas de Filas de Espera
Uma fila de espera ocorre sempre que a demanda por um serviço excede
num dado instante a capacidade do sistema para prover o serviço. Um sistema de fila de
espera é um conceito mais geral do que simplesmente pessoas aguardando em fila para
receberem atendimento em um estabelecimento de prestação de serviços. Podemos citar
alguns exemplos de sistemas de filas de espera, como a seguir: atendimento de chamadas
telefônicas de uma companhia, o sistema de atendimento ao consumidor (normalmente
designado pela sigla SAC), processos esperando em fila pela execução numa rede de
computadores e aviões que chegam e solicitam permissão para aterragem num aeroporto,
dentre outros.
Em análises de sistemas de filas de espera normalmente desejamos obter
informações objetivas sobre a capacidade de serviço que deve ser disponibilizada aos usuários
e os custos operacionais envolvidos desde a espera até o atendimento. Se por um lado a
capacidade de serviço for insuficiente, tempos de espera excessivos podem implicar em custos
adicionais por perdas de consumidores e ociosidade da parte de quem espera, enquanto que,
por outro lado, oferecer muita capacidade de serviço requer investimentos e pode levar
ociosidade ao sistema de atendimento. A teoria de filas de espera trabalha, portanto, com
objetivos conflitantes. Dado um modelo, a principal motivação para seu estudo está na busca
de soluções que representem um ponto de equilíbrio entre os conflitos.
Há um grande número de modelos matemáticos de filas de espera que
permite descrever diferentes situações observadas na prática. Existem modelos elementares
para descrever sistemas de filas com um único atendente em que o número máximo de
consumidores permitido no sistema é ilimitado, assim como também aqueles sistemas que são
tão complexos que se mostram mais adequados para serem resolvidos através de simulação
computacional ao invés da utilização de modelos analíticos.
Normalmente, quando estudamos sistemas de filas procuramos respostas
sob a forma de medidas objetivas que sejam capazes de orientar o projetista do sistema. As
grandezas mais comuns são:
202
– o tempo médio que um usuário aguarda pelo atendimento;
– o grau de ociosidade do sistema de atendimento;
– o número médio de usuários no sistema;
– o número médio de usuários na fila.
Uma característica normalmente exibida pelos sistemas de filas mais
complexos é a incerteza dos dados de entrada. Por exemplo, na maioria dos sistemas de filas,
não é possível precisar exatamente em que instante um usuário irá acessar o sistema e nem
tampouco quanto tempo vai durar o seu atendimento. Um sistema desse tipo é dito de
natureza estocástica e o seu funcionamento é descrito como um processo estocástico.
Com o objetivo de descrever os principais modelos analíticos de sistemas de
filas de espera, vamos apresentar a seguir uma notação universalmente aceita: a notação de
Kendall-Lee. Também serão apresentados elementos básicos de sistemas de filas.
6.1 Elementos Básicos de Sistemas de Filas e Notação de Kendall-Lee
Em qualquer sistema de filas podemos identificar os seguintes elementos:
– a fila propriamente dita, que é caracterizada essencialmente por aqueles indivíduos que não
são atendidos assim que chegam e podem esperar pelo serviço;
– o servidor que tem a função de prover o serviço ao usuário, que pode ou não seguir uma
sistemática de atendimento, identificando-se aí o atendente e o mecanismo de serviço;
– a fonte de usuários do sistema de filas.
A Figura 6.1 ilustra os elementos básicos de um sistema de filas de espera.
Figura 6.1: Elementos básicos de um sistema de filas.
Fonte de usuários Fila Servidor
consumidores consumidores
servidos
203
A fonte de usuários do sistema de filas é composta pelos consumidores
potenciais do serviço oferecido pelo sistema. Uma característica da fonte de usuários é o seu
tamanho. Por exemplo, o escritório de uma seguradora de veículos oferece atendimento aos
seus segurados numa cidade. O número de usuários que demandam pelos serviços oferecidos
pelo escritório é um subconjunto pequeno da população da cidade. Não devemos confundir o
tamanho da fonte de usuários com a capacidade do sistema de fila. A capacidade do sistema
está associada ao máximo número de usuários que o sistema pode comportar num dado
período de seu funcionamento. Numa modelagem simplificada, geralmente supomos que a
fonte e a capacidade do sistema são ilimitadas e a razão para isto é que as expressões resultam
mais simples e conduzem a cálculos mais fáceis. Todavia, podemos ter um modelo em que a
capacidade do sistema é limitada e a fonte de usuários, mesmo não sendo infinita, mas por ter
um tamanho muito grande é suposta infinita. Neste último caso, as expressões serão mais
complexas que na abordagem simplificada.
O comportamento estatístico dos consumidores para acessarem o sistema de
filas pode ser descrito por uma distribuição de probabilidades empírica que pode ser
representada por um modelo analítico conhecido de probabilidade. O modelo de Poisson é
comumente usado para descrever a forma como os consumidores são gerados pela fonte e,
para definir completamente essa distribuição, é necessário ter apenas a taxa média de
chegadas.
Um aspecto importante associado à fila é a ordem com que os usuários são
selecionados para o atendimento. Isto é referido como disciplina da fila. Por exemplo, o
critério adotado pode ser ‘primeiro a chegar, primeiro a ser atendido’, ou alguma outra ordem.
O tempo transcorrido desde o começo do atendimento até a sua conclusão
para um consumidor que está recebendo o serviço é o tempo de serviço. Para descrever o
atendimento, devemos especificar uma distribuição de probabilidade para os tempos de
serviço. A distribuição mais comumente especificada para tempos de serviço é a distribuição
exponencial.
Diante do exposto, percebemos que pode haver uma grande variedade de
combinações de características de sistemas de filas, sendo que cada uma dessas combinações
implicará num modelo diferente. Daí surge a notação atribuída a Kendall e a Lee. O uso desta
notação tem a finalidade de descrever os sistemas de filas de espera de modo claro e objetivo.
204
A notação de Kendall-Lee consiste de rótulos dispostos em forma
seqüencial como mostra o exemplo ilustrado na Figura 6.2, de modo que cada rótulo possui
um significado.
M / M / s : FIFO / C / K Distribuição dos tempos
entre chegadas
Distribuição dos tempos de
serviço
Número de servidores
Disciplina da fila
Número máximo de
consumidores no sistema
Tamanho da fonte
de usuários
Figura 6.2: Um exemplo de notação de Kendall-Lee.
O primeiro campo descreve o processo de chegada e o segundo campo o
modelo estatístico do atendimento. As letras mais usadas são as seguintes: M , D , E e G .
M no primeiro campo significa que o processo de chegada é do tipo Poisson e os tempos
entre chegadas têm distribuição exponencial. M no segundo campo quer dizer que o
atendimento segue o modelo de Poisson e os tempos de atendimento obedecem a distribuição
exponencial. A letra M é uma alusão ao termo ‘markoviano’ implicando em distribuição
exponencial para tempos de serviço e tempos entre chegadas, de acordo com o que está
demonstrado na seção 5.4 que trata de processos de Markov de tempo contínuo. As demais
letras significam: D é determinístico, G é uma distribuição genérica e E é a distribuição de
Erlang. Quanto ao símbolo G , um sistema de filas, por exemplo, do tipo 1// GM , tem
distribuição exponencial dos tempos entre chegadas, os tempos de atendimento possuem
distribuição genérica, o sistema possui um atendente, a disciplina da fila é FIFO (first-in-first-
out), a capacidade do sistema é infinita e a fonte de usuários é ilimitada. Se o modelo de filas
tem distribuição genérica, as grandezas de desempenho do sistema ficam em função da
esperança matemática, )(SE . Neste caso, os tempos de serviço são genericamente
distribuídos de acordo com uma variável aleatória genérica, S .
A disciplina da fila, além de FIFO, pode ser LIFO, que significa ‘último a
chegar, primeiro a ser atendido’, ou PRI, se para o atendimento é observada alguma
prioridade.
Na próxima seção trataremos dos principais conceitos e parâmetros de
sistemas de filas. Posteriormente, obteremos expressões analíticas de cálculo de desempenho
de sistemas de filas iniciando o estudo pelo modelo mais simples, que é o 1// MM .
205
6.2 Conceitos básicos e parâmetros de sistemas de filas
Conhecer a terminologia empregada nos estudos de sistemas de filas é o
primeiro passo no estudo dessa área da Pesquisa Operacional.
Definiremos a seguir alguns termos básicos sobre filas de espera.
Definição 6.1: (Cliente) Elemento que chega e requer atendimento. Os clientes podem ser
pessoas, máquinas, peças, torcedor que vai comprar ingressos, cartas que chegam e devem ser
entregues, carros estacionados, etc.
Alguns sinônimos são usados para o termo cliente, tais como consumidor e
usuário.
Definição 6.2: (Canal de atendimento) Processo ou pessoa que realiza o atendimento do
cliente. É comum usar o termo atendente para referir ao canal de atendimento. Como
exemplos podemos citar a impressora que executa as requisições de impressões numa rede de
computadores, o vendedor de ingressos, o carteiro, o estacionamento, etc.
Quanto à capacidade C do sistema e o número s de atendentes, os sistemas
de filas podem ser classificados como está ilustrado no esquema da Figura 6.3.
Figura 6.3: Um esquema com uma classificação de sistemas de filas.
Os usuários ou clientes chegam ao sistema a uma razão, que é determinada
pela quantidade de usuários dividida pelo intervalo de tempo de observação. Esta taxa é
Capacidade do sistema, C
Modelos de fila
Infinito Finito
Único Único Múltiplo Múltiplo Número de canais de
atendimento, s
206
designada como taxa de chegada e é representada pela letra λ (leia-se “lâmbda”) e é
calculada conforme (6.1).
tempo de intervalochegam que usuários de número=λ .
(6.1)
A freqüência ou a velocidade com a qual os usuários são atendidos ou
recebem o serviço é denominada de taxa de atendimento. Esta taxa é representada pela letra
µ (“mi”) e é calculada pela expressão (6.2).
tempo de intervaloatendidos usuários de número=µ .
(6.2)
Para tornar mais claras as definições dos parâmetros λ e µ , vamos resolver
o seguinte exemplo.
Exemplo 6.1: Clientes chegam a um posto de atendimento e é observado que num intervalo de
tempo de 5 minutos chegam 6 clientes. Qual é a taxa de chegada, λ ? Se no atendimento, em
média, um usuário demanda 40 segundos, qual é a taxa de atendimento?
Aplicamos a expressão (6.1) para calcular λ e obtemos:
minutoclientes2,1minutos5clientes6 ==λ .
Para determinarmos a taxa de atendimento, podemos usar o seguinte
raciocínio: se em média um atendimento é completado em 40 segundos, quantos clientes
serão atendidos num tempo igual a 1 minuto?
x→→
60140
atendidos clientestempo
16040 ×=× x →23
4060 ==x .
207
Portanto, a taxa de atendimento é minutoclientes23=µ .
Os problemas de filas de espera consistem em ajustar adequadamente a taxa
de atendimento do processo com a taxa de chegada do trabalho a ser feito. Do ponto de vista
do projetista, isto é feito através do correto dimensionamento do número de servidores do
sistema de filas. Para entendermos melhor os parâmetros λ e µ , suponha as seguintes
situações extremas para um sistema com um único atendente:
1. Um sistema de fila e atendimento possui uma taxa de chegada λ maior
que a taxa de atendimento µ ;
2. Um outro sistema raramente recebe clientes e quando um cliente
aparece este é atendido imediatamente. Neste caso, a taxa de chegada é
muito baixa e menor que a taxa de atendimento.
As situações imaginadas merecem alguns comentários. A primeira situação
não pode em princípio ser resolvida da forma como está: sendo µλ > não há sistema de
atendimento capaz de absorver esta demanda e a fila tende a crescer indefinidamente. Uma
solução possível é instalar mais guichês de atendimento e dessa forma adequar a taxa de
atendimento às condições da taxa de chegada (isto é, tornar µλ < ). Outra solução, embora
ruim para o cliente, mas aparentemente mais econômica, é limitar o número de clientes que
chegam ao sistema. Para o sistema que recebe poucos clientes e quando os recebe eles são
rapidamente atendidos, podemos supor que não haverá formação de fila. Este é, com certeza,
um sistema mal dimensionado. Neste caso, naturalmente algo deve ser feito no sentido de
adequar λ e µ .
O parâmetro λ é um dado de entrada muito importante nas análises de
sistemas de filas e, por esta razão, devemos discutir de forma mais aprofundada o seu
significado. Primeiramente vamos supor a chegada de, por exemplo, 5 usuários num sistema
de filas hipotético. Suponhamos também que foram anotados os instantes de chegada dos
usuários, denotados por it , com 5,4,3,2,1=i , medidos a partir do instante zero. Esses
tempos são marcados no eixo dos tempos, como ilustra a Figura 6.4.
208
Figura 6.4: Instantes de chegada de usuários num sistema de filas marcados no eixo dos
tempos.
Identificamos na Figura 6.4 os tempos entre chegadas consecutivas, de
modo que para cada usuário é possível associar um único desses tempos. Neste exemplo,
associamos os tempos entre chegadas aos usuários na seguinte ordem:
1º usuário: 011 −= tT 2º usuário: 122 ttT −= 3º usuário: 233 ttT −= 4º usuário: 344 ttT −= 5º usuário: 455 ttT −=
Os tempos entre chegadas são representados pela letra T para evitar
confusão de notação, conforme ilustra a Figura 6.5.
Figura 6.5: Tempos entre chegadas de usuários num sistema de filas marcados no eixo dos
tempos.
Se aplicarmos aos dados deste exemplo a expressão (6.1), calculamos o
parâmetro λ dividindo o número de usuários pelo intervalo de tempo,
tempo de intervalochegam que usuários de número=λ
54321
5
TTTTT ++++=→ λ .
1t 2t 3t 4t 5t 0
1t 2t 3t 4t 5t 0
1T 2T 3T 4T 5T
209
Ora, partindo da análise da última expressão é imediata a constatação de que
a taxa de chegada λ é o inverso da média dos tempos entre chegadas.
Podemos expressar formalmente esta conclusão através da expressão (6.3),
onde TMC é o tempo médio entre chegadas (que é o mesmo que a média dos tempos entre
chegadas).
TMC1=λ .
(6.3)
Uma expressão análoga à expressão (6.3) relaciona a taxa de atendimento µ
e a média dos tempos de serviço, TMS .
TMS1=µ .
(6.4)
Diante do exposto, a segunda parte do Exemplo 6.1 poderia ser resolvida de
forma direta, ou seja, pela aplicação da expressão (6.4), assim,
→= segundos40TMS401=µ ,
que, ao ser convertida para atendimentos por minuto, assume o seguinte valor:
minutoclientes23
4060 ==µ .
É interessante notar quanto aos parâmetros λ e µ , que o parâmetro λ em
geral não permite qualquer controle por parte do projetista do sistema de filas, uma vez que
este valor é determinado pela fonte de usuários. Já o parâmetro µ , embora fortemente
dependente da natureza e volume do serviço demandado pelo usuário, pode ser de algum
modo influenciado pelo projetista do sistema de filas, por exemplo, em função da sistemática
de atendimento e da habilidade do atendente para realizar o serviço.
Depois de levantados os dados λ e µ de um determinado sistema de filas
precisamos obter grandezas que representem medidas objetivas da situação operacional da fila
210
em regime estacionário. Tais grandezas são designadas como medidas de efetividade dos
sistemas de filas.
6.3 Medidas de efetividade dos sistemas de filas
As mais primitivas medidas de efetividade são as esperanças matemáticas da
variável aleatória tempo que os usuários permanecem na fila e da variável aleatória tempo que
os usuários permanecem no sistema.
Designamos os símbolos T , Q e S para representar as variáveis aleatórias
‘tempo no sistema’, ‘tempo na fila’ e ‘tempo de serviço’, respectivamente, para um
consumidor selecionado aleatoriamente. Os valores esperados dessas variáveis aleatórias são
)(TE , )(QE e )(SE , respectivamente, para T , Q e S .
O tempo de espera é o tempo gasto na fila antes de receber o serviço e, ao
término do período de espera, o consumidor é imediatamente atendido, é natural que o tempo
de permanência no sistema (sistema é entendido aqui como fila em conjunto com servidor)
seja calculado pela soma indicada na expressão (6.5).
)()()( SEQETE += . (6.5) A esperança matemática do tempo de serviço, )(SE , é igual a µ
1 , uma que
esses tempos são exponencialmente distribuídos. Além disso, designamos )(QE por qW (que
vem do termo inglês waiting time in the queue) e )(TE pela letra W . A expressão (6.5) pode
então ser reescrita como mostrada a seguir.
µ1+= qWW . (6.6)
É importante frisar que a expressão (6.6) é geral, ou seja, ela vale
independentemente do modelo de filas estudado e de suas características intrínsecas.
A medida de efetividade que se refere ao número médio de usuários no
sistema é designada como L (que vem do termo inglês length). Se n for o número de
usuários no sistema e nP a probabilidade de que existam n usuários no sistema, dado que a
211
variável aleatória é discreta, a esperança matemática )(nE é trivialmente calculada pela
expressão (6.7).
==∞
=0)(
nnnPLnE .
(6.7)
O número médio de usuários na fila é designada por qL (do inglês, length of
the queue) e é definida como a esperança matemática, )( qnE , obtida pela expressão (6.8).
−==∞
=snnqq PsnLnE )()( .
(6.8)
As medidas de efetividade, W , qW , L e qL , formam uma espécie de figura
de mérito do desempenho de um sistema de filas, sendo que, a partir de seus valores, é
possível emitir um parecer consubstanciado sobre a condição operacional do sistema. Por
exemplo, a partir delas podemos ter um indicativo da necessidade ou não de ampliar o sistema
de atendimento ou de cortar custos.
Há relações matemáticas entre as medidas de efetividade de tempo e as
medidas de efetividade do número de usuários, que foram demonstradas por J. D.C. Little na
década de 70 do século XX.
6.3.1 Fórmula de Little
Para qualquer processo de filas em regime estacionário, a fórmula (6.9) é
válida.
WL λ= . (6.9)
Esta expressão é conhecida por fórmula de Little.
De maneira análoga, temos uma relação entre qL e qW .
qq WL λ= . (6.10)
212
As expressões (6.6), (6.9) e (6.10) são extremamente importantes porque
relacionam as quatro quantidades fundamentais que são determinadas à medida que qualquer
uma delas é encontrada. Além disso, essas relações são genéricas, ou seja, são válidas para
todo tipo de modelo de sistemas de fila.
De posse dos conceitos básicos, das definições das medidas de efetividade e
das relações fundamentais, estamos prontos para desenvolver e estudar modelos de filas de
espera. Iniciaremos nosso estudo pelos modelos estocásticos de filas mais simples e depois
passaremos à análise de modelos mais complexos.
Iniciaremos na próxima seção o estudo dos sistemas de filas em que as
chegadas e os atendimentos ocorrem segundo o modelo estocástico de Poisson e os tempos
entre chegadas e os tempos de atendimento seguem a distribuição exponencial.
6.4 Sistemas de filas com chegadas e atendimentos do tipo ‘markoviano’
A fim de tornar didático o estudo que faremos a seguir, dividiremos esta
seção nos seguintes tópicos:
– sistemas de filas 1// MM , que têm apenas um atendente (ou seja, um servidor ou um canal
de atendimento) e capacidade infinita;
– sistemas de filas sMM // , que têm s atendentes e capacidade infinita;
– sistemas de filas CMM /1// , que têm um atendente e capacidade finita C ;
– sistemas de filas CsMM /// , que têm s atendentes e capacidade finita C .
Os dois últimos tópicos são designados como sistemas multicanal. Em todos
os tópicos que serão abordados a disciplina da fila (ou das filas) é FIFO e a fonte de usuários
possui um número ilimitado de usuários potenciais. Em um sistema com capacidade finitaC ,
se um usuário chegar e encontrar o sistema em sua capacidade máxima este usuário é
automaticamente descartado.
6.4.1 Sistemas de filas 1// MM
Seja )(tX o número de consumidores no sistema no instante t e
suponhamos que µλ < . Dado que o tempo entre chegadas e o tempo de atendimento são
213
variáveis aleatórias com distribuição exponencial, o processo cujo estado é caracterizado por
)(tX é um processo de Markov. Portanto, podemos desenvolver o estudo de sistemas de filas
1// MM com base nos procedimentos apresentados na seção 5.4.1.
Primeiramente procuraremos obter uma expressão para a probabilidade de
encontrar n usuários no sistema, que designaremos por nP . Os desenvolvimentos que serão
apresentados a seguir também podem ser encontrados na referência (NELSON, 1995).
Figura 6.6: Diagrama de transição de um sistema de filas do tipo 1// MM .
Processo de Markov como o que está ilustrado no diagrama da Figura 6.5 é
conhecido como processo de nascimento e morte.
Partindo da lei de formação da matriz de transição P ,
elemento da posição jiji
≠),( = taxa ijq (arco orientado de i para j ),
elemento da posição ),( jj = jq−1 ,
e analisando o diagrama da Figura 6.6, identificamos os seguintes elementos diferentes de
zero das posições de fora da diagonal:
λ=01p µ=10p
... λ=− nnp ,1
µ=−1,nnp
λ=+1,nnp
µ=+ nnp ,1 ...
Nas posições da diagonal principal, obtemos os seguintes elementos:
λ=01q
1 0
µ=10q
λ=− nnq ,1
1−n µ=−1,nnq
λ=+1,nnq
µ=+ nnq ,1 n 1+n
214
λ−= 100p )(111 µλ +−=p
... )(11,1 µλ +−=−− nnp
)(1, µλ +−=nnp
)(11,1 µλ +−=++ nnp ...
Finalmente, o sistema de equações para a obtenção das probabilidades
estacionárias fica da seguinte forma:
vPv = ,
Pvvvvvvvvvv nnnnnn ][][ 11101110 +−+− = ,
sendo que as probabilidades limites, ,,,,,, 1110 +− nnn vvvvv , são as probabilidades dos
estados, ,,,,,, 1110 +− nnn PPPPP ,
PPPPPPPPPPP nnnnnn ][][ 11101110 +−+− = ,
onde, a matriz de transição P com um número infinito de estados é:
+−+−
+−
+−−
+
−=
+−
)(1000
)(100
0)(100
000)(1
0001
1
1
1
0
1110
µλµλµλµ
λµλ
µλµλλ
n
n
nP
nnn
.
A equação do estado 0 é a seguinte:
100 )1( PPP µλ +−= ,
que nos permite escrever 01 PPµλ= .
Para 1≥n , a −n ésima equação é dada por:
215
11 )](1[ +− ++−+= nnnn PPPP µµλλ .
Partindo de 01 PPµλ= e da −n ésima equação para 1=n calculamos 2P :
0
2
2 PP
=µλ
.
Continuamos com este procedimento e obtemos a solução procurada, nP .
0PPn
n
=µλ
para ,2,1=n , (6.11)
onde, nP é a probabilidade do estado n , ou seja, a probabilidade de encontrar exatamente
n usuários no sistema.
A expressão para cálculo de 0P é obtida usando o fato de que 10
=∞
=nnP :
=
∞
=0
01
n
nP
µλ
.
(6.12)
Considerando a condição 1<µλ
estabelecida na seção 6.2, a série do
denominador de (6.12) converge para µ
λ−11
. Conseqüentemente obtemos uma expressão
sucinta para a probabilidade do estado 0 .
µλ−= 10P . (6.13)
A probabilidade 0P é a probabilidade de encontrar o sistema ocioso.
Portanto, da análise da expressão (6.13), concluímos que µλ é a probabilidade de encontrar o
sistema ocupado. A razão µλ é simbolizada pela letra grega ρ (leia-se “ro”).
A expressão da probabilidade de n usuários no sistema, fica então da forma
indicada pela expressão (6.14).
)1( ρρ −= nnP para ,2,1=n . (6.14)
216
Dessa forma, concluímos a determinação da probabilidade de encontrar n
usuários no sistema, conforme nos propusemos a fazer no início desta seção.
Cabe ressaltar aqui o significado do parâmetro ρ . Este parâmetro admite
algumas interpretações de grande utilidade nas análises, a saber:
– ρ é a proporção do tempo em que o sistema está ocupado ( 01 P−=ρ );
– ρ é a intensidade de tráfego ou o fator de utilização do sistema.
No contexto de aplicação de ρ como intensidade de tráfego, a unidade
usada é o erlangs, que é uma unidade usual em sistemas de filas em geral.
Vamos resolver um exemplo com o objetivo de tornar mais claros os
conceitos desenvolvidos.
Exemplo 6.2: Um pronto socorro médico presta serviços de atendimento a acidentados
durante as 24 horas do dia. Em média, num dia típico, 42 pacientes recorrem aleatoriamente
ao atendimento deste pronto socorro. Um paciente requer em média 25 minutos para receber
os primeiros socorros, serviço que é feito por uma única equipe de profissionais. Assuma que
o modelo é de uma fila 1// MM e efetue os seguintes cálculos:
(a) a taxa média de chegadas;
(b) a taxa média de atendimentos;
(c) a probabilidade de que, num intervalo de tempo de 1,5 horas, 2 pacientes cheguem ao
pronto socorro;
(d) a probabilidade de que um paciente selecionado aleatoriamente encontre o pronto socorro
desocupado;
(e) o percentual do tempo em que o pronto socorro está ocupado;
(f) se há somente uma sala de espera no pronto socorro, qual é a probabilidade de que
pacientes tenham de esperar no corredor pelo atendimento?
As taxas λ e µ são determinadas aplicando-se os procedimentos da seção
6.2.
horapacientes75,12442 ==λ ,
minutopacientes04,0251 ==µ horapacientes4,26004,0 =×=→ µ .
217
Como o modelo de chegadas de pacientes é uma distribuição de Poisson
com taxa média igual a λ , e o intervalo de tempo é conhecido, vamos aplicar a fórmula
αα −=∆ ex
txPx
!),( , +∈ Zx ,
para horas5,1=∆t , 625,25,175,1 =×=α . Fazendo 2=x , temos a seguinte probabilidade:
625,22
!2625,2
)5,1,2( −= eP 2496,0)5,1,2( ≅→ P .
Portanto, em um intervalo de tempo de uma hora e meia, há uma
probabilidade de 24,96% de que cheguem dois pacientes no pronto socorro.
A probabilidade de um paciente encontrar o pronto socorro desocupado é
dada por 0P , que é a probabilidade do sistema vazio. Aplicamos então a fórmula (6.13).
2708,04,2
75,111 00 ≅−=→−= PP µ
λ .
O percentual do tempo em que o pronto socorro está ocupado é dado por ρ .
7292,04,2
75,1 ≅=→= ρρ µλ .
Isto significa que cerca de 73% do tempo (no caso, 24 horas, implica em 17
horas e meia) o pronto socorro está ocupado.
O parâmetro ρ é também a intensidade de tráfego, que é expressa como
7292,0 erlangs.
Finalmente, se há apenas uma sala de espera e a sala comporta um paciente
e outro paciente está sob os cuidados da equipe, então se o número de pacientes no sistema for
superior a dois teremos pacientes no corredor do pronto socorro. Portanto, precisamos
calcular a probabilidade de encontrar mais de dois pacientes no sistema.
)(1 2102 PPPPn ++−=> .
218
Basta aplicar a fórmula (6.14), )1( ρρ −= nnP para 2,1=n .
)1440,01975,02708,0(12 ++−=>nP 3877,02 =→ >nP .
Partiremos agora para a determinação das medidas de efetividade do modelo
de filas 1// MM .
Número esperado de usuários no sistema, L :
Recorremos à expressão (6.7) que define L e também à expressão (6.14).
−=→ −=∞
=
∞
= 00)1()1(n
n
n
n nLnL ρρρρ .
A somatória é identificada como uma conhecida série convergente uma vez
que 1<ρ . Conseqüentemente, o número esperado de usuários no sistema, L , é dado pela
expressão (6.15).
ρρ−
=1
L .
(6.15)
Usamos a fórmula de Little (6.9) e obtemos a expressão para cálculo de W .
Tempo médio de permanência do usuário no sistema, W :
)1( ρλρ−
=W .
(6.16)
Para calcular qW podemos usar a expressão (6.6) combinada com a fórmula
para cálculo de W .
219
Tempo médio de espera na fila, qW :
)1(
2
ρλρ−
=qW .
(6.17)
Número médio de usuários na fila, qL :
Recorremos à expressão (6.8) para 1=s e também à expressão (6.14).
−=
−=
∞
=
∞
=
∞
=
11
1)1(
nn
nn
nnq
PnP
PnL
ρρ
ρρ
ρ
−−
=
−−−
=
1
),1(1 0P
O número médio de usuários na fila é calculado pela expressão (6.18).
ρρ−
=1
2
qL .
(6.18)
Vamos resolver um exemplo de aplicação das grandezas cujas expressões
foram obtidas.
Exemplo 6.3: Um sistema de atendimento ao cliente de uma pequena empresa comercial é
operado por uma pessoa através de uma central telefônica. As demandas dos clientes ao
sistema seguem uma distribuição de Poisson, com uma taxa média de chegada de 10
solicitações por hora. Os clientes são atendidos em base FIFO e os clientes que ligam e
encontram o sistema ocupado esperam pelo atendimento. Isto faz com que às vezes existam
chamadas em espera, ou seja, forma-se uma fila. O tempo gasto para atender a um cliente é
estimado como exponencialmente distribuído, com um tempo médio de atendimento de 4
minutos. Determine:
(a) o número médio de usuários no sistema;
220
(b) o tamanho médio da fila;
(c) o tempo esperado que um cliente deve aguardar na fila;
(d) o tempo médio que um cliente deve ficar na loja.
Primeiramente vamos calcular os parâmetros do sistema a partir dos dados
de entrada.
A taxa de chegada é horaclientes10=λ . O tempo médio de atendimento é
µ1
, que foi dado como 4 minutos, portanto, a taxa de atendimento é minutoclientes
41=µ . A
taxa λ está em horaclientes e a taxa µ está expressa em minuto
clientes . É preciso deixar estas
taxas em unidades coerentes. Vamos exprimir λ em minutoclientes , tal como µ .
minutoclientes
minutoclientes
4161
=
=
µ
λ
Portanto, o valor de ρ , 32== µ
λρ .
Concluída a fase preparatória dos dados, estamos prontos para aplicar as
fórmulas e solucionar os itens pedidos.
O número médio de usuários no sistema é calculado pela aplicação de
(6.15).
2321
321
=−
=→−
= LLρ
ρclientes.
O tamanho médio da fila é dado pela expressão (6.18).
33,134
1
)(
1 32
23
22≅→=
−=→
−= qqq LLL
ρρ
clientes.
O tempo esperado que um cliente deve aguardar na fila é:
88)1(
)(
)1( 32
61
23
22=→=
−=→
−= qqq WWW
ρλρ
minutos.
O tempo médio que um cliente deve permanecer na loja é o tempo médio do
sistema. Vamos aplicar a expressão (6.16).
1212)1()1( 3
26
13
2=→=
−=→
−= WWW
ρλρ
minutos.
221
6.4.2 Sistemas de filas sMM //
O objetivo é obter uma expressão para a probabilidade de encontrar
exatamente n usuários no sistema, nP . Para tal usaremos a modelagem do sistema de filas
multicanal como um processo de Markov de nascimento e morte, cujo diagrama de transição
está ilustrado na Figura 6.7.
Figura 6.7: Diagrama de transição de um sistema de filas do tipo sMM // .
Com a suposição de que a taxa média de atendimento de cada servidor é µ ,
a taxa média global de atendimento de n servidores é µn . Quando todos os servidores
estiverem ocupados, ou seja, sn ≥ , a taxa média global de atendimento é µs .
Um procedimento mais simples do que o utilizado no desenvolvimento
apresentado na seção 6.4.1 para obter nP consiste em escrever equações de Kolmogorov para
os −j ésimos estados (vide equação (5.23) do Capítulo 5) do diagrama da Figura 6.7. Para
facilitar o emprego desse método, basta escrever as equações de balanço para o processo de
nascimento e morte, como é indicado a seguir:
Estado Taxa de saída = Taxa de entrada 0 10 PP µλ = 1 201 2)( PPP µλµλ +=+ 2 312 3)2( PPP µλµλ +=+ ... ...
1−s sss PsPPs µλµλ +=−+ −− 21])1([ s 11)( +− +=+ sss PsPPs µλµλ
sn ≥ 11)( +− +=+ nnn PsPPs µλµλ .
λ=01q
1 0
µ=10q
λ=− ssq ,1
1−s
µsq ss =−1,
λ=+1,ssq
µsq ss =+ ,1
s 1+s
λ=−− 1,2 ssq
µ)1(2,1 −=−− sq ss
222
A partir das equações escritas anteriormente, para sn ≤ , temos que:
( )0!
Pn
P
n
nµ
λ= , para sn ,,2,1 = .
(6.19)
A partir das equações escritas anteriormente, para sn ≥ , temos que:
( )0
!P
ssP
sn
s
n −= µ
λ, para sn ≥ .
(6.20)
Usamos o fato de que 10
=∞
=nnP e as relações (6.19) e (6.20) para obter a
probabilidade de encontrar o sistema vazio, 0P .
( ) ( ))1(!!
1
1
0
0
ρµ
λµ
λ
−+
=−
= sn
Ps
s
n
n,
(6.21)
onde, µλρ s= , que é menor que a unidade.
Precisamos obter uma medida de efetividade e todas as outras medidas serão
encontradas. Optamos por aplicar a expressão (6.8) que define qL .
( )02)1(!
Ps
L
s
qρ
ρµλ
−= .
(6.22)
O número médio de usuários no sistema é calculado pela expressão (6.23).
( )µλ
ρ
ρµλ
+−
= 02)1(!P
sL
s
.
(6.23)
O tempo médio de permanência do usuário no sistema é calculado pela
expressão (6.24).
223
( )µρµ
µλ 1
)1(!02
+−
= Pss
W
s
,
(6.24)
O tempo médio de permanência do usuário no sistema é calculado pela
expressão (6.25).
( )02)1(!
Pss
W
s
qρµ
µλ
−= ,
(6.25)
Se um usuário ao chegar ao sistema encontrar pelo menos s usuários
concluirá que o sistema está ocupado. A probabilidade de encontrar o sistema ocupado é a
somatória das probabilidades para encontrar pelo menos s usuários no sistema,
( )==∞
= −
∞
=≥
sn sn
s
snnsn P
ssPP 0
!
µλ
,
que resulta na expressão (6.26).
( )0)1(!
Ps
P
s
sn ρµ
λ
−=≥ .
(6.26)
Em outras palavras, a probabilidade snP ≥ é a probabilidade de que uma
chegada ao sistema tenha de esperar.
Iremos resolver a seguir um exemplo para consolidar os conceitos
desenvolvidos nesta seção.
Exemplo 6.4: Um centro de distribuição de mercadorias distribui seus produtos por
intermédio de caminhões que são carregados em dois postos de carregamento. Os caminhões
são carregados à medida que chegam e às vezes têm de esperar pelo atendimento. Após
observações foram colhidos os seguintes dados: taxa média de chegada de 2 veículos por
hora; cada caminhão gasta em média 20 minutos para ser carregado.
(a) Qual é a probabilidade de que um caminhão ao chegar ao centro de distribuição tenha que
esperar para ser atendido?
(b) Qual é o número médio de caminhões na fila?
224
(c) Qual é o número esperado de caminhões no sistema?
A taxa de atendimento por servidor, µ , é obtida do tempo médio de
atendimento. Portanto, horacaminhões3=µ . A taxa de chegada é hora
veículos2=λ e do
enunciado concluímos que .2=s
Aplicamos a expressão (6.21) para calcular 0P :
( ) ( ))1(!!
1
1
0
0
ρµ
λµ
λ
−+
=−
= sn
Ps
s
n
n
( ) ( )( )3
1
23
21
0
32
0
1!2!
1
−+
=→
=n
n
n
P ,
( ) ( ) ( )( ) 6
232
1
1
1!2!1!0
10
31
23
213
203
20
++=→
−++
= PP ,
5,00 =P .
A probabilidade 0P é a probabilidade do sistema vazio. É importante
ressaltar que 0P é o valor chave nos cálculos de sistemas sMM // , uma vez que as medidas
de efetividade têm suas expressões dependentes deste valor.
A probabilidade de que um caminhão ao chegar ao centro de distribuição
tenha que esperar para ser atendido é 2≥nP .
( )→×
−=≥ 5,0
)311(!2
23
2
2nP 1667,02 ≅≥nP .
O número esperado de caminhões na fila é qL . Aplicamos a expressão
(6.22).
( )→
−= 02)1(!
Ps
L
s
qρ
ρµλ
( )
clientes083,05,0)311(!2 23
123
2≅×
−=qL .
O número esperado de caminhões no sistema é L . Aplicamos a expressão
(6.23).
225
( )→+
−=
µλ
ρ
ρµλ
02)1(!P
sL
s
clientes75,032
121 =+=L .
À primeira vista o leitor pode estranhar os valores decimais obtidos para as
grandezas qL e L , uma vez que as medidas possuem a conotação de grandezas inteiras.
Entretanto, os valores decimais podem ser explicados por se tratar de esperanças matemáticas
que resultam de produtos de probabilidades por números inteiros.
A teoria das filas de espera propicia uma ferramenta valiosa para orientar o
projetista no planejamento de sistemas de atendimento a usuários em geral. O
dimensionamento de um Call Center, por exemplo, requer conhecimentos de sistemas de
filas. O Exemplo 6.5 é extraído da referência (SHAMBLIN, 1989) e mostra como as fórmulas
podem ser usadas com esta finalidade.
Exemplo 6.5: Uma companhia telefônica está planejando instalar cabinas telefônicas em um
novo aeroporto. Ela traçou a norma de que uma pessoa não deve esperar mais que 10% das
vezes que ela tentar usar o telefone nesse sistema. A demanda de uso é estimada como sendo
uma distribuição de Poisson com uma média de 30 usuários por hora. A chamada telefônica
tem uma distribuição exponencial com um tempo médio de 5 minutos. Coloca-se então a
questão: quantas cabinas telefônicas devem ser instaladas?
Os valores de λ e µ são respectivamente horausuários30 e
horausuários12 . Como µλ s< , e não sabemos qual é o valor de s , o número de cabinas não
pode ser menor que 3 ( 12330 ×< ). Vamos resolver a questão por tentativa: calculamos 0P
para 3=s e a correspondente probabilidade 3≥nP ; depois calculamos para 4=s , e assim por
diante até alcançarmos a norma especificada pela companhia. Os resultados dos cálculos estão
mostrados na Tabela 6.1.
Tabela 6.1: Valores de 0P e snP ≥ para diversos valores supostos de s .
Número de servidores, s
Probabilidade do sistema ocioso, 0P
Probabilidade do sistema ocupado, snP ≥
3 0,0449 0,702 → 70,2% 4 0,0737 0,320 → 32% 5 0,0801 0,130 → 13% 6 0,0816 0,047 → 4,7%
226
Da análise da Tabela 6.1, notamos que com 5 (cinco) cabinas, a
probabilidade de um encontrar o sistema ocupado é superior ao índice especificado. A
instalação de seis (6) cabinas telefônicas daria ao usuário uma probabilidade de 4,7% de
espera. Como este número é inferior a 10%, o menor número de cabinas que atenderá às
exigências da companhia é, portanto, 6.
A referência (HILLIER e LIEBERMAN, 1995) mostra traçados de família
de curvas de probabilidade 0P e da grandeza L em função do fator de utilização ρ ,
parametrizadas por s . Essas curvas são úteis na solução de problemas do tipo abordado no
Exemplo 6.5.
Na próxima seção trataremos de sistemas de filas do tipo ‘markoviano’ com
um único atendente e capacidade do sistema finita, dada pela quantidade especificada C .
6.4.3 Sistemas de filas CMM /1//
Neste modelo, se um usuário chega e o sistema já possui C usuários este
não é atendido e é imediatamente descartado. Isto significa que o número de consumidores no
sistema não pode exceder o número especificado C . Em relação ao modelo estudado na seção
6.4.1, a principal modificação é que a taxa média de chegada de usuário será λ para todos os
estados 1−≤ Cn e será zero para Cn ≥ .
O diagrama de transição é parecido com aquele mostrado na Figura 6.6,
exceto pelo fato que o processo pára no estado Cn = . A Figura 6.8 ilustra o diagrama do
modelo CMM /1// .
Figura 6.8: Diagrama de transição de um sistema de filas do tipo CMM /1// .
A exemplo do desenvolvimento apresentado para sistemas 1// MM , para o
sistema CMM /1// temos a probabilidade de encontrar n usuários no sistema dada pela
fórmula (6.27).
λ
1 0
µ
1−C
µ
C
λ
µ
λ
227
0PPn
n
=µλ
, para Cn ,,1,0 = .
(6.27)
Supondo 1<= µλρ , o cálculo de 0P passa pela avaliação da somatória
10
0 ==
C
n
n Pρ , que é uma progressão geométrica de 1+C termos.
101
1+−
−=C
Pρ
ρ.
(6.28)
As relações (6.27) e (6.28) implicam na expressão (6.29),
nCnP ρ
ρρ
11
1+−
−= , para Cn ,,1,0 = .
(6.29)
As medidas de efetividade qWWL ,, e qL são então obtidas, calculando-se
primeiramente a grandeza L , conforme é mostrada em (6.30).
1
1
1
)1(1 +
+
−+−
−=
C
CCL
ρρ
ρρ
.
(6.30)
A referência (HILLIER e LIEBERMAN, 1995) traz em detalhes esta
demonstração.
As demais medidas de efetividade são obtidas utilizando-se as seguintes
relações:
ρ−= LLq ,
λLW = ,
λq
qL
W = ,
onde,
228
)1(1
0 −=→=−
=
C
nCn PP λλλλ .
(6.31)
A probabilidade CP é a probabilidade de um usuário encontrar o sistema em
sua capacidade máxima.
11
)1(+−
−=C
C
CPρ
ρρ, para 1<ρ .
(6.32)
A obtenção de W e qW a partir de L e qL , respectivamente, requer para o
modelo CMM /1// o emprego do parâmetro λ , que é a esperança matemática da taxa de
chegada. Esta exigência é inerente aos processos de filas cujos sistemas têm capacidades
limitadas. A explicação para isto é a seguinte. Para o −n ésimo estado, a taxa de chegada é a
rigor nλ , sendo a probabilidade correspondente dada por nP . A razão disso é que a taxa nλ
é também uma variável aleatória do processo de nascimento e morte. Em nossas análises, para
fins de simplificação das expressões, adotamos a suposição de que as taxas independem dos
estados ,2,1,0=n e são iguais a λ . Contudo, a taxa média de chegada a longo prazo deve
ser calculada como o valor esperado, ou seja, =∞
=0nnn Pλλ , sendo nP a proporção do tempo
em que o processo está no estado n . Ora, para sistemas com capacidade ilimitada temos
λλλ ==∞
=0nnP , porém, para sistemas limitados, em geral, λλ ≠ , como é o caso mostrado
na expressão (6.31).
Resolveremos um exemplo com a finalidade de esclarecer a aplicação do
modelo estudado nesta seção.
Exemplo 6.6: Um laboratório de radiologia possui apenas um equipamento e atende pacientes
numa base FIFO. Por razões de limitação de espaço físico, o laboratório comporta um
máximo de 4 pacientes. Os pacientes chegam ao laboratório de acordo com um processo de
Poisson, a uma taxa média de 1 paciente por hora. O tempo necessário para atender um
paciente é exponencialmente distribuído com um tempo médio de 45 minutos. Determine:
(a) o número médio de pacientes presentes no laboratório;
229
(b) a probabilidade de um paciente escolhido ao acaso encontrar o laboratório ocupado;
(c) o tempo médio que um paciente deve esperar para ser atendido.
As taxas de chegada e atendimento são horapaciente1=λ e
horapacientes34=µ , respectivamente. A intensidade de tráfego oferecida no sistema é
43== µ
λρ erlangs.
Dado que 4=C e foi pedido o número médio de pacientes no laboratório,
L , aplicamos a fórmula (6.30).
1
1
1
)1(1 +
+
−+−
−=
C
CCL
ρρ
ρρ
,
5
5
75,01
75,0575,01
75,0
−×−
−=L ,
444,1≅L pacientes.
A probabilidade de encontrar o laboratório ocupado é a probabilidade de
encontrar 4 pacientes no sistema.
11
)1(+−
−=C
C
CPρ
ρρ,
5
4
475,01
75,0)75,01(
−−=P ,
1037,04 ≅P .
O tempo médio que um paciente deve esperar para ser atendido é qW , que
requer o cálculo de λ .
)1( CP−= λλ ,
)1037,01(1 −=λ → 8963,0=λ horapacientes .
ρ−= LLq ,
694,075,0444,1 ≅→−= qq LL pacientes.
8963,0694,0=qW , hora7743,08963,0
694,0 ≅=qW 46≅→ qW minutos.
230
Portanto, o tempo médio de espera de pacientes no laboratório é
aproximadamente de 46 minutos.
Trataremos a seguir dos sistemas de filas do tipo ‘markoviano’ com
múltiplos servidores de atendimento e capacidade finita do sistema.
6.4.4 Sistemas de filas CsMM ///
A dedução da fórmula para cálculo da probabilidade de encontrar n usuários
no sistema para o modelo CsMM /// fica trivial em vista dos desenvolvimentos feitos
anteriormente. A suposição mais forte é que o número de servidores (ou atendentes) é no
máximo igual à capacidade do sistema, ou seja, Cs ≤ .
Para um número n de usuários menores ou iguais ao número de servidores
s , a probabilidade nP é a mesma calculada pela expressão (6.19). Por outro lado, para
Cns ≤≤ , a probabilidade nP é a mesma calculada pela expressão (6.20). Para Cn > ,
0=nP , uma vez que a taxa de chegada é nula já que não é mais admitido nenhum usuário no
sistema.
( )
( )
>
+=
=
=
−
.para,0
,,,1,para,!
,,,2,1para,!
0
0
Cn
CssnPss
snPn
P
sn
n
n
n
µλ
µλ
(6.33)
A expressão para o cálculo da probabilidade do sistema ocioso é dada por:
( ) ( )
+
=
= +=
−s
n
C
sn
sn
s
sn
sn
P
0 1
0
!!
1
µλµ
λµ
λ
(6.34)
Já que para sn ≤ não há fila, a fórmula para cálculo do número médio de
usuários na fila é obtida efetuando o desenvolvimento da seguinte expressão:
231
( )0
!)( P
sssnLq
sn
nC
sn −= −= µ
λ,
para jsn =− , ( )
00 !
Pss
jLqj
jssC
j
+−
== µ
λ,
j
s
sC
j
sj
sP
Lq
=
−
= µλ
µλ
0
0!
,
jsC
j
sj
sP
Lq ρµλ
=
−
=0
0!
,
1
0
0!
−−
=
= jsC
j
sj
sP
Lq ρρµλ ,
mas, 1−= jj
jd
d ρρ
ρ,
=
−
=
sC
j
js
dd
sP
Lq0
0! ρ
ρρµλ ,
=
−
=
sC
j
js
dd
sP
Lq0
0!
ρρ
ρµλ ,
−−
=
++
ρρ
ρρµ
λ1
1!
10
sCs
dd
sP
Lq .
A última expressão é válida para 1<ρ . O desenvolvimento então é
concluído processando a derivada que compõe a expressão. Conseqüentemente, a expressão
para cálculo de Lq para o modelo de filas CsMM /// é dada por (6.35).
( ) [ ] 02)1()(1
)1(!PsC
sL sCsC
s
q ρρρρ
ρµλ
−−−−−
= −− ,
(6.35)
onde, µλρ s= .
De posse do valor qL , o número médio de usuários no sistema pode ser
calculado pela expressão (6.36).
)1(1
0
1
0−++=−
=
−
=
s
nn
s
nnqq PsnPLL ,
(6.36)
onde,( )
0!P
nP
n
nµ
λ= .
232
As demais medidas de efetividade são obtidas pela aplicação das seguintes
expressões:
λLW = ,
λq
qL
W = .
A importância da teoria de filas em áreas aplicadas é inquestionável. Como
exemplo, citamos o seguinte fato. Numa lista telefônica da companhia Pacific Bell, que
atende a região da Califórnia nos EUA, podemos ler a seguinte frase: “30 second response
time to 90% of customer service phone calls”. Isto quer dizer que, em 90% das chamadas
feitas pelos clientes que usam o sistema da companhia, o tempo de resposta esperado é de 30
segundos. Esta informação só é possível porque algum método que usa teoria de filas foi
aplicado no planejamento do sistema telefônico.
Na área de telefonia, o modelo de filas mais usado é o modelo de Erlang
(vide seção 4.7.4). Em sistemas de comunicações, a intensidade de tráfego é uma variável
aleatória que varia com o tempo, podendo experimentar períodos de ociosidade e de
congestionamento. O projeto de um dado sistema telefônico deve garantir que a probabilidade
de haver congestionamento seja menor ou no máximo igual a um certo valor considerado
razoável. Esta probabilidade é designada como probabilidade de bloqueio, designada pelo
símbolo bP . Dentre os modelos estocásticos de tráfego, o modelo conhecido como Erlang-B é
o indicado para medir a taxa de bloqueio de requisições quando o tráfego é aleatório e não
existe fila de espera. Este é o caso em que a requisição de chamada ao encontrar o sistema
ocupado abandona o sistema, portanto, não formando fila.
No modelo de Erlang, as chamadas chegam a um enlace conforme um
processo de Poisson de taxa conhecida, λ , que é uma medida do número médio de chamadas
por unidade de tempo. Os tempos de serviços seguem a distribuição exponencial, com taxa
µ . O tráfego é caracterizado pela relação µλ , que designaremos por ρ . O enlace é
composto por circuitos (troncos ou linhas), e uma chamada é bloqueada e perdida se todos os
circuitos estiverem ocupados. Em caso contrário, a chamada é aceita e utiliza um circuito
durante o seu tempo de retenção. Estudos realizados sobre a distribuição estatística de Poisson
para cálculo da probabilidade de bloqueio podem ser sintetizados na fórmula B de Erlang, ou
fórmula de perda de Erlang, que é dada pela expressão (6.37).
233
=
=
N
k k
Nb k
N
P
0 !
!ρ
ρ
.
(6.37)
Cabe notar que o modelo de Erlang é apenas parte de uma área de estudo
conhecida como teoria de filas, que é capaz de tratar problemas complexos de tráfego em
redes que são compartilhadas pelos mais diversos tipos de informação, tais com voz, dados e
multimídia. No caso do tráfego de chamadas telefônicas, o modelo de Erlang-B se aplica sem
restrições.
A avaliação numérica da probabilidade bP através da aplicação direta da
fórmula (6.37) oferece dificuldades uma vez que o número N de linhas pode assumir valores
muito altos. O problema advém tanto do cálculo do fatorial quanto do cálculo das potências
de ρ à medida que N cresce. A referência (QIAO, 1998) propõe um método eficiente de
avaliação da expressão (6.37), e também apresenta um procedimento para obter N ao serem
dados os valores bP e ρ .
Existem outros modelos de filas que possuem expressões analíticas para
cálculo das medidas de efetividade, mas que não serão tratados neste livro. As referências
(HILLIER e LIEBERMAN, 1995) e (NELSON, 1995) são excelentes fontes bibliográficas de
pesquisa e estudo de sistemas de filas. Para o leitor interessado em ampliar seus
conhecimentos sobre a teoria de filas, aconselhamos as referências mencionadas
anteriormente.
6.5 Exercícios propostos
1. O modelo de chegadas de carros seguindo por uma via estreita e única a um banco caixa-
rápido segue um processo de Poisson, com taxa média de um carro por minuto. Os tempos de
utilização são exponencialmente distribuídos, com uma média de 45 segundos. Considerando
que um carro esperará o quanto for necessário, determine (a) o número esperado de carros
aguardando por utilização do caixa-rápido; (b) o tempo médio que um carro espera pela
utilização do serviço; (c) o tempo médio que um carro gasta no sistema e; (d) a probabilidade
de que existam carros esperando na rua, se o estabelecimento do banco pode somente
comportar um máximo de 5 automóveis.
234
2. Veículos chegam a um semáforo com duas opções de movimento, seguir em frente ou virar
à direita. Imaginar que os veículos formam fila única ao chegarem no cruzamento. As
chegadas obedecem a um processo de Poisson, com taxa média de 9 veículos a cada 2
minutos. Os tempos de utilização são exponencialmente distribuídos, com uma média de 25
segundos (utilização é quando um veículo recebe permissão de passagem). Supondo taxas
iguais para as demandas e para as duas opções de movimento e considerando que um carro
esperará o quanto for necessário, determine: (a) a probabilidade de encontrar o sistema
ocioso; (b) o número esperado de carros aguardando pela sua vez de passagem; (c) o tempo
médio que um carro espera pela passagem; (d) o tempo médio que um carro permanece no
sistema; e (e) a probabilidade de que um carro tenha que parar neste cruzamento.
3. Uma companhia telefônica instalou 3 cabinas telefônicas em um aeroporto. A demanda de
uso dos aparelhos é estimada como sendo uma distribuição de Poisson de modo que em média
a cada 2,4 minutos chega um novo usuário. Os tempos gastos nas chamadas telefônicas têm
uma distribuição exponencial de modo que, em média, a cada 2 horas 18 usuários concluem
suas ligações. Pergunta-se:
(a) Qual é o fator de utilização das cabinas?
(b) Qual é a probabilidade de encontrar as cabinas vazias, ou seja, o sistema desocupado?
(c) Qual é o número médio de usuários no sistema?
(d) Qual é a probabilidade de que um usuário ao chegar para utilizar o serviço telefônico
tenha que esperar pelo atendimento?
4. Os aviões requisitam permissão para aterrissar em um aeroporto de pista única a uma média
de um a cada 4 minutos; a distribuição das requisições se aproxima da distribuição de
Poisson. Os aviões recebem permissão em uma base de primeiro a chegar, primeiro a ser
atendido, sendo que aqueles que não têm condições de pouso imediato devido a
congestionamento de tráfego aéreo são colocados em espera, mas por restrições do espaço
aéreo da cidade, apenas 3 aviões podem permanecer em espera. O tempo requerido para
pousar um avião varia com a experiência do piloto e é exponencialmente distribuído com
média de 3 minutos. Determine: (a) o número médio de aviões em espera; (b) o tempo médio
que um avião aguarda até conseguir a permissão de pouso; (c) a probabilidade de que existam
mais que dois aviões em espera.
235
5. Resolva o exercício anterior supondo que há duas pistas no aeroporto, ou seja,
4/2// MM .
6. Em relação ao modelo de fila estudado na seção 6.4.4, complete a dedução da expressão de
cálculo de qL , que deve resultar em (6.35).
7. Faça uma comparação entre os sistemas de filas 1// MM e CMM /1// , e verifique que as
fórmulas de cálculo das medidas de efetividade do primeiro modelo podem ser obtidas a partir
das fórmulas correspondentes do modelo com capacidade finita ao considerar o limite para
∞→C .
8. Utilize como fonte bibliográfica inicial o artigo (QIAO, 1998) e procure compreender a
proposta dos autores para avaliar a expressão (6.37) contornando as dificuldades numéricas
computacionais verificadas quando o cálculo dessa expressão é efetuado de forma direta.
Referências Bibliográficas (HILLIER e LIEBERMAN, 1995) HILLIER, Frederick S. and LIEBERMAN, Gerald J.
Introduction to Operations Research. New York: McGraw-Hill, Inc. 6th edition.1997. pp.
998ISBN 0-07-113989-3.
(GOLDBARG e LUNA, 2005) GOLDBARG, Marco C. e LUNA, Henrique P. L. Otimização
Combinatória e Programação Linear: Modelos e Algoritmos. Campus, 2005.
(RAVINDRAN, PHILLIPS e SOLBERG, 1987)
(MÜLLER 2004)
(FANG e PUTHENPURA, 1993) FANG, SHU-CHENG and PUTHENPURA, S. Linear
Optimization and Extensions: Theory and Algorithms. New Jersey: AT&T, Prentice Hall,
1993. 302 p. ISBN 0-13-915265-2.
(FOULDS, 1984)
(GARFINKEL e NEMHAUSER, 1972) GARFINKEL, R. S. and NEMHAUSER, G. L.
Integer Programming. New York: John Wiley & Sons. 1972. 427 p.
(BAZARAA, JARVIS e SHERALI, 1997) BAZARAA, M.S., JARVIS, J.J. and SHERALI,
H.D. Linear Programming and Network Flows. New York: John Wiley, 2nd ed. 1997, 684 p.
(BAZARAA, SHERALI e SHETTY, 1993) BAZARAA, M.S., JARVIS, J.J. and SHERALI,
H.D. Nonlinear Programming: Theory and Algorithms. York: John Wiley. 1993.
(LUENBERGER, 1984) LUENBERGER, D. Linear and Nonlinear Programming. New York:
Addison Wesley, 1984, 490 p. ISBN 0-201-15794-2.
(BOLDRINI, COSTA, FIGUEIREDO e WETZLER, 1986) BOLDRINI, José Luiz, COSTA,
Sueli Rodrigues, FIGUEIREDO, Vera Lúcia, WETZLER, Henry G. Álgebra Linear. São
Paulo: Harbra. 3ª ed., 1986.
(CAMPOS, 2001) CAMPOS, Frederico Ferreira. Algoritmos Numéricos. Rio de Janeiro:
LTC, 383 p. ISBN 85-216-1265-6.
(RUGGIERO e LOPES, 1997)
(BREGALDA, OLIVEIRA e BORNSTEIN, 1988) BREGALDA, Paulo F. e outros.
Introdução à Programação Linear. Campus, 3a edição, 1988.
(DANTZIG, 1951)
(DANTZIG, 1963)
(BLAND, 1977)
<http://www.ucg.br/Institutos/LabPL/Index.html>
(YOSHIDA, 1987)
(MEYER, 1980) MEYER, PAUL L. Probabilidade: Aplicações à Estatística. Tradução de
Ruy de C. B. Lourenço da UFMG. Rio de Janeiro: Livros Técnicos e Científicos Editora.
1980. 391 p.
(BILLINTON, 1970) BILLINTON, Roy. Power System Reliability Evaluation. London:
Gordon and Breach, Science Publishers. 1970. p. 299.
(TRIVEDI, 2002) KISHOR, S. Statistics with Reliability, Queuing and Computer Science
Applications. New York: John Wiley & Sons, Inc., 2nd edition, 2002. 830 p.
(BRONSON, 1985) BRONSON, R. Pesquisa Operacional. São Paulo: Ed. McGraw-Hill.
Coleção Schaum. 1987. 318 p.
(SHAMBLIN, 1989) SHAMBLIN, J. E. and STEVENS JR., G. T. Pesquisa Operacional:
Uma Abordagem Básica. Tradução de Carlos Roberto Vieira de Araújo. São Paulo: Editora
Atlas S.A. 1989. 426 p.
(NELSON, 1995) NELSON, Randolph. Probability Stochastic Processes and Queueing
Theory: The Mathematics of Computer Performance Modeling. Springer-Verlag New York,
Inc. 1995. p. 583. ISBN 0-387-94452-4.
(QIAO, 1998) QIAO, Sanzheng and QIAO, Lyuan. A robust and efficient algorithm for
evaluating Erlang B formula, McMaster University, Canada, 1998
(http://cas.mcmaster.ca/~qiao, 2006).
(JAIN, 1991) JAIN, Raj. The Art of Computer Systems Performance Analysis: Techineques
for Experimental Design, Measurement, Simulation and Modeling. New York: John Wiley &
Sons, 1991. p. 685.
(LOPES, 1999) LOPES, Paulo Afonso. Probabilidades e Estatística. Rio de Janeiro:
Reichmann & Affonso Editores, 1999, 174p.