·
Engenharia de Telecomunicações ·
Processos Estocásticos
Envie sua pergunta para a IA e receba a resposta na hora
Recomendado para você
136
Introdução a Variáveis Aleatórias Discretas
Processos Estocásticos
UNIPAMPA
66
Processos Estocásticos: Análise de Pares de Variáveis Aleatórias
Processos Estocásticos
UNIPAMPA
215
Processos Estocásticos e Filtragem Linear de Sinais Aleatórios
Processos Estocásticos
UNIPAMPA
214
Introdução a Variáveis Aleatórias Contínuas
Processos Estocásticos
UNIPAMPA
72
Revisão sobre Processos Estocásticos e Modelos Probabilísticos
Processos Estocásticos
UNIPAMPA
227
Processos Estocásticos: Vetores Aleatórios e Modelos Probabilísticos
Processos Estocásticos
UNIPAMPA
13
Densidade Espectral de Potência: Conceitos e Aplicações
Processos Estocásticos
UFPA
15
Resposta de Sistemas Lineares a Sinais Aleatórios
Processos Estocásticos
UFPA
12
Densidade Espectral de Potência de Ruído Branco
Processos Estocásticos
UFPA
Texto de pré-visualização
PROCESSOS ESTOCÁSTICOS PROF FABIANO CASTOLDI PROCESSOS ESTOCÁSTICOS Quando estudamos variáveis aleatórias cada observação corresponde a um ou mais números Já em processos estocásticos cada observação é uma função do tempo ou alguma outra variável Definição Um Processo Estocástico Xt consiste em um experimento com medida de probabilidade P definido sobre um espaço de amostras S e uma função que aloca uma função do tempo xts a um resultado s no espaço amostras do experimento Definição Uma funçãoamostra xts é uma função do tempo associada ao resultado s de um experimento Isto é uma funçãoamostra corresponde a um resultado para um processo estocástico onde Xt é o nome do processo estocástico e s é um resultado em particular INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Definição O Ensemble rodadaconjuntofamília de um processo estocástico é o conjunto de todas as possíveis funções de tempo que podem resultar de um experimento INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Um dos benefícios dos modelos de processos estocásticos é que geralmente focase em cálculo de médiasmomentos Se fixarmos t t t0 Xt0 é uma va e teremos os momentos já estudados Esses momentos são conhecidos como médiasmomentos de ensemble Outro tipo de momento aplicase a uma funçãoamostra específica xts0 que produz um número para esta funçãoamostra Chamamos isso de média temporal de uma funçãoamostra EX 101 e 102 Começando no lançamento t 0 seja Xt a temperatura em graus Kelvin na superfície de uma foguete espacial Com cada lançamento s registrase uma sequência de temperaturas xts O ensemble do experimento pode ser visto como um catálogo de possíveis sequências de temperaturas que são registradas Por exemplo x807368 175 207 indica a 175ésima entrada no catálogo de possíveis sequência de temperaturas onde no instante t 807368 segundos após o lançamento a temperatura é 207 K INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 101 e 102 continuação De todos os lançamentos possíveis a média de temperatura após 807368 segundos do lançamento é EX807368 217 K Esta é uma média de ensembles obtida de todas as possíveis sequências de temperaturas Na 175ésima entrada do catálogo das possíveis sequências de temperaturas a temperatura média sobre a missão do foguete espacial é onde o limite da integral é a duração em segundos da missão INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 105 Suponha que nos instantes de tempo T 0 1 2 nós rolamos um dado e registramos o resultado NT onde 1 NT 6 Definimos então o processo aleatório Xt tal que para T t T1 Xt NT Neste caso o experimento consiste em uma sequência infinita de rolagens e uma funçãoamostra é simplesmente a forma de onda correspondendo a uma sequência de rolagem em particular Este mapeamento pode ser exemplificado como INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 106 Em um sistema de comunicação de chaveamento de fase quaternário QPSK um dentre 4 símbolos s0 s1 s2 s3 é igualmente provável de ser transmitido em T segundos Se o símbolo si é enviado a forma de onda xtsi cos2πf0t π4 iπ2 é transmitida durante o intervalo 0 T Neste exemplo o experimento é a transmissão de um símbolo em 0 T segundos e cada funçãoamostra tem duração T Em um sistema de comunicações real um símbolo é transmitido a cada T segundos e um experimento é transmitir j símbolos dentro de 0 jT segundos Neste caso uma resposta corresponde a uma sequência de j símbolos e uma funçãoamostra tem duração jT segundos INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Assim como analisamos vas discretas e contínuas podemos definir categorias de processos estocásticos para analisar Para isso podemos caracterizar tanto na faixa de valores possíveis em qualquer instante de tempo t mas também a medida dos instantes no qual o processo aleatório pode ocorrer TIPOS DE PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definição Xt é um processo de valores discretos se o conjunto de todas as soluções possíveis de Xt em todos os instantes de tempo t é um conjunto contável SX caso contrário Xt é um processo de valores contínuos Definição o processo estocástico Xt é um processo de tempo discreto se Xt é definido somente para um conjunto de instantes de tempo tn nT onde T é uma constante e n um inteiro caso contrário Xt é um processo de tempocontínuo Definição Uma sequência aleatória Xn é uma sequência ordenada de va X0 X1 EX Para um processo estocástico de TempoDiscreto a função amostra é completamente descrita pela sequência ordenada de vas Xn XnT TIPOS DE PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Como dito anteriormente se observarmos um processo estocástico em um instante de tempo específico t1 teremos após diversos experimentos um espaço amostras de uma va Usaremos Xt1 para denotar esta va a qual deve possuir PDF fXt1x ou PMF PXt1x Observe que a notação é igual para va e processo estocástico Desse modo devese estar atento aos enunciados para saber sobre qual Xt está relacionada EX 108 No exemplo de repetidas rolagens de dados exemplo 105 qual a PMF de X35 VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS A va X35 é o valor de rolar o dado no tempo 3 discreto Neste caso PROCESSOS ESTOCÁSTICOS EX 109 Seja Xt R cos2πft um sinal cosseno retificado tendo amplitude aleatória R com PDF exponencial Qual a PDF fXtx VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS Como Xt 0 para todo t PXt x 0 para x 0 Se x 0 e cos2πft 0 Quando cos2πft 0 a CDF completa de Xt é E assim quando cos2πft 0 PDF de Xt é PROCESSOS ESTOCÁSTICOS EX 109 continuação Se amostrarmos um processo Xt em k instantes de tempo t1 tk obteremos um vetor aleatório kdimensional X Xt1 XtkT Para retirarmos informações sobre um processo aleatório Xt precisamos conseguir as informações para qualquer vetor aleatório X Xt1 XtkT para qualquer valor de k e qualquer conjunto de instantes de tempo t1 tk Para uma va utilizávamos a PDF fXx para descrever X sem precisar especificar exatamente o experimento Da mesma maneira podemos utilizar a PDF conjunta fXt1Xtkx1xk para todo k para descrever um processo estocástico sem nos referirmos aos experimentos Isto é conveniente pois muitos experimentos levam ao mesmo processo estocástico Neste sentido estudaremos 3 modelos de processos estocásticos VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS Quando cos2πft 0 correspondendo a t π2 kπ Xt 0 independente do valor de R Neste caso fXtx δx Neste exemplo temos diferentes vas para cada valor de t PROCESSOS ESTOCÁSTICOS Uma sequência aleatória independente e identicamente distribuída iid é uma sequência aleatória Xn na qual X1 X0 X1 são vas iids Uma sequência aleatória iid acontece sempre que realizamos testes independentes de um experimento a uma taxa constante Uma sequência aleatória pode ser de valores discretos cada va Xi possuindo PMF PXix PXx ou de valores contínuos com cada va possuindo PDF fXix fXx EX Na ausência de sinais transmitidos a saída de um filtro casado em um sistema de comunicações digitais é uma sequência iid X1 X2 de vas Gaussianas 0σ SEQUÊNCIAS ALEATÓRIAS IID PROCESSOS ESTOCÁSTICOS Teorema Seja Xn uma sequência aleatória iid Para um processo de valores discretos o vetor aleatório X Xn1 XnkT possui PMF conjunta Para um processo de valores contínuo a PDF conjunta de X Xn1 XnkT é De todas as sequências aleatórias a de Bernoulli é uma das mais simples Definição Processo de Bernoulli Um processo Xn de Bernoulli p é uma sequência aleatória iid na qual cada Xn é uma va de Bernoulli p SEQUÊNCIAS ALEATÓRIAS IID PROCESSO DE BERNOULLI PROCESSOS ESTOCÁSTICOS EX 1012 Em um modelo comum de comunicações a saída X1 X2 de uma fonte binária é modelada como um processo de Bernoulli p 12 EX 1015 Para um processo de Bernoulli p Xn encontre a PMF de X X1 XnT SEQUÊNCIAS ALEATÓRIAS IID PROCESSO DE BERNOULLI Para uma única amostra Xi podemos escrever a PMF de Bernoulli da seguinte maneira Quando xi 0 1 para i 1 n a PMF conjunta pode ser escrita como onde k x1 xn Assim a expressão completa da PMF conjunta é PROCESSOS ESTOCÁSTICOS Proriedade O número de sucessos S em n espaços de tempo eventos independentes possui ES n p VarS n p 1 p Proriedade Seja Ts o número de testes até o primeiro sucesso o evento que o primeiro sucesso acontece em t é uma VA geométrica como o processo de Bernoulli não possui memória então ETs 1 p VarTs 1 p p2 PROCESSO DE BERNOULLI PS k n k pk1 pnk k 0 n PTs t 1 pt1p t 1 PROCESSOS ESTOCÁSTICOS Proriedade Devido a propriedade de ser sem memória toda vez que começamos a observar o processo novamente é como se estivesse começando daquele ponto em diante Isto é tudo que aconteceu antes não tem interferência com o que acontecerá no futuro OBS cuidado para não confundir o fato do processo ser sem memória com o conhecimento de eventos futuros Caso se conheça eventos que estão por vir condicional então o processo não é independente Ex Suponha que você faz apostas de loteria todos os dias Qual a distribuição do comprimento duração da primeira sequência de dias sem ganhar PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 Resultados 1 1 0 0 0 0 1 1 0 1 L PROCESSOS ESTOCÁSTICOS Ex continuação Essa sequência é uma VA porém qual PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 Resultados 1 1 0 0 0 0 1 1 0 1 essa distribuição até o primeiro sucesso L é VA geométrica p essa distribuição até o primeiro sucesso L1 não é VA geométrica p pois saber exatamente onde começa os fracassos indicaria conhecimento do futuro Assim observamos o primeiro fracasso e começamos a contar a partir desse ponto para termos uma VA geométrica p Para terminar a solução do problema verificamos que o tamanho da VA geométrica indicada acima possui o mesmo tamanho da sequência de fracassos logo a seqüência de fracassos é uma VA geométrica p de tamanho L PROCESSOS ESTOCÁSTICOS Ex Agora que descobrirmos como achar a distribuição até a primeira chegada vejamos como calcular o tempo para a segunda chegada terceira chegada e assim por diante Suponha a sequência de sucessos e fracassos PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 Os intervalos Ti são chamados de intervalos entre chegadas Digamos que estamos interessados em encontrar o tempo de chegada do terceiro sucesso ao final de T3 VA denominada Y3 Então basta calcularmos Y3 T1 T2 T3 T1 T2 T3 T1 já sabemos como calcular Ex anterior Agora temos que descobrir que tipo de VAs são T2 e T3 PROCESSOS ESTOCÁSTICOS Ex continuação PROCESSO DE BERNOULLI Cada intervalo de entre chegadas são representadas por VAs independentes cada uma geométrica p Observe que após o resultado do sucesso começamos a contar uma nova distribuição de tempo e assim uma nova VA geométrica que não possui dependência do que aconteceu antes do tempo T1 terminar Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 T1 T2 T3 Assim concluimos que Y3 é a soma das 3 VAs independentes T1 T2 T3 ie Y3 T1 T2 T3 Assim podemos generalizar como o tempo até o késimo sucesso é a soma de k VAs independentes Yk T1 Tk onde Ti são VAs geométricas p PROCESSOS ESTOCÁSTICOS Ex continuação PROCESSO DE BERNOULLI Se quisermos encontrar a distribuição de Yk precisamos considerar Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 T1 T2 T3 Para essa VA temos EYk k p VarYk k 1 p p2 PYkt PYk t Pk1 chegadas em 1 t1 chegada em t t 1 k 1 pk11 pt1k1 p são independentes válido para t k PROCESSOS ESTOCÁSTICOS Considere que temos um processo de Bernoulli e desejamos separa esse processo em 2 novos processos ao acaso Decidimos para qual novo processo A ou B uma amostra do processo original irá pertencer de acordo com uma jogada de moeda A sequência de jogada de moedas para decidir em qual processo cada amostra irá cair é um processo de Bernoulli q em si e o resultado é que obtemos 2 novos processos de Bernoulli DIVIDINDO PROCESSO DE BERNOULLI Interarrival times Time of the kth arrival T1 number of trials until first success Given that first arrival was at time t ie T1 t PT1 t additional time T2 until next arrival Memoryless property has the same geometric distribution independent of T1 ET1 VarT1 Yk number of trials to kth success EY If you buy a lottery ticket every day what k is the distribution of the length of the first string of losing days VarYk PYk t Splitting of a Bernoulli Process Merging of Indep Bernoulli Processes using independent coin flips Bernoulli p time time Merged process Bernoulli p q pq q time Original process time Bernoulli q 1 q time time yields a Bernoulli process yields Bernoulli processes collisions are counted as one arrival Sec 61 The Bernoulli Process 305 Splitting and Merging of Bernoulli Processes Starting with a Bernoulli process in which there is a probability p of an arrival at each time consider splitting it as follows Whenever there is an arrival we choose to either keep it with probability q or to discard it with probability 1q see Fig 63 Assume that the decisions to keep or discard are independent for different arrivals If we focus on the process of arrivals that are kept we see that it is a Bernoulli process in each time slot there is a probability pq of a kept arrival independent of what happens in other slots For the same reason the process of discarded arrivals is also a Bernoulli process with a probability of a discarded arrival at each time slot equal to p1 q Figure 63 Splitting of a Bernoulli process In a reverse situation we start with two independent Bernoulli processes with parameters p and q respectively and merge them into a single process as follows An arrival is recorded in the merged process if and only if there is an arrival in at least one of the two original processes This happens with probability p q pq one minus the probability 1 p1 q of no arrival in either process Since different time slots in either of the original processes are independent different slots in the merged process are also independent Thus the merged process is Bernoulli with success probability p q pq at each time step see Fig 64 Splitting and merging of Bernoulli or other arrival processes arises in many contexts For example a twomachine work center may see a stream of arriving parts to be processed and split them by sending each part to a randomly chosen machine Conversely a machine may be faced with arrivals of different types that can be merged into a single arrival stream The Poisson Approximation to the Binomial The number of successes in n independent Bernoulli trials is a binomial random variable with parameters n and p and its mean is np In this subsection we 306 The Bernoulli and Poisson Processes Chap 6 Figure 64 Merging of independent Bernoulli processes concentrate on the special case where n is large but p is small so that the mean np has a moderate value A situation of this type arises when one passes from discrete to continuous time a theme to be picked up in the next section For some examples think of the number of airplane accidents on any given day there is a large number n of trials airplane flights but each one has a very small probability p of being involved in an accident Or think of counting the number of typos in a book there is a large number of words but a very small probability of misspelling any single one Mathematically we can address situations of this kind by letting n grow while simultaneously decreasing p in a manner that keeps the product np at a constant value λ In the limit it turns out that the formula for the binomial PMF simplifies to the Poisson PMF A precise statement is provided next together with a reminder of some of the properties of the Poisson PMF that were derived in Chapter 2 Poisson Approximation to the Binomial A Poisson random variable Z with parameter λ takes nonnegative integer values and is described by the PMF pZk eλ λk k k 0 1 2 Its mean and variance are given by EZ λ varZ λ 2 Sequência original Bernoulli p Sequência A Sequência B A sequência A é um processo de Bernoulli pq A sequência B é um processo de Bernoulli p 1 q PROCESSOS ESTOCÁSTICOS O procedimento contrário da divisão também pode ser realizado Se considerarmos os sucessos como chegadas a junção das sequências A e B ambas processos de Bernoulli porém com parâmetros p e q respectivamente terá probabilidade de uma chegada como Pchegada 1 Psem chegada 1 1 p 1 q p q pq Observamos que a junção união de dois processos de Bernoulli geram outro processo de Bernoulli pqpq pois a propriedade de independência entre as amostras de tempo diferentes é preservado UNINDO PROCESSOS DE BERNOULLI Interarrival times Time of the kth arrival T1 number of trials until first success Given that first arrival was at time t ie T1 t PT1 t additional time T2 until next arrival Memoryless property has the same geometric distribution independent of T1 ET1 VarT1 Yk number of trials to kth success EY If you buy a lottery ticket every day what k is the distribution of the length of the first string of losing days VarYk PYk t Splitting of a Bernoulli Process Merging of Indep Bernoulli Processes using independent coin flips Bernoulli p time time Merged process Bernoulli p q pq q time Original process time Bernoulli q 1 q time time yields a Bernoulli process yields Bernoulli processes collisions are counted as one arrival Sec 61 The Bernoulli Process 305 Splitting and Merging of Bernoulli Processes Starting with a Bernoulli process in which there is a probability p of an arrival at each time consider splitting it as follows Whenever there is an arrival we choose to either keep it with probability q or to discard it with probability 1q see Fig 63 Assume that the decisions to keep or discard are independent for different arrivals If we focus on the process of arrivals that are kept we see that it is a Bernoulli process in each time slot there is a probability pq of a kept arrival independent of what happens in other slots For the same reason the process of discarded arrivals is also a Bernoulli process with a probability of a discarded arrival at each time slot equal to p1 q Figure 63 Splitting of a Bernoulli process In a reverse situation we start with two independent Bernoulli processes with parameters p and q respectively and merge them into a single process as follows An arrival is recorded in the merged process if and only if there is an arrival in at least one of the two original processes This happens with probability p q pq one minus the probability 1 p1 q of no arrival in either process Since different time slots in either of the original processes are independent different slots in the merged process are also independent Thus the merged process is Bernoulli with success probability p q pq at each time step see Fig 64 Splitting and merging of Bernoulli or other arrival processes arises in many contexts For example a twomachine work center may see a stream of arriving parts to be processed and split them by sending each part to a randomly chosen machine Conversely a machine may be faced with arrivals of different types that can be merged into a single arrival stream The Poisson Approximation to the Binomial The number of successes in n independent Bernoulli trials is a binomial random variable with parameters n and p and its mean is np In this subsection we 306 The Bernoulli and Poisson Processes Chap 6 Figure 64 Merging of independent Bernoulli processes concentrate on the special case where n is large but p is small so that the mean np has a moderate value A situation of this type arises when one passes from discrete to continuous time a theme to be picked up in the next section For some examples think of the number of airplane accidents on any given day there is a large number n of trials airplane flights but each one has a very small probability p of being involved in an accident Or think of counting the number of typos in a book there is a large number of words but a very small probability of misspelling any single one Mathematically we can address situations of this kind by letting n grow while simultaneously decreasing p in a manner that keeps the product np at a constant value λ In the limit it turns out that the formula for the binomial PMF simplifies to the Poisson PMF A precise statement is provided next together with a reminder of some of the properties of the Poisson PMF that were derived in Chapter 2 Poisson Approximation to the Binomial A Poisson random variable Z with parameter λ takes nonnegative integer values and is described by the PMF pZk eλ λk k k 0 1 2 Its mean and variance are given by EZ λ varZ λ 2 Sequência A p Sequência B q Sequência da união A com B p q pq PROCESSOS ESTOCÁSTICOS Definição Processo de Contagem um processo estocástico Nt é um processo de contagem se para cada função amostra nts 0 para t 0 e nts é um valor inteiro e não decrescente com o tempo Podemos imaginar Nt como a contagem do número de clientes que chegam em um sistema durante o intervalo 0 t Veremos por exemplo As descontinuídades na funçãoamostra de um processo de contagem marcam as chegadas e o número de chegadas no intervalo t0 t1 é simplesmente Nt1 Nt0 PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS Podemos utilizar um processo de Bernoulli X1 X2 para derivar um processo de contagem simples Considere um pequeno passo de tempo de tamanho Δ segundos tal que haja uma chegada no intervalo nΔ n1Δ se e somente se Xn 1 Para uma taxa média de chegada λ 0 chegadas s podemos escolher Δ de modo que λΔ 1 Neste caso a probabilidade de sucesso de Xn é λΔ Isto implica que o número de chegadas Nm antes do tempo T mΔ tenha uma PMF binomial Se m ou equivalentemente Δ 0 a PMF de Nm se torna uma va de Poisson com parâmetro λT onde T t1 t0 Ainda o número de chegadas no intervalo t0 t1 depende dos testes independentes de Bernoulli correspondentes para o intervalo PROCESSO DE POISSON Pn T λTneλT n k0 1 e para T fixo PROCESSOS ESTOCÁSTICOS Assim o número de chegadas em intervalos sem sobreposições são independentes No limite de Δ 0 obtemos um processo de contagem no qual o número de chegadas em um intervalo é uma va de Poisson independente das chegadas em qualquer intervalo sem sobreposição Este processo é chamado de Processo de Poisson Ou seja o processo de Poisson é uma versão de tempo contínuo do processo de Bernoulli Definição Um processo de contagem Nt é um Processo de Poisson de taxa λ se a o número de chegadas em um intervalo t0 t1 Nt1 Nt0 é uma va de Poisson com valor esperado λ t1 t0 b para qualquer par de intervalos sem sobreposição t0 t1 e to t1 o número de chegadas em cada intervalo Nt1 Nt0 e Nt1 Nt0 respectivamente são vas independentes OBS Chamamos λ de taxa do processo pois ENtt λ VarNt λt PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS Teorema Para um processo de Poisson Nt com taxa λ a PMF conjunta de N Nt1 NtkT para instantes de tempo ordenados t1 tk é onde α λt1 e para i 2 k α λti ti1 OBS Essa equação é válida somente para intervalos independentes Neste caso o processo de Poisson é dito sem memória Teorema Para um processo de Poisson de taxa λ os tempos entrechegadas X1 X2 são uma sequência aleatória iid com PDF PROCESSO DE POISSON PROCESSO DE POISSON Teorema Um processo de contagem com entrechegadas exponenciais independentes X1 X2 6 um processo de Poisson de taxa A QUIZ 105 Pacotes de dados transmitidos por um modem por uma linha telefonica formam um processo de Poisson de taxa 10 pacotess Usando M para denotar o numero de pacotes transmitidos na késima hora encontre a PMF conjunta de M e Mb Para resolver esse problema precisamos observar que a primeira e a segunda hora sao intervalos sem sobreposicgao Em seguida encontramos o valor de EMi 360010 pacotes em cada hora Assim as PMFs de M e M2 sao m012 ry 0 otherwise Como M e M2 sao independentes a PMF conjunta de M e M2 é oe mi 01 PMyMz m1 m2 Py m1 Pu m2 mahi 0 otherwise PROCESSOS ESTOCÁSTICOS A soma de duas vas de Poisson independentes é também uma variável de Poisson Assim para qualquer t0 Nt0 N1t0 N2t0 é uma va de Poisson Isto sugere que Nt é um processo de Poisson Teorema Seja N1t e N2t dois processos independentes de Poisson com taxas λ1 e λ2 respectivamente O processo de contagem Nt N1t N2t é um processo de Poisson com taxa λ1 λ2 OBS O processo de Poisson foi visto como um caso limitante de um processo de chegadas de Bernoulli que possui intervalo de chegadas Δ 0 e probabilidade λΔ Para o caso da soma de 2 processos de Poisson independentes com λ1 e λ2 a probabilidade que ambos os processos tenham uma chegada é λ1λ2Δ2 A medida que Δ0 Δ2Δ e a probabilidade de duas chegadas se torna insignificante em comparação a uma única chegada PROPRIEDADES DO PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS EX 1016 Carros caminhões e ônibus chegam a um pedágio como um processos de Poisson independentes com taxas λC 12 carrosminuto λT 09 caminhõesminuto e λB 07 ônibus minuto Em um intervalo de 10 minutos qual a PMF de N o número de veículos carros caminhões ou ônibus que chegam ao pedágio PROPRIEDADES DO PROCESSO DE POISSON Pelo teorema anterior a chegada ao pedágio é um processo de Poisson com taxa λ 12 09 07 28 veículosminuto Em um intervalo de 10 minutos λT 28 e assim N tem PMF PROCESSOS ESTOCÁSTICOS Teorema Os processos de contagem N1t e N2t derivados de uma decomposição de Bernoulli de um processo de Poisson Nt são processos de Poisson independentes com taxas λp e λ1p OBS Chamamos de decomposição de Bernoulli o processo de dividir o processo de Poisson Nt em dois processos de contagem das chegadas tipo 1 e tipo 2 EX 1017 Um servidor de WEB de uma empresa registra os hits pedidos de documentos HTML como um processo de Poisson com uma taxa de 10 hitss Cada página é um pedido interno com probabilidade 07 da intranet da empresa ou um pedido externo com probabilidade 03 da Internet Sobre um intervalo de 10 minutos qual a PMF conjunta de I o número de pedidos internos e X o número de pedidos externos PROPRIEDADES DO PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS EX 1017continuação OBS Os últimos 2 teoremas demonstram a relação próxima entre um processo de Poisson com a soma de 2 processos de Poisson Assim sempre que observamos 2 processo de Poisson independentes podemos imaginar que eles são derivados de uma decomposição de Bernoulli de um único processo Teorema Seja Nt N1t N2t a soma de dois processo de Poisson com taxas λ1 e λ2 Dado que Nt possui uma chegada a probabilidade condicional que esta chegada é de N1t é λ1λ1λ2 PROPRIEDADES DO PROCESSO DE POISSON Pelo teorema acima os pedidos internos e externos são processos de Poisson independentes com taxas λp 7 hitss e λ1p 3 hitss respectivamente No intervalo de 10 minutos 600 segundos I e X são vas independentes de Poisson com parâmetros αI 4200 hits e αX 1800 hits Logo a PMF conjunta de I e X é PROCESSOS ESTOCÁSTICOS PROCESSOS BERNOULLI X POISSON Característica Poisson Bernoulli Tempos de chegada Contínuo Discreto Taxas de chegada λunidade de tempo ptentativa PMF do n de chegadas Poisson Binomial Distribuição do tempo de entrechegadas Exponencial Geométrica Tempo até a késima chegada Erlang Pascal PROCESSOS ESTOCÁSTICOS O processo de Poisson é um exemplo de processo de tempo contínuo e valores discretos Veremos agora um tipo de processo de tempo contínuo e valores contínuos o Movimento Browniano Definição Um Processo de Movimento Browniano Wt possui a propriedade W0 0 e para τ 0 Wtτ Wt é uma va Gaussiana 0 que é independente de Wt para todo t t O movimento Browniano foi desenvolvido por Robert Brown em 1827 para examinar o movimento de grãos de pólen sobre a água Einstein identificou a fonte desse movimento como colisões aleatórias de moléculas de água em um movimento termal O Processo de Movimento Browniano descreve esse movimento em um dos eixos de movimento O movimento Browniano é outro processo que podemos derivar sua PDF de um vetoramostra W Wt1 WtkT PROCESSO DE MOVIMENTO BROWNIANO p PROCESSOS ESTOCASTICOS PROCESSO DE MOVIMENTO BROWNIANO Teorema Para um processo de movimento Browniano Wt a PDF conjunta de W Wt Wt é 1 Wp Wn1 20 tp th 1 fo a 2ee y QUIZ 107 Seja Wt um processo de movimento Browniano com variancia VarWt at Mostre que Xt WtAa um processo de movimento Browniano com variancia VarXt t Podese verificar que parat s a Wt Ws Xt Xs PET eos Como Wit Ws é uma va Gaussiana pela definigao o valor esperado é g1x xe ZMO WO g e a variancia e EWt Ws at s ERR LVe Won a Avaliando pela definigao VarXt t s 0 PROCESSOS ESTOCÁSTICOS Para vas os primeiro e segundo momentos fornecem um número que resume o modelo de probabilidade completo Em processos estocásticos os momentos são funções determinísticas do tempo que resumem as propriedades de um modelo completo Definição O valor esperado de um processo estocástico Xt é uma função determinística μXt EXt EX 1018 Se R é uma va não negativa encontre o valor esperado de Xt R cos2πft VALOR ESPERADO E CORRELAÇÃO O sinal de cosseno retificado Xt tem valor esperado PROCESSOS ESTOCÁSTICOS Definição A variância de um processo estocástico é uma função determinística σXt VarXt EXt μXt2 O comportamento de Xt é refletido na variação de μXt enquanto a variância oferece uma indicação do espalhamento nos valores que Xt assume em diferentes instantes de tempo A função de covariância fornece importantes informações sobre a estrutura temporal de um processo A CovXY é um indicativo de quanta informação a va X fornece sobre a va Y grandes valores indicam que X fornece uma indicação precisa do valor de Y Se as 2 vas são observações do processo estocástico Xt retiradas nos instantes t1 e t2 t1 τ a covariância indica o quanto o processo é provável de se alterar no espaço de τ entre t1 e t2 um valor alto indica que o processo é pouco provável de se alterar muito enquanto covariância próxima a zero sugere mudanças rápidas VALOR ESPERADO E CORRELAÇÃO PROCESSOS ESTOCÁSTICOS Definição Autocovariância A função de autocovariância de um processo estocástico Xt é CXtτ CovXt Xtτ A função de autocovariância de uma sequência aleatória Xn é CXmk CovXm Xmk O nome autocovariância enfatiza que a medida de covariância é entre amostras de um mesmo processo Xt Existe entretanto a covariânciacruzada que descreve a relação entre dois processos aleatórios diferentes Definição Autocorrelação A função de autocorrelação de um processo estocástico Xt é RXtτ EXt Xtτ A função de autocorrelação de uma sequência aleatória Xn é RXmk EXm Xmk VALOR ESPERADO E CORRELAÇÃO PROCESSOS ESTOCÁSTICOS Teorema Temos as seguintes relações entre as funções de autocorrelação e autocovariância CXtτ RXtτ μXt μXtτ CXnk RXnk μXn μXnk EX 1019 Encontre CXtτ e RXtτ de um processo de movimento Browniano Xt VALOR ESPERADO E CORRELAÇÃO Pela definição do processo de movimento Browniano sabemos que a média é zero Dessa forma a função de autocorrelaçao de autocovariância são iguais ie CXtτ RXtτ Para encontrar RXtτ exploramos a propriedade de incrementos independentes do movimento Browniano Considere τ 0 de modo que RXtτ EXt Xtτ Precisamos rearranjar essa equação uma vez que a definição do movimento Browniano se refere a Xtτ Xt Vamos somar zero dentro do valor esperado ie RXtτ EXt Xtτ Xt Xt EXt Xtτ Xt EX2t PROCESSOS ESTOCÁSTICOS EX 1019 continuação VALOR ESPERADO E CORRELAÇÃO Voltando a definição do movimento Browniano Xt e Xtτ Xt são independentes com valores esperados nulos Logo EXt Xtτ Xt EXt EXtτ Xt 0 Como EXt 0 EX2t VarXt Assim RXtτ EX2t αt para τ 0 Quando τ 0 podemos reverter os argumentos de tempo e obter RXtτ EX2t αtτ para τ 0 Combinando os dois resultados obtemos para qualquer t e τ RXtτ α mint tτ PROCESSOS ESTOCÁSTICOS EX 1020 A entrada de um filtro digital é uma sequência aleatória X1 X0 X1 com EXi 0 e VarXi 1 A saída é uma sequência aleatória Y1 Y0 Y1 relacionada com a sequência de entrada pela equação Yn Xn Xn1 para todos os n inteiros Encontre o valor esperado EYn e a função de autocovariância CYmk VALOR ESPERADO E CORRELAÇÃO Podemos facilmente deduzir a equação para o valor esperado de Yn em relação a Xn EYn EXn Xn1 EXn EXn1 0 Para encontrar CYmk observamos que Xn é uma sequência aleatória iid com EXn 0 e VarXn 1 logo Agora para qualquer valor inteiro de k podemos escrever CYmk EYm Ymk EXm Xm1Xmk Xmk1 EXmXmk XmXmk1 Xm1Xmk Xm1Xmk1 PROCESSOS ESTOCÁSTICOS EX 1020 continuação VALOR ESPERADO E CORRELAÇÃO CYmk CXmk CXmk1 CXm1k1 CXm1k Precisamos analisar a expressão acima para todos os valores de k Observase que pela função da covariância de Xn CXmk 0 para k 0 Assim quando k 1 os valores de k k1 e k1 são todos diferentes de zero e CYmk 0 Quando k0 Para k 1 Finalmente para k 1 Logo a expressão completa é Vemos que como a saída do filtro depende das duas entradas anteriores as saídas Yn e Yn1 são correlacionadas onde as saídas do filtro que estão dois ou mais instantes de tempo separados são descorrelacionadas PROCESSOS ESTOCÁSTICOS QUIZ 108 Dado processo aleatório Xt com valor esperado μXt e autocorrelação RXtτ podemos fazer a observação ruidosa Yt Xt Nt onde Nt é um processo de ruído aleatório com μNt 0 e autocorrelação RNtτ Assumindo que o processo de ruído Nt é independente de Xt encontre o valor esperado e autocorrelação de Yt VALOR ESPERADO E CORRELAÇÃO O valor esperado de Yt é Para a autocorrelação observamos o fato que Xt e Nt são independentes e que Nt tem valor esperado nulo Desse modo Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 PROCESSOS ESTOCÁSTICOS Definição Processo Estacionário Um processo estocástico Xt é estacionário se e somente se para todos os conjuntos de instantes de tempo t1 tm e qualquer diferença de tempo τ Uma sequência aleatória Xn é estacionária se e somente se para qualquer conjunto de instantes de tempos inteiros n1 nm e uma diferença de tempo k Geralmente um processo estocástico é não estacionário Entretanto provar ou negar a estacionariedade pode ser enganoso PROCESSOS ESTACIONÁRIOS PROCESSOS ESTOCÁSTICOS EX 1021 Determine se o processo de movimento Browniano introduzido anteriormente com parâmetro α é estacionário Teorema Seja Xt um processo aleatório estacionário Para constantes a 0 e b Yt aXt b é também um processo estacionário A invariância no tempo de um processo aleatório estacionário leva as definições de correlação e covariância a serem dependentes apenas de τ a diferença de tempo e independente do instante de tempo t PROCESSOS ESTACIONÁRIOS Para o processo de movimento Browniano Xt1 é uma va Gaussiana 0 p1 De maneira similar o Xt2 é uma va Gaussiana 0 p2 Como Xt1 e Xt2 não possuem a mesma variância fXt1x fXt2x e assim o processo de movimento Browniano não é estacionário PROCESSOS ESTOCÁSTICOS Teorema Para um processo estacionário Xt o valor esperado autocorrelação e a autocovariância possuem as seguintes propriedades para todo t a μXt μX b RXtτ RX0τ RXτ c CXtτ RXτ μX2 CXτ Para uma sequência aleatórioia Xn o valor esperado autocorrelação e a autocovariância possuem as seguintes propriedades para todo n a EXn μX b RXnk RX0k RXk c CXnk RXk μX2 CXk PROCESSOS ESTACIONÁRIOS PROCESSOS ESTOCÁSTICOS EX 1022 Em um receptor de radio AM o sinal recebido contém o sinal da portadora cossenoidal na frequência da portadora fc com fase aleatória θ que é valor amostra de uma va uniforme 02π O sinal da portadora recebido é Qual o valor esperado e a autocorrelação do processo Xt PROCESSOS ESTACIONÁRIOS A fase tem PDF Para qualquer ângulo fixo α e inteiro k PROCESSOS ESTOCÁSTICOS EX 1022 continuação PROCESSOS ESTACIONÁRIOS Escolhendo α 2πfct e k 1 Usando identidades trigonométricas podemos encontrar a relação para a função de autocorrelação Para α 2πfctτ e k 2 Logo Como Xt tem as propriedades listada para um processo estacionário Xt é um processo estacionário PROCESSOS ESTOCÁSTICOS Em muitas aplicações de teoria de probabilidade não dispomos do modelo de probabilidade completo de um experimento Mesmo assim muitas informações e resultados podem ser obtidos de informações parciais do modelo valor esperado correlação e variância Definição Processo Estacionário no Sentido Amplo WSS Xt é um processo estocástico estacionário no sentido amplo se e somente se para todo t Xn é uma sequência aleatória no sentido amplo se e somente se par todo n Assim todo processo estacionário é também estacionário no sentido amplo Entretanto o contrário não é verdade PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS PROCESSOS ESTOCÁSTICOS Teorema Para um processo estacionário no sentido amplo Xt a função de autocorrelação possui as seguintes propriedades Se Xn é uma sequência aleatório estacionária no sentido amplo Definição A potência média de um processo estacionário no sentido amplo Xt é RX0 EX2t A potência média de um sequência estacionária no sentido amplo Xn é RX0 EX2n PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS PROCESSOS ESTOCÁSTICOS OBS Essa notação esta de acordo com a equação de potência instantânea sobre um resistor de 1Ω Sendo xt uma função amostra então x2t é a potência instantânea de xt Por extensão X2t é a potência instantânea do processo estocástico Xt Logo o valor esperado equivale a potência média Quando um processo estocástico Xt é estacionário tal que onde o processo é dito Ergódico Isto é a média temporal de uma funçãoamostra de um processo estocástico estacionário no sentido amplo é igual a média de ensemble correspondente De outra maneira um processo estocástico é dito Ergódico se suas propriedades estatísticas média e variância podem ser deduzidas de uma única e suficientemente longa amostra realização PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS lim T 1 XT µX XT 1 2T Z T T xtdt PROCESSOS ESTOCÁSTICOS Teorema Seja Xt um processo aleatório estacionário com valor esperado μX e autocovariância CXτ Se então XT X2T é uma sequência não polarizada e consistente de estimativas de μX QUIZ 1010 Quais das seguintes funções são funções de autocorrelação válidas PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS Precisamos determinar se as funções estão de acordo com o teorema das propriedades de processos estacionários Assim 1 é simétrico em torno do eixo com RX0 sendo o maior valor positivo de RXτ De maneira similar 2 é simétrico em torno do eixo com RX0 sendo o maior valor positivo de RXτ Em 3 e 4 não temos funções de autocorrelação válidas uma vez que Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Z 1 1 CXd 1 PROCESSOS ESTOCÁSTICOS Em muitas aplicações é necessário saber a relação entre dois processos estocásticos Xt e Yt ou sequências aleatórias Xn e Yn Para obter ferramentas úteis para analizar um par de processos usamos correlação e covariância das vas Xt e Ytτ Definição Função de CorrelaçãoCruzada A correlaçãocruzada dos processos aleatórios contínuos no tempo Xt e Yt é RXYtτ EXt Ytτ A correlaçãocruzada das sequências aleatórias Xn e Yn é RXYmk EXm Ymk EX Suponha que o processo Yt consiste do sinal desejado Xt mais ruído Nt Yt Xt Nt Encontre a correlaçãocruzada entre o sinal observado e o sinal desejado assumindo que Xt e Nt são processos aleatórios independentes CORRELAÇÃOCRUZADA PROCESSOS ESTOCÁSTICOS EX continuação CORRELAÇÃOCRUZADA Aplicando o teorema anterior RXY t E XtY t E Xt Xt Nt E XtXt E XtNt RXt E Xt E Nt RXt µXtµNt PROCESSOS ESTOCÁSTICOS Definição Processos Conjuntamente WSS os processos aleatórios de tempo contínuo Xt e Yt são conjuntamente WSS se Xt e Yt são ambos WSS e a correçãocruzada depende somente da diferença de tempo entre as 2 vas RXYtτ RXYτ os processos aleatórios de tempo contínuo Xt e Yt são conjuntamente WSS se Xt e Yt são ambos WSS e a correçãocruzada depende somente da diferença de tempo entre as 2 vas RXYmk RXYk EX 1024 Continuando o exemplo anterior considere que os processos Xt e Nt são WSS ie EXt μX e EXt μN 0 Yt é WSS Xt e Yt são conjuntamente WSS Yt e Nt são conjuntamente WSS CORRELAÇÃOCRUZADA O valor esperado de Yt é EYt EXt Nt EXt ENt μX PROCESSOS ESTOCÁSTICOS EX 1024 continuação CORRELAÇÃOCRUZADA A autocorrelação de Yt é Mas como Xt e Nt são independentes RXNtτ EXt ENtτ 0 RNXtτ Assim a equação acima é simplificada para RYtτ RXτ RNτ RYτ Logo Yt é WSS Para verificar se Yt e Xt são conjuntamente WSS precisamos investigar a correlaçãocruzada que é calculada de maneira similar ao exemplo anterior Assim Yt e Xt são conjuntamente WSS Para Yt e Nt temos RY Nt EY tNt E Xt Nt Nt µXtµNt RNt RN RY N RY Xt RXt µNtµXt RX RY X Logo Yt e Nt também são conjuntamente WSS PROCESSOS ESTOCÁSTICOS EX 1025 Xn é uma sequência aleatória WSS com função de autocorrelação RXk e média zero A sequência aleatória Yn é obtida de Xn pela reversão do sinal a cada alternância da va Xn Yn 1nXn a Expresse a função de autocorrelação em termos de RXk b Expresse a função de correlaçãocruzada de Xn e Yn em termos de RXk c Yn é WSS d Xn e Yn são conjuntamente WSS CORRELAÇÃOCRUZADA a A função de autocorrelação de Yn é RYnk EYn Ynk E1nXn 1nkXnk 12nk EXn Xnk 1k RXk b A função de correlaçãocruzada de Xn e Yn é RXYnk EXn Ynk EXn 1nkXnk 1nk EXn Xnk 1nk RXk c e d Como pode ser observado nas funções acima Yn é WSS e Xn e Yn não são conjuntamente Wss PROCESSOS ESTOCÁSTICOS Teorema Se Xt e Yt são processos contínuos no tempo e conjuntamente WSS então RXYτ RYXτ Se Xn e Yn são sequências aleatórias conjuntamente WSS então RXYk RYXk QUIZ 1011 Xt é um processo WSS com função de autocorrelação RXτ Yt é idêntico a Xt exceto por ser revertido no tempo Yt Xt 1 Expresse a função de autocorrelação de Yt em termos de RXτ Yt é WSS 2 Expresse a função de correlaçãocruzada de Xt e Yt em termos de RXτ Xt e Yt são conjuntamente WSS CORRELAÇÃOCRUZADA PROCESSOS ESTOCÁSTICOS QUIZ 1011 continuação CORRELAÇÃOCRUZADA 1 A autocorrelação de Yt é RYtτ EYt Ytτ EXt Xtτ RXt tτ RXτ Além disso EYt EXt μX uma vez que Xt é WSS Assim Yt é WSS 2 A correlaçãocruzada de Xt e Yt é RXYtτ EXt Ytτ EXt Xtτ RXt tτ RX2t τ Assim RXYtτ depende τ mas também de t e Xt e Yt não são conjuntamente WSS PROCESSOS ESTOCÁSTICOS Definição Xt é um processo estocástico Gaussiano se e somente se X Xt1 XtkT é um vetor aleatório Gaussiano para qualquer inteiro k 0 e qualquer conjunto de instantes de tempo t1 tk Xn é uma sequência aleatória Gaussiana se e somente se X Xn1 XnkT é um vetor aleatório Gaussiano para qualquer inteiro k 0 e qualquer conjunto de instantes de tempo n1 nk Teorema Se Xt é um processo Gaussiano WSS então Xt é um processo Gaussiano estacionário Se Xn é uma sequência Gaussiana WSS então Xn é uma sequência Gaussiana estacionária Definição Wt é um processo de ruído branco Gaussiano se e somente se Wt é um processo estocástico Gaussiano estacionário com as propriedades μX 0 e RWτ η0δτ PROCESSO GAUSSIANO PROCESSOS ESTOCASTICOS PROCESSO GAUSSIANO QUIZ 1012 Xt um processo aleatdério Gaussiano estacionario com uxt 0 e fungado de autocorrelagao RxT 2 Qual a PDF conjunta de Xt e Xt1 Comecamos observando que EXt EXt1 0 VarXt VarXt1 1 e EXt Xt1 12 Assim pra o vetor aleatério Gaussiano X Xt Xt1T temos a matriz de covariancia e sua iInversa 7 ie OL 1 ae ex 12 4 Cy 12 I Dessa forma a PDF conjunta de Xt e Xt1 é ane on ee ee lqn1 Fx tX 41 Xo x1 2m 2 det Cx2 Xp 7 Cy x 1 3x3x0x123 J 302
Envie sua pergunta para a IA e receba a resposta na hora
Recomendado para você
136
Introdução a Variáveis Aleatórias Discretas
Processos Estocásticos
UNIPAMPA
66
Processos Estocásticos: Análise de Pares de Variáveis Aleatórias
Processos Estocásticos
UNIPAMPA
215
Processos Estocásticos e Filtragem Linear de Sinais Aleatórios
Processos Estocásticos
UNIPAMPA
214
Introdução a Variáveis Aleatórias Contínuas
Processos Estocásticos
UNIPAMPA
72
Revisão sobre Processos Estocásticos e Modelos Probabilísticos
Processos Estocásticos
UNIPAMPA
227
Processos Estocásticos: Vetores Aleatórios e Modelos Probabilísticos
Processos Estocásticos
UNIPAMPA
13
Densidade Espectral de Potência: Conceitos e Aplicações
Processos Estocásticos
UFPA
15
Resposta de Sistemas Lineares a Sinais Aleatórios
Processos Estocásticos
UFPA
12
Densidade Espectral de Potência de Ruído Branco
Processos Estocásticos
UFPA
Texto de pré-visualização
PROCESSOS ESTOCÁSTICOS PROF FABIANO CASTOLDI PROCESSOS ESTOCÁSTICOS Quando estudamos variáveis aleatórias cada observação corresponde a um ou mais números Já em processos estocásticos cada observação é uma função do tempo ou alguma outra variável Definição Um Processo Estocástico Xt consiste em um experimento com medida de probabilidade P definido sobre um espaço de amostras S e uma função que aloca uma função do tempo xts a um resultado s no espaço amostras do experimento Definição Uma funçãoamostra xts é uma função do tempo associada ao resultado s de um experimento Isto é uma funçãoamostra corresponde a um resultado para um processo estocástico onde Xt é o nome do processo estocástico e s é um resultado em particular INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Definição O Ensemble rodadaconjuntofamília de um processo estocástico é o conjunto de todas as possíveis funções de tempo que podem resultar de um experimento INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Um dos benefícios dos modelos de processos estocásticos é que geralmente focase em cálculo de médiasmomentos Se fixarmos t t t0 Xt0 é uma va e teremos os momentos já estudados Esses momentos são conhecidos como médiasmomentos de ensemble Outro tipo de momento aplicase a uma funçãoamostra específica xts0 que produz um número para esta funçãoamostra Chamamos isso de média temporal de uma funçãoamostra EX 101 e 102 Começando no lançamento t 0 seja Xt a temperatura em graus Kelvin na superfície de uma foguete espacial Com cada lançamento s registrase uma sequência de temperaturas xts O ensemble do experimento pode ser visto como um catálogo de possíveis sequências de temperaturas que são registradas Por exemplo x807368 175 207 indica a 175ésima entrada no catálogo de possíveis sequência de temperaturas onde no instante t 807368 segundos após o lançamento a temperatura é 207 K INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 101 e 102 continuação De todos os lançamentos possíveis a média de temperatura após 807368 segundos do lançamento é EX807368 217 K Esta é uma média de ensembles obtida de todas as possíveis sequências de temperaturas Na 175ésima entrada do catálogo das possíveis sequências de temperaturas a temperatura média sobre a missão do foguete espacial é onde o limite da integral é a duração em segundos da missão INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 105 Suponha que nos instantes de tempo T 0 1 2 nós rolamos um dado e registramos o resultado NT onde 1 NT 6 Definimos então o processo aleatório Xt tal que para T t T1 Xt NT Neste caso o experimento consiste em uma sequência infinita de rolagens e uma funçãoamostra é simplesmente a forma de onda correspondendo a uma sequência de rolagem em particular Este mapeamento pode ser exemplificado como INTRODUÇÃO PROCESSOS ESTOCÁSTICOS EX 106 Em um sistema de comunicação de chaveamento de fase quaternário QPSK um dentre 4 símbolos s0 s1 s2 s3 é igualmente provável de ser transmitido em T segundos Se o símbolo si é enviado a forma de onda xtsi cos2πf0t π4 iπ2 é transmitida durante o intervalo 0 T Neste exemplo o experimento é a transmissão de um símbolo em 0 T segundos e cada funçãoamostra tem duração T Em um sistema de comunicações real um símbolo é transmitido a cada T segundos e um experimento é transmitir j símbolos dentro de 0 jT segundos Neste caso uma resposta corresponde a uma sequência de j símbolos e uma funçãoamostra tem duração jT segundos INTRODUÇÃO PROCESSOS ESTOCÁSTICOS Assim como analisamos vas discretas e contínuas podemos definir categorias de processos estocásticos para analisar Para isso podemos caracterizar tanto na faixa de valores possíveis em qualquer instante de tempo t mas também a medida dos instantes no qual o processo aleatório pode ocorrer TIPOS DE PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definição Xt é um processo de valores discretos se o conjunto de todas as soluções possíveis de Xt em todos os instantes de tempo t é um conjunto contável SX caso contrário Xt é um processo de valores contínuos Definição o processo estocástico Xt é um processo de tempo discreto se Xt é definido somente para um conjunto de instantes de tempo tn nT onde T é uma constante e n um inteiro caso contrário Xt é um processo de tempocontínuo Definição Uma sequência aleatória Xn é uma sequência ordenada de va X0 X1 EX Para um processo estocástico de TempoDiscreto a função amostra é completamente descrita pela sequência ordenada de vas Xn XnT TIPOS DE PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Como dito anteriormente se observarmos um processo estocástico em um instante de tempo específico t1 teremos após diversos experimentos um espaço amostras de uma va Usaremos Xt1 para denotar esta va a qual deve possuir PDF fXt1x ou PMF PXt1x Observe que a notação é igual para va e processo estocástico Desse modo devese estar atento aos enunciados para saber sobre qual Xt está relacionada EX 108 No exemplo de repetidas rolagens de dados exemplo 105 qual a PMF de X35 VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS A va X35 é o valor de rolar o dado no tempo 3 discreto Neste caso PROCESSOS ESTOCÁSTICOS EX 109 Seja Xt R cos2πft um sinal cosseno retificado tendo amplitude aleatória R com PDF exponencial Qual a PDF fXtx VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS Como Xt 0 para todo t PXt x 0 para x 0 Se x 0 e cos2πft 0 Quando cos2πft 0 a CDF completa de Xt é E assim quando cos2πft 0 PDF de Xt é PROCESSOS ESTOCÁSTICOS EX 109 continuação Se amostrarmos um processo Xt em k instantes de tempo t1 tk obteremos um vetor aleatório kdimensional X Xt1 XtkT Para retirarmos informações sobre um processo aleatório Xt precisamos conseguir as informações para qualquer vetor aleatório X Xt1 XtkT para qualquer valor de k e qualquer conjunto de instantes de tempo t1 tk Para uma va utilizávamos a PDF fXx para descrever X sem precisar especificar exatamente o experimento Da mesma maneira podemos utilizar a PDF conjunta fXt1Xtkx1xk para todo k para descrever um processo estocástico sem nos referirmos aos experimentos Isto é conveniente pois muitos experimentos levam ao mesmo processo estocástico Neste sentido estudaremos 3 modelos de processos estocásticos VARIÁVEIS ALEATÓRIAS DE PROCESSOS ALEATÓRIOS Quando cos2πft 0 correspondendo a t π2 kπ Xt 0 independente do valor de R Neste caso fXtx δx Neste exemplo temos diferentes vas para cada valor de t PROCESSOS ESTOCÁSTICOS Uma sequência aleatória independente e identicamente distribuída iid é uma sequência aleatória Xn na qual X1 X0 X1 são vas iids Uma sequência aleatória iid acontece sempre que realizamos testes independentes de um experimento a uma taxa constante Uma sequência aleatória pode ser de valores discretos cada va Xi possuindo PMF PXix PXx ou de valores contínuos com cada va possuindo PDF fXix fXx EX Na ausência de sinais transmitidos a saída de um filtro casado em um sistema de comunicações digitais é uma sequência iid X1 X2 de vas Gaussianas 0σ SEQUÊNCIAS ALEATÓRIAS IID PROCESSOS ESTOCÁSTICOS Teorema Seja Xn uma sequência aleatória iid Para um processo de valores discretos o vetor aleatório X Xn1 XnkT possui PMF conjunta Para um processo de valores contínuo a PDF conjunta de X Xn1 XnkT é De todas as sequências aleatórias a de Bernoulli é uma das mais simples Definição Processo de Bernoulli Um processo Xn de Bernoulli p é uma sequência aleatória iid na qual cada Xn é uma va de Bernoulli p SEQUÊNCIAS ALEATÓRIAS IID PROCESSO DE BERNOULLI PROCESSOS ESTOCÁSTICOS EX 1012 Em um modelo comum de comunicações a saída X1 X2 de uma fonte binária é modelada como um processo de Bernoulli p 12 EX 1015 Para um processo de Bernoulli p Xn encontre a PMF de X X1 XnT SEQUÊNCIAS ALEATÓRIAS IID PROCESSO DE BERNOULLI Para uma única amostra Xi podemos escrever a PMF de Bernoulli da seguinte maneira Quando xi 0 1 para i 1 n a PMF conjunta pode ser escrita como onde k x1 xn Assim a expressão completa da PMF conjunta é PROCESSOS ESTOCÁSTICOS Proriedade O número de sucessos S em n espaços de tempo eventos independentes possui ES n p VarS n p 1 p Proriedade Seja Ts o número de testes até o primeiro sucesso o evento que o primeiro sucesso acontece em t é uma VA geométrica como o processo de Bernoulli não possui memória então ETs 1 p VarTs 1 p p2 PROCESSO DE BERNOULLI PS k n k pk1 pnk k 0 n PTs t 1 pt1p t 1 PROCESSOS ESTOCÁSTICOS Proriedade Devido a propriedade de ser sem memória toda vez que começamos a observar o processo novamente é como se estivesse começando daquele ponto em diante Isto é tudo que aconteceu antes não tem interferência com o que acontecerá no futuro OBS cuidado para não confundir o fato do processo ser sem memória com o conhecimento de eventos futuros Caso se conheça eventos que estão por vir condicional então o processo não é independente Ex Suponha que você faz apostas de loteria todos os dias Qual a distribuição do comprimento duração da primeira sequência de dias sem ganhar PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 Resultados 1 1 0 0 0 0 1 1 0 1 L PROCESSOS ESTOCÁSTICOS Ex continuação Essa sequência é uma VA porém qual PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 Resultados 1 1 0 0 0 0 1 1 0 1 essa distribuição até o primeiro sucesso L é VA geométrica p essa distribuição até o primeiro sucesso L1 não é VA geométrica p pois saber exatamente onde começa os fracassos indicaria conhecimento do futuro Assim observamos o primeiro fracasso e começamos a contar a partir desse ponto para termos uma VA geométrica p Para terminar a solução do problema verificamos que o tamanho da VA geométrica indicada acima possui o mesmo tamanho da sequência de fracassos logo a seqüência de fracassos é uma VA geométrica p de tamanho L PROCESSOS ESTOCÁSTICOS Ex Agora que descobrirmos como achar a distribuição até a primeira chegada vejamos como calcular o tempo para a segunda chegada terceira chegada e assim por diante Suponha a sequência de sucessos e fracassos PROCESSO DE BERNOULLI Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 Os intervalos Ti são chamados de intervalos entre chegadas Digamos que estamos interessados em encontrar o tempo de chegada do terceiro sucesso ao final de T3 VA denominada Y3 Então basta calcularmos Y3 T1 T2 T3 T1 T2 T3 T1 já sabemos como calcular Ex anterior Agora temos que descobrir que tipo de VAs são T2 e T3 PROCESSOS ESTOCÁSTICOS Ex continuação PROCESSO DE BERNOULLI Cada intervalo de entre chegadas são representadas por VAs independentes cada uma geométrica p Observe que após o resultado do sucesso começamos a contar uma nova distribuição de tempo e assim uma nova VA geométrica que não possui dependência do que aconteceu antes do tempo T1 terminar Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 T1 T2 T3 Assim concluimos que Y3 é a soma das 3 VAs independentes T1 T2 T3 ie Y3 T1 T2 T3 Assim podemos generalizar como o tempo até o késimo sucesso é a soma de k VAs independentes Yk T1 Tk onde Ti são VAs geométricas p PROCESSOS ESTOCÁSTICOS Ex continuação PROCESSO DE BERNOULLI Se quisermos encontrar a distribuição de Yk precisamos considerar Dias 1 2 3 4 5 6 7 8 9 10 11 12 13 Resultados 0 0 0 1 0 0 0 0 0 1 0 0 1 T1 T2 T3 Para essa VA temos EYk k p VarYk k 1 p p2 PYkt PYk t Pk1 chegadas em 1 t1 chegada em t t 1 k 1 pk11 pt1k1 p são independentes válido para t k PROCESSOS ESTOCÁSTICOS Considere que temos um processo de Bernoulli e desejamos separa esse processo em 2 novos processos ao acaso Decidimos para qual novo processo A ou B uma amostra do processo original irá pertencer de acordo com uma jogada de moeda A sequência de jogada de moedas para decidir em qual processo cada amostra irá cair é um processo de Bernoulli q em si e o resultado é que obtemos 2 novos processos de Bernoulli DIVIDINDO PROCESSO DE BERNOULLI Interarrival times Time of the kth arrival T1 number of trials until first success Given that first arrival was at time t ie T1 t PT1 t additional time T2 until next arrival Memoryless property has the same geometric distribution independent of T1 ET1 VarT1 Yk number of trials to kth success EY If you buy a lottery ticket every day what k is the distribution of the length of the first string of losing days VarYk PYk t Splitting of a Bernoulli Process Merging of Indep Bernoulli Processes using independent coin flips Bernoulli p time time Merged process Bernoulli p q pq q time Original process time Bernoulli q 1 q time time yields a Bernoulli process yields Bernoulli processes collisions are counted as one arrival Sec 61 The Bernoulli Process 305 Splitting and Merging of Bernoulli Processes Starting with a Bernoulli process in which there is a probability p of an arrival at each time consider splitting it as follows Whenever there is an arrival we choose to either keep it with probability q or to discard it with probability 1q see Fig 63 Assume that the decisions to keep or discard are independent for different arrivals If we focus on the process of arrivals that are kept we see that it is a Bernoulli process in each time slot there is a probability pq of a kept arrival independent of what happens in other slots For the same reason the process of discarded arrivals is also a Bernoulli process with a probability of a discarded arrival at each time slot equal to p1 q Figure 63 Splitting of a Bernoulli process In a reverse situation we start with two independent Bernoulli processes with parameters p and q respectively and merge them into a single process as follows An arrival is recorded in the merged process if and only if there is an arrival in at least one of the two original processes This happens with probability p q pq one minus the probability 1 p1 q of no arrival in either process Since different time slots in either of the original processes are independent different slots in the merged process are also independent Thus the merged process is Bernoulli with success probability p q pq at each time step see Fig 64 Splitting and merging of Bernoulli or other arrival processes arises in many contexts For example a twomachine work center may see a stream of arriving parts to be processed and split them by sending each part to a randomly chosen machine Conversely a machine may be faced with arrivals of different types that can be merged into a single arrival stream The Poisson Approximation to the Binomial The number of successes in n independent Bernoulli trials is a binomial random variable with parameters n and p and its mean is np In this subsection we 306 The Bernoulli and Poisson Processes Chap 6 Figure 64 Merging of independent Bernoulli processes concentrate on the special case where n is large but p is small so that the mean np has a moderate value A situation of this type arises when one passes from discrete to continuous time a theme to be picked up in the next section For some examples think of the number of airplane accidents on any given day there is a large number n of trials airplane flights but each one has a very small probability p of being involved in an accident Or think of counting the number of typos in a book there is a large number of words but a very small probability of misspelling any single one Mathematically we can address situations of this kind by letting n grow while simultaneously decreasing p in a manner that keeps the product np at a constant value λ In the limit it turns out that the formula for the binomial PMF simplifies to the Poisson PMF A precise statement is provided next together with a reminder of some of the properties of the Poisson PMF that were derived in Chapter 2 Poisson Approximation to the Binomial A Poisson random variable Z with parameter λ takes nonnegative integer values and is described by the PMF pZk eλ λk k k 0 1 2 Its mean and variance are given by EZ λ varZ λ 2 Sequência original Bernoulli p Sequência A Sequência B A sequência A é um processo de Bernoulli pq A sequência B é um processo de Bernoulli p 1 q PROCESSOS ESTOCÁSTICOS O procedimento contrário da divisão também pode ser realizado Se considerarmos os sucessos como chegadas a junção das sequências A e B ambas processos de Bernoulli porém com parâmetros p e q respectivamente terá probabilidade de uma chegada como Pchegada 1 Psem chegada 1 1 p 1 q p q pq Observamos que a junção união de dois processos de Bernoulli geram outro processo de Bernoulli pqpq pois a propriedade de independência entre as amostras de tempo diferentes é preservado UNINDO PROCESSOS DE BERNOULLI Interarrival times Time of the kth arrival T1 number of trials until first success Given that first arrival was at time t ie T1 t PT1 t additional time T2 until next arrival Memoryless property has the same geometric distribution independent of T1 ET1 VarT1 Yk number of trials to kth success EY If you buy a lottery ticket every day what k is the distribution of the length of the first string of losing days VarYk PYk t Splitting of a Bernoulli Process Merging of Indep Bernoulli Processes using independent coin flips Bernoulli p time time Merged process Bernoulli p q pq q time Original process time Bernoulli q 1 q time time yields a Bernoulli process yields Bernoulli processes collisions are counted as one arrival Sec 61 The Bernoulli Process 305 Splitting and Merging of Bernoulli Processes Starting with a Bernoulli process in which there is a probability p of an arrival at each time consider splitting it as follows Whenever there is an arrival we choose to either keep it with probability q or to discard it with probability 1q see Fig 63 Assume that the decisions to keep or discard are independent for different arrivals If we focus on the process of arrivals that are kept we see that it is a Bernoulli process in each time slot there is a probability pq of a kept arrival independent of what happens in other slots For the same reason the process of discarded arrivals is also a Bernoulli process with a probability of a discarded arrival at each time slot equal to p1 q Figure 63 Splitting of a Bernoulli process In a reverse situation we start with two independent Bernoulli processes with parameters p and q respectively and merge them into a single process as follows An arrival is recorded in the merged process if and only if there is an arrival in at least one of the two original processes This happens with probability p q pq one minus the probability 1 p1 q of no arrival in either process Since different time slots in either of the original processes are independent different slots in the merged process are also independent Thus the merged process is Bernoulli with success probability p q pq at each time step see Fig 64 Splitting and merging of Bernoulli or other arrival processes arises in many contexts For example a twomachine work center may see a stream of arriving parts to be processed and split them by sending each part to a randomly chosen machine Conversely a machine may be faced with arrivals of different types that can be merged into a single arrival stream The Poisson Approximation to the Binomial The number of successes in n independent Bernoulli trials is a binomial random variable with parameters n and p and its mean is np In this subsection we 306 The Bernoulli and Poisson Processes Chap 6 Figure 64 Merging of independent Bernoulli processes concentrate on the special case where n is large but p is small so that the mean np has a moderate value A situation of this type arises when one passes from discrete to continuous time a theme to be picked up in the next section For some examples think of the number of airplane accidents on any given day there is a large number n of trials airplane flights but each one has a very small probability p of being involved in an accident Or think of counting the number of typos in a book there is a large number of words but a very small probability of misspelling any single one Mathematically we can address situations of this kind by letting n grow while simultaneously decreasing p in a manner that keeps the product np at a constant value λ In the limit it turns out that the formula for the binomial PMF simplifies to the Poisson PMF A precise statement is provided next together with a reminder of some of the properties of the Poisson PMF that were derived in Chapter 2 Poisson Approximation to the Binomial A Poisson random variable Z with parameter λ takes nonnegative integer values and is described by the PMF pZk eλ λk k k 0 1 2 Its mean and variance are given by EZ λ varZ λ 2 Sequência A p Sequência B q Sequência da união A com B p q pq PROCESSOS ESTOCÁSTICOS Definição Processo de Contagem um processo estocástico Nt é um processo de contagem se para cada função amostra nts 0 para t 0 e nts é um valor inteiro e não decrescente com o tempo Podemos imaginar Nt como a contagem do número de clientes que chegam em um sistema durante o intervalo 0 t Veremos por exemplo As descontinuídades na funçãoamostra de um processo de contagem marcam as chegadas e o número de chegadas no intervalo t0 t1 é simplesmente Nt1 Nt0 PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS Podemos utilizar um processo de Bernoulli X1 X2 para derivar um processo de contagem simples Considere um pequeno passo de tempo de tamanho Δ segundos tal que haja uma chegada no intervalo nΔ n1Δ se e somente se Xn 1 Para uma taxa média de chegada λ 0 chegadas s podemos escolher Δ de modo que λΔ 1 Neste caso a probabilidade de sucesso de Xn é λΔ Isto implica que o número de chegadas Nm antes do tempo T mΔ tenha uma PMF binomial Se m ou equivalentemente Δ 0 a PMF de Nm se torna uma va de Poisson com parâmetro λT onde T t1 t0 Ainda o número de chegadas no intervalo t0 t1 depende dos testes independentes de Bernoulli correspondentes para o intervalo PROCESSO DE POISSON Pn T λTneλT n k0 1 e para T fixo PROCESSOS ESTOCÁSTICOS Assim o número de chegadas em intervalos sem sobreposições são independentes No limite de Δ 0 obtemos um processo de contagem no qual o número de chegadas em um intervalo é uma va de Poisson independente das chegadas em qualquer intervalo sem sobreposição Este processo é chamado de Processo de Poisson Ou seja o processo de Poisson é uma versão de tempo contínuo do processo de Bernoulli Definição Um processo de contagem Nt é um Processo de Poisson de taxa λ se a o número de chegadas em um intervalo t0 t1 Nt1 Nt0 é uma va de Poisson com valor esperado λ t1 t0 b para qualquer par de intervalos sem sobreposição t0 t1 e to t1 o número de chegadas em cada intervalo Nt1 Nt0 e Nt1 Nt0 respectivamente são vas independentes OBS Chamamos λ de taxa do processo pois ENtt λ VarNt λt PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS Teorema Para um processo de Poisson Nt com taxa λ a PMF conjunta de N Nt1 NtkT para instantes de tempo ordenados t1 tk é onde α λt1 e para i 2 k α λti ti1 OBS Essa equação é válida somente para intervalos independentes Neste caso o processo de Poisson é dito sem memória Teorema Para um processo de Poisson de taxa λ os tempos entrechegadas X1 X2 são uma sequência aleatória iid com PDF PROCESSO DE POISSON PROCESSO DE POISSON Teorema Um processo de contagem com entrechegadas exponenciais independentes X1 X2 6 um processo de Poisson de taxa A QUIZ 105 Pacotes de dados transmitidos por um modem por uma linha telefonica formam um processo de Poisson de taxa 10 pacotess Usando M para denotar o numero de pacotes transmitidos na késima hora encontre a PMF conjunta de M e Mb Para resolver esse problema precisamos observar que a primeira e a segunda hora sao intervalos sem sobreposicgao Em seguida encontramos o valor de EMi 360010 pacotes em cada hora Assim as PMFs de M e M2 sao m012 ry 0 otherwise Como M e M2 sao independentes a PMF conjunta de M e M2 é oe mi 01 PMyMz m1 m2 Py m1 Pu m2 mahi 0 otherwise PROCESSOS ESTOCÁSTICOS A soma de duas vas de Poisson independentes é também uma variável de Poisson Assim para qualquer t0 Nt0 N1t0 N2t0 é uma va de Poisson Isto sugere que Nt é um processo de Poisson Teorema Seja N1t e N2t dois processos independentes de Poisson com taxas λ1 e λ2 respectivamente O processo de contagem Nt N1t N2t é um processo de Poisson com taxa λ1 λ2 OBS O processo de Poisson foi visto como um caso limitante de um processo de chegadas de Bernoulli que possui intervalo de chegadas Δ 0 e probabilidade λΔ Para o caso da soma de 2 processos de Poisson independentes com λ1 e λ2 a probabilidade que ambos os processos tenham uma chegada é λ1λ2Δ2 A medida que Δ0 Δ2Δ e a probabilidade de duas chegadas se torna insignificante em comparação a uma única chegada PROPRIEDADES DO PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS EX 1016 Carros caminhões e ônibus chegam a um pedágio como um processos de Poisson independentes com taxas λC 12 carrosminuto λT 09 caminhõesminuto e λB 07 ônibus minuto Em um intervalo de 10 minutos qual a PMF de N o número de veículos carros caminhões ou ônibus que chegam ao pedágio PROPRIEDADES DO PROCESSO DE POISSON Pelo teorema anterior a chegada ao pedágio é um processo de Poisson com taxa λ 12 09 07 28 veículosminuto Em um intervalo de 10 minutos λT 28 e assim N tem PMF PROCESSOS ESTOCÁSTICOS Teorema Os processos de contagem N1t e N2t derivados de uma decomposição de Bernoulli de um processo de Poisson Nt são processos de Poisson independentes com taxas λp e λ1p OBS Chamamos de decomposição de Bernoulli o processo de dividir o processo de Poisson Nt em dois processos de contagem das chegadas tipo 1 e tipo 2 EX 1017 Um servidor de WEB de uma empresa registra os hits pedidos de documentos HTML como um processo de Poisson com uma taxa de 10 hitss Cada página é um pedido interno com probabilidade 07 da intranet da empresa ou um pedido externo com probabilidade 03 da Internet Sobre um intervalo de 10 minutos qual a PMF conjunta de I o número de pedidos internos e X o número de pedidos externos PROPRIEDADES DO PROCESSO DE POISSON PROCESSOS ESTOCÁSTICOS EX 1017continuação OBS Os últimos 2 teoremas demonstram a relação próxima entre um processo de Poisson com a soma de 2 processos de Poisson Assim sempre que observamos 2 processo de Poisson independentes podemos imaginar que eles são derivados de uma decomposição de Bernoulli de um único processo Teorema Seja Nt N1t N2t a soma de dois processo de Poisson com taxas λ1 e λ2 Dado que Nt possui uma chegada a probabilidade condicional que esta chegada é de N1t é λ1λ1λ2 PROPRIEDADES DO PROCESSO DE POISSON Pelo teorema acima os pedidos internos e externos são processos de Poisson independentes com taxas λp 7 hitss e λ1p 3 hitss respectivamente No intervalo de 10 minutos 600 segundos I e X são vas independentes de Poisson com parâmetros αI 4200 hits e αX 1800 hits Logo a PMF conjunta de I e X é PROCESSOS ESTOCÁSTICOS PROCESSOS BERNOULLI X POISSON Característica Poisson Bernoulli Tempos de chegada Contínuo Discreto Taxas de chegada λunidade de tempo ptentativa PMF do n de chegadas Poisson Binomial Distribuição do tempo de entrechegadas Exponencial Geométrica Tempo até a késima chegada Erlang Pascal PROCESSOS ESTOCÁSTICOS O processo de Poisson é um exemplo de processo de tempo contínuo e valores discretos Veremos agora um tipo de processo de tempo contínuo e valores contínuos o Movimento Browniano Definição Um Processo de Movimento Browniano Wt possui a propriedade W0 0 e para τ 0 Wtτ Wt é uma va Gaussiana 0 que é independente de Wt para todo t t O movimento Browniano foi desenvolvido por Robert Brown em 1827 para examinar o movimento de grãos de pólen sobre a água Einstein identificou a fonte desse movimento como colisões aleatórias de moléculas de água em um movimento termal O Processo de Movimento Browniano descreve esse movimento em um dos eixos de movimento O movimento Browniano é outro processo que podemos derivar sua PDF de um vetoramostra W Wt1 WtkT PROCESSO DE MOVIMENTO BROWNIANO p PROCESSOS ESTOCASTICOS PROCESSO DE MOVIMENTO BROWNIANO Teorema Para um processo de movimento Browniano Wt a PDF conjunta de W Wt Wt é 1 Wp Wn1 20 tp th 1 fo a 2ee y QUIZ 107 Seja Wt um processo de movimento Browniano com variancia VarWt at Mostre que Xt WtAa um processo de movimento Browniano com variancia VarXt t Podese verificar que parat s a Wt Ws Xt Xs PET eos Como Wit Ws é uma va Gaussiana pela definigao o valor esperado é g1x xe ZMO WO g e a variancia e EWt Ws at s ERR LVe Won a Avaliando pela definigao VarXt t s 0 PROCESSOS ESTOCÁSTICOS Para vas os primeiro e segundo momentos fornecem um número que resume o modelo de probabilidade completo Em processos estocásticos os momentos são funções determinísticas do tempo que resumem as propriedades de um modelo completo Definição O valor esperado de um processo estocástico Xt é uma função determinística μXt EXt EX 1018 Se R é uma va não negativa encontre o valor esperado de Xt R cos2πft VALOR ESPERADO E CORRELAÇÃO O sinal de cosseno retificado Xt tem valor esperado PROCESSOS ESTOCÁSTICOS Definição A variância de um processo estocástico é uma função determinística σXt VarXt EXt μXt2 O comportamento de Xt é refletido na variação de μXt enquanto a variância oferece uma indicação do espalhamento nos valores que Xt assume em diferentes instantes de tempo A função de covariância fornece importantes informações sobre a estrutura temporal de um processo A CovXY é um indicativo de quanta informação a va X fornece sobre a va Y grandes valores indicam que X fornece uma indicação precisa do valor de Y Se as 2 vas são observações do processo estocástico Xt retiradas nos instantes t1 e t2 t1 τ a covariância indica o quanto o processo é provável de se alterar no espaço de τ entre t1 e t2 um valor alto indica que o processo é pouco provável de se alterar muito enquanto covariância próxima a zero sugere mudanças rápidas VALOR ESPERADO E CORRELAÇÃO PROCESSOS ESTOCÁSTICOS Definição Autocovariância A função de autocovariância de um processo estocástico Xt é CXtτ CovXt Xtτ A função de autocovariância de uma sequência aleatória Xn é CXmk CovXm Xmk O nome autocovariância enfatiza que a medida de covariância é entre amostras de um mesmo processo Xt Existe entretanto a covariânciacruzada que descreve a relação entre dois processos aleatórios diferentes Definição Autocorrelação A função de autocorrelação de um processo estocástico Xt é RXtτ EXt Xtτ A função de autocorrelação de uma sequência aleatória Xn é RXmk EXm Xmk VALOR ESPERADO E CORRELAÇÃO PROCESSOS ESTOCÁSTICOS Teorema Temos as seguintes relações entre as funções de autocorrelação e autocovariância CXtτ RXtτ μXt μXtτ CXnk RXnk μXn μXnk EX 1019 Encontre CXtτ e RXtτ de um processo de movimento Browniano Xt VALOR ESPERADO E CORRELAÇÃO Pela definição do processo de movimento Browniano sabemos que a média é zero Dessa forma a função de autocorrelaçao de autocovariância são iguais ie CXtτ RXtτ Para encontrar RXtτ exploramos a propriedade de incrementos independentes do movimento Browniano Considere τ 0 de modo que RXtτ EXt Xtτ Precisamos rearranjar essa equação uma vez que a definição do movimento Browniano se refere a Xtτ Xt Vamos somar zero dentro do valor esperado ie RXtτ EXt Xtτ Xt Xt EXt Xtτ Xt EX2t PROCESSOS ESTOCÁSTICOS EX 1019 continuação VALOR ESPERADO E CORRELAÇÃO Voltando a definição do movimento Browniano Xt e Xtτ Xt são independentes com valores esperados nulos Logo EXt Xtτ Xt EXt EXtτ Xt 0 Como EXt 0 EX2t VarXt Assim RXtτ EX2t αt para τ 0 Quando τ 0 podemos reverter os argumentos de tempo e obter RXtτ EX2t αtτ para τ 0 Combinando os dois resultados obtemos para qualquer t e τ RXtτ α mint tτ PROCESSOS ESTOCÁSTICOS EX 1020 A entrada de um filtro digital é uma sequência aleatória X1 X0 X1 com EXi 0 e VarXi 1 A saída é uma sequência aleatória Y1 Y0 Y1 relacionada com a sequência de entrada pela equação Yn Xn Xn1 para todos os n inteiros Encontre o valor esperado EYn e a função de autocovariância CYmk VALOR ESPERADO E CORRELAÇÃO Podemos facilmente deduzir a equação para o valor esperado de Yn em relação a Xn EYn EXn Xn1 EXn EXn1 0 Para encontrar CYmk observamos que Xn é uma sequência aleatória iid com EXn 0 e VarXn 1 logo Agora para qualquer valor inteiro de k podemos escrever CYmk EYm Ymk EXm Xm1Xmk Xmk1 EXmXmk XmXmk1 Xm1Xmk Xm1Xmk1 PROCESSOS ESTOCÁSTICOS EX 1020 continuação VALOR ESPERADO E CORRELAÇÃO CYmk CXmk CXmk1 CXm1k1 CXm1k Precisamos analisar a expressão acima para todos os valores de k Observase que pela função da covariância de Xn CXmk 0 para k 0 Assim quando k 1 os valores de k k1 e k1 são todos diferentes de zero e CYmk 0 Quando k0 Para k 1 Finalmente para k 1 Logo a expressão completa é Vemos que como a saída do filtro depende das duas entradas anteriores as saídas Yn e Yn1 são correlacionadas onde as saídas do filtro que estão dois ou mais instantes de tempo separados são descorrelacionadas PROCESSOS ESTOCÁSTICOS QUIZ 108 Dado processo aleatório Xt com valor esperado μXt e autocorrelação RXtτ podemos fazer a observação ruidosa Yt Xt Nt onde Nt é um processo de ruído aleatório com μNt 0 e autocorrelação RNtτ Assumindo que o processo de ruído Nt é independente de Xt encontre o valor esperado e autocorrelação de Yt VALOR ESPERADO E CORRELAÇÃO O valor esperado de Yt é Para a autocorrelação observamos o fato que Xt e Nt são independentes e que Nt tem valor esperado nulo Desse modo Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 PROCESSOS ESTOCÁSTICOS Definição Processo Estacionário Um processo estocástico Xt é estacionário se e somente se para todos os conjuntos de instantes de tempo t1 tm e qualquer diferença de tempo τ Uma sequência aleatória Xn é estacionária se e somente se para qualquer conjunto de instantes de tempos inteiros n1 nm e uma diferença de tempo k Geralmente um processo estocástico é não estacionário Entretanto provar ou negar a estacionariedade pode ser enganoso PROCESSOS ESTACIONÁRIOS PROCESSOS ESTOCÁSTICOS EX 1021 Determine se o processo de movimento Browniano introduzido anteriormente com parâmetro α é estacionário Teorema Seja Xt um processo aleatório estacionário Para constantes a 0 e b Yt aXt b é também um processo estacionário A invariância no tempo de um processo aleatório estacionário leva as definições de correlação e covariância a serem dependentes apenas de τ a diferença de tempo e independente do instante de tempo t PROCESSOS ESTACIONÁRIOS Para o processo de movimento Browniano Xt1 é uma va Gaussiana 0 p1 De maneira similar o Xt2 é uma va Gaussiana 0 p2 Como Xt1 e Xt2 não possuem a mesma variância fXt1x fXt2x e assim o processo de movimento Browniano não é estacionário PROCESSOS ESTOCÁSTICOS Teorema Para um processo estacionário Xt o valor esperado autocorrelação e a autocovariância possuem as seguintes propriedades para todo t a μXt μX b RXtτ RX0τ RXτ c CXtτ RXτ μX2 CXτ Para uma sequência aleatórioia Xn o valor esperado autocorrelação e a autocovariância possuem as seguintes propriedades para todo n a EXn μX b RXnk RX0k RXk c CXnk RXk μX2 CXk PROCESSOS ESTACIONÁRIOS PROCESSOS ESTOCÁSTICOS EX 1022 Em um receptor de radio AM o sinal recebido contém o sinal da portadora cossenoidal na frequência da portadora fc com fase aleatória θ que é valor amostra de uma va uniforme 02π O sinal da portadora recebido é Qual o valor esperado e a autocorrelação do processo Xt PROCESSOS ESTACIONÁRIOS A fase tem PDF Para qualquer ângulo fixo α e inteiro k PROCESSOS ESTOCÁSTICOS EX 1022 continuação PROCESSOS ESTACIONÁRIOS Escolhendo α 2πfct e k 1 Usando identidades trigonométricas podemos encontrar a relação para a função de autocorrelação Para α 2πfctτ e k 2 Logo Como Xt tem as propriedades listada para um processo estacionário Xt é um processo estacionário PROCESSOS ESTOCÁSTICOS Em muitas aplicações de teoria de probabilidade não dispomos do modelo de probabilidade completo de um experimento Mesmo assim muitas informações e resultados podem ser obtidos de informações parciais do modelo valor esperado correlação e variância Definição Processo Estacionário no Sentido Amplo WSS Xt é um processo estocástico estacionário no sentido amplo se e somente se para todo t Xn é uma sequência aleatória no sentido amplo se e somente se par todo n Assim todo processo estacionário é também estacionário no sentido amplo Entretanto o contrário não é verdade PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS PROCESSOS ESTOCÁSTICOS Teorema Para um processo estacionário no sentido amplo Xt a função de autocorrelação possui as seguintes propriedades Se Xn é uma sequência aleatório estacionária no sentido amplo Definição A potência média de um processo estacionário no sentido amplo Xt é RX0 EX2t A potência média de um sequência estacionária no sentido amplo Xn é RX0 EX2n PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS PROCESSOS ESTOCÁSTICOS OBS Essa notação esta de acordo com a equação de potência instantânea sobre um resistor de 1Ω Sendo xt uma função amostra então x2t é a potência instantânea de xt Por extensão X2t é a potência instantânea do processo estocástico Xt Logo o valor esperado equivale a potência média Quando um processo estocástico Xt é estacionário tal que onde o processo é dito Ergódico Isto é a média temporal de uma funçãoamostra de um processo estocástico estacionário no sentido amplo é igual a média de ensemble correspondente De outra maneira um processo estocástico é dito Ergódico se suas propriedades estatísticas média e variância podem ser deduzidas de uma única e suficientemente longa amostra realização PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS lim T 1 XT µX XT 1 2T Z T T xtdt PROCESSOS ESTOCÁSTICOS Teorema Seja Xt um processo aleatório estacionário com valor esperado μX e autocovariância CXτ Se então XT X2T é uma sequência não polarizada e consistente de estimativas de μX QUIZ 1010 Quais das seguintes funções são funções de autocorrelação válidas PROCESSOS ESTACIONÁRIOS NO SENTIDO AMPLO WSS Precisamos determinar se as funções estão de acordo com o teorema das propriedades de processos estacionários Assim 1 é simétrico em torno do eixo com RX0 sendo o maior valor positivo de RXτ De maneira similar 2 é simétrico em torno do eixo com RX0 sendo o maior valor positivo de RXτ Em 3 e 4 não temos funções de autocorrelação válidas uma vez que Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Quiz 108 First we find the expected value µYt µXt µNt µXt 1 To find the autocorrelation we observe that since Xt and Nt are independent and since Nt has zero expected value EXtNt EXtENt 0 Since RYt τ EYtYt τ we have RYt τ E Xt Nt Xt τ Nt τ 2 E XtXt τ E XtNt τ E Xt τNt E NtNt τ 3 RXt τ RNt τ 4 Quiz 109 From Definition 1014 X1 X2 is a stationary random sequence if for all sets of time instants n1 nm and time offset k fXn1Xnm x1 xm fXn1kXnmk x1 xm 1 Since the random sequence is iid fXn1Xnm x1 xm fX x1 fX x2 fX xm 2 Similarly for time instants n1 k nm k fXn1kXnmk x1 xm fX x1 fX x2 fX xm 3 We can conclude that the iid random sequence is stationary Quiz 1010 We must check whether each function Rτ meets the conditions of Theorem 1012 Rτ 0 Rτ Rτ Rτ R0 1 1 R1τ eτ meets all three conditions and thus is valid 2 R2τ eτ 2 also is valid 3 R3τ eτ cos τ is not valid because R32π e2π cos 2π e2π 1 R30 2 4 R4τ eτ 2 sin τ also cannot be an autocorrelation function because R4π2 eπ2 sin π2 eπ2 0 R40 3 62 Z 1 1 CXd 1 PROCESSOS ESTOCÁSTICOS Em muitas aplicações é necessário saber a relação entre dois processos estocásticos Xt e Yt ou sequências aleatórias Xn e Yn Para obter ferramentas úteis para analizar um par de processos usamos correlação e covariância das vas Xt e Ytτ Definição Função de CorrelaçãoCruzada A correlaçãocruzada dos processos aleatórios contínuos no tempo Xt e Yt é RXYtτ EXt Ytτ A correlaçãocruzada das sequências aleatórias Xn e Yn é RXYmk EXm Ymk EX Suponha que o processo Yt consiste do sinal desejado Xt mais ruído Nt Yt Xt Nt Encontre a correlaçãocruzada entre o sinal observado e o sinal desejado assumindo que Xt e Nt são processos aleatórios independentes CORRELAÇÃOCRUZADA PROCESSOS ESTOCÁSTICOS EX continuação CORRELAÇÃOCRUZADA Aplicando o teorema anterior RXY t E XtY t E Xt Xt Nt E XtXt E XtNt RXt E Xt E Nt RXt µXtµNt PROCESSOS ESTOCÁSTICOS Definição Processos Conjuntamente WSS os processos aleatórios de tempo contínuo Xt e Yt são conjuntamente WSS se Xt e Yt são ambos WSS e a correçãocruzada depende somente da diferença de tempo entre as 2 vas RXYtτ RXYτ os processos aleatórios de tempo contínuo Xt e Yt são conjuntamente WSS se Xt e Yt são ambos WSS e a correçãocruzada depende somente da diferença de tempo entre as 2 vas RXYmk RXYk EX 1024 Continuando o exemplo anterior considere que os processos Xt e Nt são WSS ie EXt μX e EXt μN 0 Yt é WSS Xt e Yt são conjuntamente WSS Yt e Nt são conjuntamente WSS CORRELAÇÃOCRUZADA O valor esperado de Yt é EYt EXt Nt EXt ENt μX PROCESSOS ESTOCÁSTICOS EX 1024 continuação CORRELAÇÃOCRUZADA A autocorrelação de Yt é Mas como Xt e Nt são independentes RXNtτ EXt ENtτ 0 RNXtτ Assim a equação acima é simplificada para RYtτ RXτ RNτ RYτ Logo Yt é WSS Para verificar se Yt e Xt são conjuntamente WSS precisamos investigar a correlaçãocruzada que é calculada de maneira similar ao exemplo anterior Assim Yt e Xt são conjuntamente WSS Para Yt e Nt temos RY Nt EY tNt E Xt Nt Nt µXtµNt RNt RN RY N RY Xt RXt µNtµXt RX RY X Logo Yt e Nt também são conjuntamente WSS PROCESSOS ESTOCÁSTICOS EX 1025 Xn é uma sequência aleatória WSS com função de autocorrelação RXk e média zero A sequência aleatória Yn é obtida de Xn pela reversão do sinal a cada alternância da va Xn Yn 1nXn a Expresse a função de autocorrelação em termos de RXk b Expresse a função de correlaçãocruzada de Xn e Yn em termos de RXk c Yn é WSS d Xn e Yn são conjuntamente WSS CORRELAÇÃOCRUZADA a A função de autocorrelação de Yn é RYnk EYn Ynk E1nXn 1nkXnk 12nk EXn Xnk 1k RXk b A função de correlaçãocruzada de Xn e Yn é RXYnk EXn Ynk EXn 1nkXnk 1nk EXn Xnk 1nk RXk c e d Como pode ser observado nas funções acima Yn é WSS e Xn e Yn não são conjuntamente Wss PROCESSOS ESTOCÁSTICOS Teorema Se Xt e Yt são processos contínuos no tempo e conjuntamente WSS então RXYτ RYXτ Se Xn e Yn são sequências aleatórias conjuntamente WSS então RXYk RYXk QUIZ 1011 Xt é um processo WSS com função de autocorrelação RXτ Yt é idêntico a Xt exceto por ser revertido no tempo Yt Xt 1 Expresse a função de autocorrelação de Yt em termos de RXτ Yt é WSS 2 Expresse a função de correlaçãocruzada de Xt e Yt em termos de RXτ Xt e Yt são conjuntamente WSS CORRELAÇÃOCRUZADA PROCESSOS ESTOCÁSTICOS QUIZ 1011 continuação CORRELAÇÃOCRUZADA 1 A autocorrelação de Yt é RYtτ EYt Ytτ EXt Xtτ RXt tτ RXτ Além disso EYt EXt μX uma vez que Xt é WSS Assim Yt é WSS 2 A correlaçãocruzada de Xt e Yt é RXYtτ EXt Ytτ EXt Xtτ RXt tτ RX2t τ Assim RXYtτ depende τ mas também de t e Xt e Yt não são conjuntamente WSS PROCESSOS ESTOCÁSTICOS Definição Xt é um processo estocástico Gaussiano se e somente se X Xt1 XtkT é um vetor aleatório Gaussiano para qualquer inteiro k 0 e qualquer conjunto de instantes de tempo t1 tk Xn é uma sequência aleatória Gaussiana se e somente se X Xn1 XnkT é um vetor aleatório Gaussiano para qualquer inteiro k 0 e qualquer conjunto de instantes de tempo n1 nk Teorema Se Xt é um processo Gaussiano WSS então Xt é um processo Gaussiano estacionário Se Xn é uma sequência Gaussiana WSS então Xn é uma sequência Gaussiana estacionária Definição Wt é um processo de ruído branco Gaussiano se e somente se Wt é um processo estocástico Gaussiano estacionário com as propriedades μX 0 e RWτ η0δτ PROCESSO GAUSSIANO PROCESSOS ESTOCASTICOS PROCESSO GAUSSIANO QUIZ 1012 Xt um processo aleatdério Gaussiano estacionario com uxt 0 e fungado de autocorrelagao RxT 2 Qual a PDF conjunta de Xt e Xt1 Comecamos observando que EXt EXt1 0 VarXt VarXt1 1 e EXt Xt1 12 Assim pra o vetor aleatério Gaussiano X Xt Xt1T temos a matriz de covariancia e sua iInversa 7 ie OL 1 ae ex 12 4 Cy 12 I Dessa forma a PDF conjunta de Xt e Xt1 é ane on ee ee lqn1 Fx tX 41 Xo x1 2m 2 det Cx2 Xp 7 Cy x 1 3x3x0x123 J 302