Estatística - Conceitos de Estatística - Centro de Seleção e de Promoção de Eventos UnB (CESPE) - 2012
A cadeia de Markov {X(t)} é um processo estocástico periódico.
Os estados dessa cadeia de Markov são transientes (ou transitórios).
A cadeia de Markov em questão é duplamente estocástica.
O processo {X(t)} é uma cadeia de Markov irredutível.
{TITLE}
{CONTENT}
{TITLE}
Aguarde, enviando solicitação...