Estatística - Conceitos de Estatística - Centro de Seleção e de Promoção de Eventos UnB (CESPE) - 2011
Uma cadeia de Markov é denominada irredutível (ou ergódica) caso qualquer estado possa ser transformado em qualquer outro estado, não necessariamente em um único passo. Uma cadeia de Markov com matriz de transição P é regular caso exista um número inteiro positivo n tal que todos os elementos da matriz potência Pn sejam estritamente positivos.
Julgue os seguintes itens a respeito desses conceitos.
{TITLE}
{CONTENT}
{TITLE}
Aguarde, enviando solicitação...