Ciência da Computação - Gestão de TI - Centro de Seleção e de Promoção de Eventos UnB (CESPE) - 2007
Com relação à teoria da informação, julgue os itens seguintes.
Tomado sobre um conjunto de variáveis aleatórias, o valor da entropia de cada uma dessas variáveis é sempre maior ou igual a zero e pode medir a quantidade de informação que cada variável comporta. Se duas dessas variáveis X e Y são independentes, a entropia de XY é sempre inferior à entropia de X.
{TITLE}
{CONTENT}
{TITLE}
Aguarde, enviando solicitação...