Lista completa de Questões de Engenharia Eletrônica para resolução totalmente grátis. Selecione os assuntos no filtro de questões e comece a resolver exercícios.
Sinais digitais bidimensionais, como é o caso de imagens, além de requererem um grande esforço computacional em seu processamento, também envolvem uma enorme quantidade de informações (em outras palavras, grande quantidade de bits, como pode ser observado na tabela do texto CE-I), das quais, grande parte é considerada redundante. O padrão de imagem JPEG foi desenvolvido com o objetivo de obter uma representação compactada de imagens estáticas. Com relação à descrição de algumas etapas do codificador desse tipo de imagem, julgue os itens seguintes.
Cada matriz de coeficientes transformados é quantizada segundo as tabelas de quantização. Nesse processo, os coeficientes são divididos pelos valores apresentados na tabela de quantização. Como a operação é realizada em ponto fixo, muitos coeficientes quantizados podem assumir valor nulo, gerando uma matriz esparsa no domínio da DCT.
Sinais digitais bidimensionais, como é o caso de imagens, além de requererem um grande esforço computacional em seu processamento, também envolvem uma enorme quantidade de informações (em outras palavras, grande quantidade de bits, como pode ser observado na tabela do texto CE-I), das quais, grande parte é considerada redundante. O padrão de imagem JPEG foi desenvolvido com o objetivo de obter uma representação compactada de imagens estáticas. Com relação à descrição de algumas etapas do codificador desse tipo de imagem, julgue os itens seguintes.
Após a quantização dos coeficientes da DCT, os coeficientes de cada bloco são ordenados segundo uma varredura em ziguezague, formando um vetor de coeficientes quantizados.
Sinais digitais bidimensionais, como é o caso de imagens, além de requererem um grande esforço computacional em seu processamento, também envolvem uma enorme quantidade de informações (em outras palavras, grande quantidade de bits, como pode ser observado na tabela do texto CE-I), das quais, grande parte é considerada redundante. O padrão de imagem JPEG foi desenvolvido com o objetivo de obter uma representação compactada de imagens estáticas. Com relação à descrição de algumas etapas do codificador desse tipo de imagem, julgue os itens seguintes.
Como o coeficiente DC ainda apresenta uma redundância residual e uma amplitude significativa quando comparado aos coeficientes AC, ele é codificado de forma integral, alocando-se uma maior quantidade de bits para descrevê-lo, ou seja, a codificação desse coeficiente diz respeito a sua amplitude quantizada. Já os coeficientes AC podem ser codificados de maneira diferencial, ou seja, de um bloco para outro é calculada a diferença entre os coeficientes AC desses blocos vizinhos. Essa diferença é a informação a ser codificada e não a amplitude dos coeficientes.
Sinais digitais bidimensionais, como é o caso de imagens, além de requererem um grande esforço computacional em seu processamento, também envolvem uma enorme quantidade de informações (em outras palavras, grande quantidade de bits, como pode ser observado na tabela do texto CE-I), das quais, grande parte é considerada redundante. O padrão de imagem JPEG foi desenvolvido com o objetivo de obter uma representação compactada de imagens estáticas. Com relação à descrição de algumas etapas do codificador desse tipo de imagem, julgue os itens seguintes.
A seqüência de coeficientes quantizados é codificada utilizando-se o algoritmo Runlength e gerando-se uma seqüência intermediária de símbolos. Finalmente, essa seqüência de símbolos é codificada segundo a técnica Lempel- Ziv-Welch (LZV) e pode ser armazenada e(ou) transmitida.
De forma geral, aplicações como TV, teleconferência e vídeo também vêm tecnologicamente caminhando no sentido da implementação digital. Entretanto, como pode ser constatado na tabela do texto CE-I, o tratamento de vídeo na forma digital envolve uma grande quantidade de bits. Por outro lado, cada quadro do vídeo exibe uma redundância intrínseca típica que também pode ser observada na linha temporal, ou seja, de quadro para quadro. Podese, então, pensar em comprimir o vídeo, minimizando-se a redundância intraframe (dentro de cada quadro) e interframe (entre frames distintos). Desde a década de 70 do século passado, tem-se pesquisado e desenvolvido técnicas de compressão de vídeo para tornar realizável as propostas digitais. A compressão de vídeo pode ser vista, em poucas palavras, como a compressão de uma seqüência de imagens que se sucedem segundo uma variável temporal. Vários padrões foram desenvolvidos ou ainda estão em estudo. No que se refere aos padrões de compressão de vídeo, julgue os itens que se seguem.
A estrutura básica do MPEG-1, método de compressão de vídeo proposto pelo moving picture experts group (MPEG), é muito similar ao proposto pelo ITU-T, norma H-261. A imagem, seja ela a original ou a diferença entre a imagem original e a predição pelo algoritmo de compensação de movimento, é segmentada em blocos de 16 × 16 pixels (elementos de imagem) e a cada segmento é aplicada a transformada discreta de co-senos. Os blocos são organizados em macroblocos, que são também definidos de maneira análoga à norma H-261. A norma define o tamanho do macrobloco como um valor fixo. O macrobloco é constituído por quinze blocos de 16 × 16 pixels. Sobre o nível de macrobloco, é aplicado o algoritmo de compensação de movimento. Os coeficientes transformados são quantizados e transmitidos para o sistema receptor.
De forma geral, aplicações como TV, teleconferência e vídeo também vêm tecnologicamente caminhando no sentido da implementação digital. Entretanto, como pode ser constatado na tabela do texto CE-I, o tratamento de vídeo na forma digital envolve uma grande quantidade de bits. Por outro lado, cada quadro do vídeo exibe uma redundância intrínseca típica que também pode ser observada na linha temporal, ou seja, de quadro para quadro. Podese, então, pensar em comprimir o vídeo, minimizando-se a redundância intraframe (dentro de cada quadro) e interframe (entre frames distintos). Desde a década de 70 do século passado, tem-se pesquisado e desenvolvido técnicas de compressão de vídeo para tornar realizável as propostas digitais. A compressão de vídeo pode ser vista, em poucas palavras, como a compressão de uma seqüência de imagens que se sucedem segundo uma variável temporal. Vários padrões foram desenvolvidos ou ainda estão em estudo. No que se refere aos padrões de compressão de vídeo, julgue os itens que se seguem.
Enquanto o MPEG-1 foi especificamente proposto para o armazenamento em mídia digital, o MPEG-2 objetivou prover de forma genérica um padrão dedicado para vídeo a baixa taxa, como é o caso do videofone. Conceitualmente, o algoritmo do MPEG-2 é similar ao do MPEG-1; entretanto, ele é limitado à resolução típica de videofone, ou seja, quadro de 256 × 256 pixels.
De forma geral, aplicações como TV, teleconferência e vídeo também vêm tecnologicamente caminhando no sentido da implementação digital. Entretanto, como pode ser constatado na tabela do texto CE-I, o tratamento de vídeo na forma digital envolve uma grande quantidade de bits. Por outro lado, cada quadro do vídeo exibe uma redundância intrínseca típica que também pode ser observada na linha temporal, ou seja, de quadro para quadro. Podese, então, pensar em comprimir o vídeo, minimizando-se a redundância intraframe (dentro de cada quadro) e interframe (entre frames distintos). Desde a década de 70 do século passado, tem-se pesquisado e desenvolvido técnicas de compressão de vídeo para tornar realizável as propostas digitais. A compressão de vídeo pode ser vista, em poucas palavras, como a compressão de uma seqüência de imagens que se sucedem segundo uma variável temporal. Vários padrões foram desenvolvidos ou ainda estão em estudo. No que se refere aos padrões de compressão de vídeo, julgue os itens que se seguem.
O algoritmo MEPG-3, popularmente conhecido como MP-3, constitui uma evolução da codificação de áudio do MPEG-2 e deu origem a um novo padrão de codificação de áudio, atualmente muito difundido na Internet.
De forma geral, aplicações como TV, teleconferência e vídeo também vêm tecnologicamente caminhando no sentido da implementação digital. Entretanto, como pode ser constatado na tabela do texto CE-I, o tratamento de vídeo na forma digital envolve uma grande quantidade de bits. Por outro lado, cada quadro do vídeo exibe uma redundância intrínseca típica que também pode ser observada na linha temporal, ou seja, de quadro para quadro. Podese, então, pensar em comprimir o vídeo, minimizando-se a redundância intraframe (dentro de cada quadro) e interframe (entre frames distintos). Desde a década de 70 do século passado, tem-se pesquisado e desenvolvido técnicas de compressão de vídeo para tornar realizável as propostas digitais. A compressão de vídeo pode ser vista, em poucas palavras, como a compressão de uma seqüência de imagens que se sucedem segundo uma variável temporal. Vários padrões foram desenvolvidos ou ainda estão em estudo. No que se refere aos padrões de compressão de vídeo, julgue os itens que se seguem.
O padrão MPEG-4 provê uma modelagem mais abstrata para a codificação de sinais multimídia. O algoritmo trata a cena multimídia como uma coleção de objetos. Esses objetos podem ser visuais, como, por exemplo, o plano de fundo de uma imagem, ou podem ser aurais, como, por exemplo, a voz, a música e um ruído de fundo. Cada um desses objetos pode ser codificado independentemente por meio de diferentes técnicas, gerando conjuntos elementares de seqüências de bits. Essas seqüências de bits descritivas dos objetos são multiplexadas no sentido de descrever a cena em forma codificada. A linguagem denominada formato binário para cenas (BIPS), que se baseia na modelagem de realidade virtual (VRML), tem sido desenvolvida e aperfeiçoada pelo MPEG para a descrição de cenas.
De forma geral, aplicações como TV, teleconferência e vídeo também vêm tecnologicamente caminhando no sentido da implementação digital. Entretanto, como pode ser constatado na tabela do texto CE-I, o tratamento de vídeo na forma digital envolve uma grande quantidade de bits. Por outro lado, cada quadro do vídeo exibe uma redundância intrínseca típica que também pode ser observada na linha temporal, ou seja, de quadro para quadro. Podese, então, pensar em comprimir o vídeo, minimizando-se a redundância intraframe (dentro de cada quadro) e interframe (entre frames distintos). Desde a década de 70 do século passado, tem-se pesquisado e desenvolvido técnicas de compressão de vídeo para tornar realizável as propostas digitais. A compressão de vídeo pode ser vista, em poucas palavras, como a compressão de uma seqüência de imagens que se sucedem segundo uma variável temporal. Vários padrões foram desenvolvidos ou ainda estão em estudo. No que se refere aos padrões de compressão de vídeo, julgue os itens que se seguem.
O padrão MPEG-7, que está em fase de desenvolvimento e é similar ao MPEG-4, destina-se aos serviços de vídeo de alta definição em redes de comunicação de alta velocidade, como o padrão ATM.
Qualquer processo que se proponha a apresentar uma imagem tem como objetivo óbvio o olho de um observador. No caso particular da televisão, em um grau muito maior que em processos estáticos, o olho participa como elemento do sistema. Para produzir uma imagem dinâmica aos olhos de um observador, o processo de transmissão e de recepção de sinais de televisão apresenta um significativo grau de complexidade. Com relação à construção, à recepção e à reprodução de imagem em sistema de TV, de acordo com os órgãos reguladores da difusão de televisão, julgue os itens a seguir.
A freqüência de quadro, no sistema PAL-M, é de 30 Hz, ou trinta cenas por segundo, usando varredura entrelaçada, com dois campos por quadro, campo de linhas ímpares e campo de linhas pares, correspondendo a uma freqüência de campo de 60 Hz.
{TITLE}
{CONTENT}
{TITLE}
Aguarde, enviando solicitação...