Lista completa de Questões de Português do ano 2021 para resolução totalmente grátis. Selecione os assuntos no filtro de questões e comece a resolver exercícios.
Leia o texto para responder à questão.
Lições de vida
Em 2009, um avião pousou de emergência no rio Hudson. O piloto era Sully Sullenberger e as 155 pessoas a bordo foram salvas por uma manobra impossível, perigosa, milagrosa. Sully virou herói e a lenda estava criada.
Em 2016, no filme Sully, o herói do rio Hudson, Clint Eastwood revisitou a lenda para contar o que aconteceu depois do milagre: uma séria investigação às competências do capitão Sully Sullenberger. Ele salvara 155 pessoas, ninguém contestava. Mas foi mesmo necessário pousar no Hudson? Ou o gesto revelou uma imprudência criminosa, sobretudo quando existiam opções mais sensatas?
Foram feitas simulações de computador. E a máquina deu o seu veredicto: era possível ter evitado as águas do rio e pousar em LaGuardia ou Teterboro. O próprio Sully começou a duvidar das suas competências. Todos falhamos. Será que ele falhou?
Por causa desse filme, reli um dos ensaios de Michael Oakeshott, cujo título é Rationalism in Politics. Argumenta o autor que, a partir do Renascimento, o racionalismo tornou-se a mais influente moda intelectual da Europa. Por racionalismo, entenda-se: uma crença na razão dos homens como guia único, supremo, da conduta humana.
Para o racionalista, o conhecimento que importa não vem da tradição, da experiência, da vida vivida. O conhecimento é sempre um conhecimento técnico, ou de uma técnica, que pode ser resumido ou aprendido em livros ou doutrinas.
Oakeshott argumentava que o conhecimento humano depende sempre de um conhecimento técnico e prático, mesmo que os ensinamentos da prática não possam ser apresentados com rigor cartesiano.
Clint Eastwood revisita a mesma dicotomia de Oakeshott para contar a história de Sullenberger. O avião perde os seus motores na colisão com aves; o copiloto, sintomaticamente, procura a resposta no manual de instruções; mas é Sully quem, conhecendo o manual, entende que ele não basta para salvar o dia.
E, se os computadores dizem que ele está errado, ele sabe que não está uma sabedoria que não se encontra em nenhum livro já que a experiência humana não é uma equação matemática.
As máquinas são ideais para lidar com situações ideais. Infelizmente, o mundo comum é perpetuamente devassado por contingências, ambiguidades, angústias, mas também súbitas iluminações que só os seres humanos, e não as máquinas, são capazes de entender.
Quando li Oakeshott, encontrei um filósofo que, contra toda a arrogância da modernidade, mostrava como a nossa imperfeição pode ser, às vezes, uma forma de salvação. O ensaio era, paradoxalmente, uma lição de humildade e uma apologia da grandeza humana. Eastwood, aos 86 anos, traduziu essas imagens.
(João Pereira Coutinho. Folha de S.Paulo, 29.11.2016. Adaptado)
Leia as frases reescritas com base nas ideias do texto.
Para rever a situação, foram feitas simulações pelo computador.
Não bastavam manuais de instruções para salvar o dia.
A primeira conclusão era de que existiam opções mais sensatas a serem tomadas pelo piloto.
De acordo com a concordância verbal e nominal estabelecida pela norma-padrão, as expressões destacadas podem ser substituídas, respectivamente, por:
A máxima da teoria ética da responsabilidade apregoa que somos responsáveis por aquilo que fazemos e reza: Aja para atingir fins universalistas. Em vez de aplicar ordenamentos previamente estabelecidos, os agentes priorizam as consequências das decisões e ações. Realizam assim uma análise situacional: avaliam os efeitos previsíveis que uma ação produz; planejam obter resultados positivos para si e para os demais agentes que interagem consigo sem ferir os interesses alheios; e, por fim, ampliam o leque das escolhas quando preconizam: dos males, o menor ou quando visam fazer mais bem ao maior número de pessoas.
(Robert Henry Srour. Ética empresarial)
A máxima da teoria ética da responsabilidade apregoa que somos responsáveis por aquilo que fazemos e reza: Aja para atingir fins universalistas. Em vez de aplicar ordenamentos previamente estabelecidos, os agentes priorizam as consequências das decisões e ações. Realizam assim uma análise situacional: avaliam os efeitos previsíveis que uma ação produz; planejam obter resultados positivos para si e para os demais agentes que interagem consigo sem ferir os interesses alheios; e, por fim, ampliam o leque das escolhas quando preconizam: dos males, o menor ou quando visam fazer mais bem ao maior número de pessoas.
(Robert Henry Srour. Ética empresarial)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado uma moratória para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site Politico, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
{TITLE}
{CONTENT}
{TITLE}
Aguarde, enviando solicitação...