Translate

terça-feira, 14 de junho de 2011

O que importa na hora de comprar um PC?

Jason Cross, Ginny Mies, Patrick Miller, Tim Moynihan, Melissa J. Perenson, Nate Ralph, and Melissa Riofrio, PCWorld EUA
13-06-2011
Muitos gigahertz e gigabytes chamam a atenção, mas nem sempre são a coisa mais importante em um desktop ou notebook. Antes de passar o cartão, aprenda quais características realmente importam.


Em todos os tipos de produtos há características que são enfatizadas pelos fabricantes e vendedores, mas que na verdade não tem muita importância para a maioria das pessoas. Muitas delas são importantes só em um contexto mas não em outros, e algumas características realmente importantes às vezes não recebem atenção.

Computadores, sejam desktops ou notebooks, não são diferentes. Antes de gastar seu rico dinheirinho em um novo modelo com um processador de “trocentos gigahertz”, leve em conta as informações neste artigo. Aqui mostramos quais as características que você pode ignorar, quais são importantes em determinadas situações, e quais você deve procurar em sua próxima máquina.

O que não importa

Pequenas diferenças no clock (“velocidade”) do processador: um processador de 2.6 GHz com certeza será mais rápido que um modelo de 1.2 GHz, mas você não deve pagar a mais por diferenças pequenas. Na prática, você não conseguirá notar a diferença entre um processador Core i5 de 2.3 GHz e um de 2.5 GHz, portanto não se preocupe com isso.

Velocidade da RAM: Essa informação às vezes aparece nas fichas técnicas de alguns fabricantes, mas não é comum. Assim como nos processadores, mais rápido é melhor, mas no dia-a-dia a diferença entre pentes de memória que operam a 1066 ou 1333 MHz é praticamente nenhuma.

Velocidade de gravação de discos DVD ou Blu-Ray: mesmo que você seja um dos poucos que ainda lida frequentemente com mídia física, terá dificuldade em encontrar uma unidade óptica que tenha uma vantagem considerável na velocidade de gravação. Se você vai gravar um disco, terá de esperar um pouco, não importa se o gravador funciona 6x ou 10x. E todos eles tocam filmes do mesmo jeito.

O que às vezes importa

Placas 3D (GPUs) com toneladas de memória: tudo o que você quer é assistir a alguns filmes em Blu-ray e vídeos em HD no YouTube? Então não faz sentido investir em uma GPU, mesmo um modelo mediano, com 1 ou 2 GB de RAM. A placa de vídeo que veio com seu computador provavelmente é mais do que suficiente para a tarefa, especialmente se ele foi fabricado nos últimos dois anos, ou se é um novo computador com processadores Intel Core de segunda geração (família Sandy Bridge) ou AMD Fusion.

Jogos são a exceção. Nesses casos a placa de vídeo que veio com seu computador provavelmente não dará conta do recado, e uma GPU mais sofisticada com 1 GB de RAM irá ter desempenho melhor que um modelo de 512 MB ou 256 MB. Modelos com 2 GB são praticamente uma categoria à parte, exclusividade de entusiastas que exigem o máximo em desempenho nos jogos e não se acanham em gastar quase R$ 1.000 pra isso.

Quantidades enormes de memória de vídeo só são realmente úteis em gráficos de qualidade muito alta em telas de resolução muito alta. Um processador de vídeo mais rápido com menos RAM irá sempre ter melhor desempenho que um processador inferior com muita RAM.

Processadores quad-core: no mundo dos notebooks um processador dual-core (com dois núcleos) provavelmente terá desempenho melhor que um quad-core (com quatro núcleos) para a maioria dos aplicativos do dia-a-dia utilizados pela maioria dos usuários. Um processador dual-core geralmente opera a uma frequência (clock) mais alta, e a maioria dos aplicativos de uso geral (como editores de texto e navegadores) não faz bom uso de um processador com quatro núcleos.

Mas se você faz muita edição de vídeo, computação científica ou cálculos de engenharia, então um processador quad-core é o ideal. Se você quiser comprar uma máquina “pronta para o futuro”, tenha em mente que os aplicativos “multithreaded” (capazes de executar várias tarefas em paralelo, tirando proveito dos múltiplos núcleos de um processador moderno) estão se tornando comuns, e seu PC conseguirá fazer mais coisas ao mesmo tempo se tiver mais poder de processamento.

Brilho da tela de um notebook: uma tela brilhante demais em um notebook irá esgotar a bateria rapidamente. Uma tela de 300 nits (a medida de brilho de uma tela) é tão brilhante que chega a incomodar os olhos, e a maioria dos usuários, de qualquer forma, diminui o brilho de suas telas.

O brilho é realmente importante para as pessoas que usam seus notebooks ao ar livre. Nesse caso, quanto mais brilhante a tela, melhor.

O que realmente importa

Quantidade de RAM: quanto mais melhor, sempre. Um netbook com 2 GB de RAM será muito mais “esperto” que um modelo com 1 GB. Se você quer o melhor em desempenho e pretende trabalhar com muitos programas abertos ao mesmo tempo (ou dezenas de abas simultâneamente no navegador), não aceite menos que 4 GB, e máquinas com 6 ou 8 GB não são uma má idéia se você pagar o preço.

Um HD espaçoso e rápido: a “velocidade” de um HD é medida em rotações por minuto (RPM). Quanto mais rápido o disco onde os dados estão armazenados gira, mais rápido o computador pode chegar até eles e maior a velocidade de transferência. Um PC equipado com um HD de 7.200 rpm será notavelmente mais rápido que uma máquina similar com um disco de 5.400 rpm na hora de carregar o sistema operacional, abrir aplicativos e copiar arquivos.

Quanto ao espaço em disco, qual o sentido de ter um “super” PC se não cabe nada dentro dele? Espaço em disco está cada vez mais barato, e discos de 3 TB estão começando a aparecer nas lojas. Na prática, não aceite nada menor que 500 GB, e procure modelos com discos de 640 GB ou 1 TB se puder pagar a diferença (que não deve ser muito grande).

Discos de estado sólido (SSDs) ainda são raros por aqui e tem capacidade limitada, modelos de 128 GB ou 256 GB são os mais comuns, mas ainda assim caros. Entretanto eles podem causar uma diferença notável no desempenho da máquina, reduzindo drasticamente o tempo necessário para o boot e carga dos aplicativos.

Se você puder, invista nesta tecnologia. Mesmo um SSD menor, como um modelo de 64 GB, pode ser útil: coloque o sistema operacional nele, e deixe seu HD tradicional para os arquivos grandes como filmes, fotos e músicas.

Peso: mesmo pequenas diferenças no peso podem fazer um grande diferença quando você está carregando a máquina o dia todo por aí. A diferença de peso entre um máquina de 1,5 Kg e uma de 2,2 Kg pode não parecer tão grande, mas acredite: no final do dia ela será imensa.

Autonomia de bateria: quanto mais melhor, mas tenha cuidado. Fabricantes costumam relatar números de autonomia de bateria obtidos sob “condições ideais”, que você raramente irá encontrar no dia a dia (Wi-Fi desabilitado, brilho da tela em 25%, apenas um aplicativo rodando, etc). Para ter uma idéia da autonomia real, pegue o número informado pelo fabricante e reduza-o em 20%.

Ou seja, uma bateria com autonomia de “3 horas” vai durar na verdade menos de duas horas e meia. Não aceite nenhuma máquina com autonomia menor do que três horas, especialmente se viaja muito e precisa fazer uso constante dele. Não há nada pior do que ficar caçando uma tomada no aeroporto a cada 2 horas só para poder continuar trabalhando. Quer dizer, há sim: ficar sem bateria durante o vôo e não conseguir terminar uma apresentação ou relatório.

Fonte:http://pcworld.uol.com.br/dicas/2011/06/13/o-que-importa-na-hora-de-comprar-um-pc/

domingo, 12 de junho de 2011

e-Books são "um passo atrás na história dos livros", diz Stallman

PC World/EUA
10-06-2011
(Katherine Noyes)
Para o fundador do projeto GNU, livrarias virtuais restringem o uso das obras digitais e os usuários não são donos de seus arquivos.


À primeira vista, ebooks e e-readers parecem um bom avanço para clientes e empresas. Afinal, aumentam a quantidade de leitores e os preços dos dispositivos estão baixando, tornando-os acessíveis para mais gente.

E-books não são baratos, mas as vendas estão crescendo. Entre janeiro e fevereiro deste ano, o mercado vendeu mais de 164 milhões em livros digitais, de acordo com a Associação de Editores dos EUA. O crescimento foi de quase 170% comparado ao mesmo período em 2010. Mas as ferramentas de leitura atuais ainda não são boas para o público, afirma Richard Stallman, fundador do movimento software livre e do projeto GNU. Em um artigo chamado “The danger of e-books”, Stallman descreve a situação atual como “um passo atrás na história dos livros”. “Mais restritivos que a lei de direitos autorais”.

Livros podem ser comprados anonimamente, sem a necessidade de assinar qualquer tipo de licença de restrição de uso, declarou Satallman. Não é requerida nenhuma tecnologia do usuário e às vezes é mais adequado à lei de escaneamento e cópias.

Uma vez pago, o comprador é dono do livro e nem a editora, nem a livraria tem o poder de destruí-lo.

É um grande contraste em relação aos arquivos da Amazon, onde não apenas o usuário precisa se identificar, como também aceitar a “licença restritiva” de uso, acrescenta Stallman.“Em alguns países, a Amazon diz que o usuário não é dono do e-book. O formato é secreto e apenas o usuário que comprou o livro tem acesso a ele”.

Copiar livros digitais é “impossível devido ao recurso DRM (Digital Restrictions Management) presente no e-reader, o que é mais restritivo que os direitos autorais”, disse Stallman.

Além disso, a Amazon também pode deletar livros comprados, da mesma forma que fez em 2009 com “milhares de cópias da obra '1984', de George Orwell. Devemos rejeitar e-books”, afirmou Stallman.

O argumento de Stallman é que "devemos rejeitar os e-books até que eles respeitem a nossa liberdade".

Ele sugere que melhores formas de apoiar os autores seriam " distribuir os fundos fiscais aos autores com base na raiz cúbica de popularidade de cada um, e também "projetar os e-readers com um recurso para que usuários possam enviar doações aos autores".

Fonte:http://pcworld.uol.com.br/noticias/2011/06/10/e-books-sao-um-passo-atras-na-historia-dos-livros-diz-stallman/

Governo Federal terá sistema de computação em nuvem

O secretário de Política de Informática do Ministério da Ciência e Tecnologia (MCT), Virgilio Almeida, anunciou que o Governo Federal está se articulando para ter sua própria rede de computação em nuvem.

Os mecanismos para estimular a criação de protótipos de redes de computação em nuvem que atendam as universidades e institutos de pesquisa foram incluídos no 2º Plano de Ação em Ciência, Tecnologia e Inovação (PACTI). "Dessa forma, vamos fazer pesquisas ao mesmo tempo em que fazemos a capacitação de profissionais que nos ajudarão com esse sistema", afirmou Virgilio Almeida.

A construção da arquitetura para a computação em nuvem do Governo Federal está sendo feita por meio de um projeto envolvendo o Laboratório Nacional de Computação Científica (LNCC), o Serviço Federal de Processamento de Dados (Serpro), e a Empresa de Tecnologia e Informações da Previdência Social (DataPrev).

O projeto também reúne as maneiras mais adequadas para proteger os dados que estiverem em rede. "Ao invés de ter um centro de dados em cada ministério, órgão federal ou agências teremos uma nuvem com vários centros de dados para atender a demanda nacional. Com isso poupamos espaço e custos", afirma.

Computação em nuvem - Com o surgimento da Internet surgiram diversas tecnologias para facilitar a vida do usuário. Atualmente, a sensação tecnológica do mundo virtual é a computação em nuvem. Também conhecida como cloud computing, ela permite que os programas e documentos pessoais fiquem "armazenados na internet".

Na verdade, a computação em nuvem permite que esses softwares e documentos fiquem armazenados em grandes centros de dados espalhados pelo mundo. "Já utilizamos muitos serviços em nuvem. Os nossos e-mails e vídeos disponíveis no youtube, por exemplo, estão nesses grandes centros de dados que ficam espalhados pelo mundo. Antes era uma tendência e agora é realidade", exemplifica Almeida.

Além de permitir que o usuário acesse os dados e programas de qualquer computador com acesso a internet, especialistas afirmam que haverá redução de custos para os usuários. "A tendência é que os fabricantes de software cobrem pelo uso dos programas e não mais pela licença de uso ilimitado", analisa o secretário.
(Site Inovação Tecnológica - 9/06)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77932

Fim dos lixões em 2014: meta factível

Artigo de Tadayuki Yoshimura publicado no Correio Braziliense de hoje (10).

Após discussões que se prolongaram por mais de 20 anos, foi aprovada em agosto e regulamentada em dezembro do ano passado a Lei nº 12.305, que instituiu a Política Nacional de Resíduos Sólidos (PNRS). A nova norma legal estabelece os princípios de responsabilidade compartilhada sobre a destinação dos produtos no fim de sua vida útil.

O objetivo da legislação é garantir uma eficiente gestão integrada dos resíduos sólidos, estabelecendo a responsabilidade compartilhada e fazendo com que toda a cadeia responsável pela produção de um bem ou produto de consumo se responsabilize pela destinação final do material, seja com o objetivo de reciclá-lo, reutilizá-lo ou rejeitá-lo, este último somente caso não haja mais como aproveitá-lo para uma finalidade produtiva. Assim, produtores, fabricantes, importadores, distribuidores, comerciantes, consumidores e os agentes de serviços e gestão da limpeza pública têm responsabilidade sobre o adequado encaminhamento dos produtos que tiveram seu período de utilização encerrado.

Foi e está sendo discutido o estabelecimento de metas para que o Brasil tenha uma política de destinação de resíduos sólidos ambientalmente responsável. Elas incluem prazos para reduzir o percentual de resíduos reutilizáveis e recicláveis enviados para os aterros sanitários, com o objetivo de diminuir o volume de material para ampliar a vida útil desses ambientes adequados de acomodação de resíduos e estimular o reaproveitamento de substâncias; para a adoção de sistemas de logística reversa, destinada a garantir o manejo e o destino de materiais de descarte delicado, como pilhas, lâmpadas e pneus; para a viabilização de sistemas eficazes de coleta seletiva; e para a adequação dos ambientes em que são depositados os rejeitos sólidos, isto é, os materiais que não têm mais como serem reutilizados ou reciclados.

Sobre o último item, decidiu-se como meta que, até agosto de 2014, todos os lixões (depósitos de lixo a céu aberto que não dispõem de sistemas de proteção ambiental) sejam erradicados do País e substituídos por aterros sanitários, instalações ambientalmente adequadas para o manejo e depósito de rejeitos.

Para contribuir na busca de soluções, a Associação Brasileira de Resíduos Sólidos e Limpeza Pública (ABLP) já apresentou aos ministérios do Meio Ambiente e das Cidades um plano técnico de erradicação dos lixões no País. O prazo é de quatro anos. Está prevista a implantação de 256 aterros sanitários regionais e 192 de pequeno porte, com investimento total de R$ 2 bilhões de recursos federais para a aquisição de terrenos, projetos, licenciamentos e instalação de células para acondicionamento de resíduos e rejeitos por cinco anos. Todos os investimentos necessários para a operação, manutenção e ampliação dos aterros por um período de 20 anos partiriam da iniciativa privada. O plano prevê a formação de consórcios de municípios e o regime de contratação por PPPs (parcerias público-privadas) para a gestão dos aterros.

A entidade trabalha atualmente na formulação de uma proposta de abordagem jurídica para viabilizar o projeto sugerido. Essa proposta deve ser encaminhada como sugestão ao governo nos próximos dias, para dar base ao plano inicial. O certo é que, havendo vontade política e recursos federais no montante mencionado, o plano é plenamente viável e permitirá que o Brasil entre em nova fase na gestão responsável de resíduos e rejeitos.

A erradicação dos lixões é um tema que julgamos de extrema relevância para elevar o nível do Brasil no cenário internacional em relação à destinação final de resíduos de forma ambientalmente correta. Portanto, é com convicção que afirmamos que a questão da gestão e destinação adequadas dos resíduos sólidos gerados no Brasil será bem equacionada com a participação conjunta e solidária dos vários representantes da sociedade. Com educação, conscientização crescente e investimentos adequados e viáveis para a formação das infraestruturas necessárias, em poucos anos poderemos afirmar decididamente que o País terá condições de ser classificado como desenvolvido no trato dos resíduos sólidos.

Tadayuki Yoshimura Engenheiro e presidente da Associação Brasileira de Resíduos Sólidos e Limpeza Pública (ABLP).
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77931

MEC gasta 140% mais com ajuda estudantil

O ministério vai repassar R$ 395 milhões às universidades federais para ampliar o acesso de jovens oriundos da rede pública de educação básica ou com renda familiar per capita de até um salário mínimo e meio.

Com o objetivo de garantir o funcionamento das ações afirmativas das universidades federais brasileiras, o gasto do Ministério da Educação (MEC) com o Programa Nacional de Assistência Estudantil (Pnaes) aumentou 140% entre 2008, data de sua criação, e 2010.

No ano passado, foram aplicados mais de R$ 300 milhões em moradia estudantil, auxílio para alimentação e transporte, atenção à saúde, inclusão digital, cultura, esporte, auxílio-creche, apoio pedagógico e na facilitação do acesso a jovens universitários com deficiência.

O titular da Secretaria de Ensino Superior do MEC, Luiz Cláudio Costa, disse ao Valor que, para este ano, o ministério vai repassar R$ 395 milhões às universidades federais para ampliar o acesso de jovens oriundos da rede pública de educação básica ou com renda familiar per capita de até um salário mínimo e meio. O valor representa um crescimento nominal de 30% sobre os gastos do Pnaes do ano passado.

As instituições federais baseiam suas ações em reservas de vagas. Os critérios são os mais variados: gênero, raça, origem do estudante no ensino básico, classe social, região. Segundo Costa, o MEC já mapeou mais de 40 critérios diferentes de cotas de acesso ao ensino superior federal. "Cada instituição tem sua autonomia, o ministério tem que agir como indutor de políticas para contribuir com a democratização do acesso ao ensino superior, favorecendo a inclusão social", afirma Costa.

O assunto é polêmico entre especialistas e várias universidades já foram processadas. A Universidade Federal de Santa Catarina (UFSC), que reserva 20% das vagas para alunos de escolas públicas e 10% para negros, foi obrigada pela Justiça a reduzir pela metade as cotas no curso de engenharia mecânica. Na maioria dos casos, as ações judiciais são promovidas por candidatos não beneficiados por cotas e o Ministério Público.

Para a pesquisadora do Núcleo de Estudos de Políticas Públicas (Nepp) da Unicamp Cibele Yahn, reservas de vagas geram privilégios e podem beneficiar pessoas com baixa qualificação. "O desafio é ampliar o acesso ao ensino superior e promover inclusão, mas com mérito. Dados do Exame Nacional do Ensino Médio (Enem) apontam que 50% dos candidatos não atingem os 400 pontos mínimos para participar do ProUni. Como esse jovem vai se comportar numa universidade pública?", diz ela.

Gustavo Balduíno, da Associação Nacional dos Dirigentes das Instituições de Ensino Superior (Andifes), defende melhor organização do modelo de cotas. "Apesar de cada universidade ter sua autonomia, é preciso trabalhar melhor os critérios. Não sabemos qual o percentual de universitários de escolas públicas no ensino superior hoje. Não existe um controle."

Luiz Cláudio Costa, do MEC, diz que é papel da universidade discutir as condições da educação básica, as desigualdades socioeconômicas do País e a exclusão gerada pelo atual processo seletivo das universidades (vestibular). Costa lembra ainda que a maioria dos países desenvolvidos adotam ações afirmativas e que elas precisam ser "amparadas por ações que garantam a permanência do aluno até o fim do curso e a qualidade dos cursos, como o Pnaes".
(Valor Econômico)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77927