Translate

sexta-feira, 22 de outubro de 2010

Livre-se do lixo em seu PC

Loyd Case, da PC World EUA
21-10-2010
É inevitável, seu PC vai ficar lento com o tempo. Veja como fazer uma boa limpeza e amenizar o problema, sem reinstalar o Windows


Fato: Seu PC com Windows está ficando mais lento. Talvez ele esteja demorando mais para inicializar ou desligar, ou o HD esteja sendo acessado constantemente. Talvez o simples ato de abrir um aplicativo esteja demorando muito mais do que de costume. E embora o Windows 7 seja mais veloz que as versões anteriores, ele ainda pode ficar lento, especialmente se você instalar e desinstalar um monte de aplicativos.

Neste artigo vou explicar o que é necessário para limpar o “lixo” que se acumulou em seu micro ao longo do tempo. Vamos falar de tempo de boot, problemas com o HD e do misterioso Registro do Windows. Também vou explicar como você pode minimizar o problema no futuro, com dicas de pequenas mudanças em seus hábitos no dia-a-dia.

Possíveis culpados pela lentidão misteriosa em seu PC

Às vezes um PC começa a “se arrastar” sem aviso, e o motivo nem sempre está claro. Embora o foco deste artigo seja na limpeza do sistema operacional e prevenção de problemas a ele relacionados, vale a pena mencionar brevemente alguns problemas de hardware que podem causar lentidão súbita.

Memória que desapareceu: Às vezes a BIOS da máquina pode se “reiniciar” sozinha, sem seu conhecimento. Isto pode acontecer durante uma queda de energia, ou se você desligou a máquina durante o processo de “POST” (a verificação inicial do hardware: contagem de memória, detecção dos discos, etc). Nesse caso, as opções relacionadas à velocidade da memória podem ser redefinidas para algo mais conservador. O resultado será uma queda de desempenho ao rodar aplicativos que exigem muito da memória.

Outro problema é que a quantidade de memória disponível pode subitamente ser reduzida. Em placas-mãe recentes baseadas nos chipsets P55 e X58 da Intel há um dissipador de calor que se instalado incorremente pode “dobrar” as trilhas da placa-mãe que levam a um dos slots de memória. O resultado é que o sistema pode se tornar incapaz de detectar um dos módulos (ou “pentes”) de memória, reduzindo a quantidade disponível para o Windows em um terço ou até mesmo pela metade. Isto prejudica o desempenho, especialmente quando há muitos aplicativos abertos e é necessário recorrer à “memória virtual” no HD.

Superaquecimento: Processadores modernos da Intel e AMD automaticamente reduzem seu ritmo de funcionamento se a temperatura subir acima de um certo limite, o que pode acontecer se os ventiladores do processador ou do gabinete estiverem cobertos de poeira e começarem a girar mais devagar. Confira as temperaturas do processador e do sistema na BIOS ou usando um utilitário apropriado (geralmente fornecido juntamente com a placa-mãe).

Falha iminente do HD: Discos rígidos modernos são capazes de detectar setores defeituosos (bad sectors) e automaticamente copiar os dados para setores “seguros” de reserva definidos durante o processo de fabricação. Isto acontece raramente, mas quando um HD começa a falhar tal comportamento pode se tornar mais frequente.

O resultado é o uso constante do disco, já que o sistema começa a tentar encontrar setores “bons” disponíveis. Se você suspeitar de problemas, habilite a função SMART na BIOS de seu PC, que irá obter informações de diagnóstico que podem ajudá-lo a identificar um HD “nas últimas”, e lhe dar tempo suficiente para copiar seus dados para um local seguro antes que seja tarde demais.

A entropia do Windows: porque o sistema fica mais lento com o passar do tempo

É hora de falar do Windows propriamente dito. A lentidão tem três causas principais: o registro do sistema se tornou grande demais, duplicação de DLLs e outros arquivos e fragmentação no disco rígido. Outra possível causa em máquinas com muitos programas instalados é que um número excessivo de serviços e aplicativos pode estar rodando em segundo plano, sem seu conhecimento.

Estes problemas em potencial não são mutuamente exclusivos. O registro pode “inchar” à medida em que você instala mais programas, que por sua vez colocam mais tarefas em segundo plano. Além disso, o HD pode acabar ficando cheio, o que torna o processo de “desfragmentação automática” executado pelo Windows mais difícil. Vamos analisar um problema de cada vez.

Registro do Windows: O Windows mantém as configurações de aplicativos, do sistema em si e muitas outras informações em um banco de dados chamado de Registro do Windows, ou simplesmente registro. À medida em que você instala e desinstala aplicativos ou faz modificações no sistema, o registro tende a ficar cada vez maior. Por exemplo, o registro em minha máquina de trabalho, lotada de aplicativos, tem cerca de 384 MB. E isso é só um backup.

À medida em que o registro cresce, aplicativos e serviços que fazem uso dele demoram mais para carregar. Buscas no registro feitas por aplicativos que podem ter gravado informações em múltiplos pontos também começam a demorar mais. Alguns aplicativos como ferramentas de segurança e media players (como o PowerDVD) armazenam seus dados em inúmeros locais.

Outro culpado pelo “inchaço” no registro são as desinstalações incompletas. A maioria dos usuários instala ou desinstala apenas alguns poucos aplicativos por ano, mas outros (como gamers e usuários mais avançados) tendem a adicionar e remover muitos programas. Instalações incompletas deixam resíduos no registro, o que contribui para o aumento no seu tamanho. O Windows 7 e seu desinstalador de programas são muito melhores neste ponto, mas ainda assim não são perfeitos.

Entretanto, os programas “limpadores de registro” não são a melhor opção. Explicarei o motivo mais adiante.

“Lixo” associado aos aplicativos: Quando você instala um programa, muitas vezes instala também um módulo (runtime) necessário para sua execução. Múltiplos programas podem acabar colocando em seu PC múltiplas versões ligeiramente diferentes de um mesmo runtime (por exemplo, o “Visual C++ Redistributables”), quando só uma ou duas seriam o suficiente para atender a todos eles.

Tomando como exemplo o Visual C++, você precisa de apenas uma versão do runtime, para sistemas de 32-bit (marcada como “x86”). Se você usa um sistema operacional de 64-bit, precisará também de uma segunda versão, identificada com a sigla “x64”.



Este PC tinha 14 cópias das bibliotecas do Visual C++. Duas seriam o suficiente

Este é apenas um exemplo do tipo de coisa que pode se acumular em seu sistema sem que você perceba. É difícil detectar e impedir isto, e decidir o que remover e o que deixar para que seus programas não deixem de funcionar é geralmente uma tarefa difícil.

Serviços e tarefas desnecessárias em segundo plano: Quanto mais coisas você instala, mais serviços ficarão rodando em segundo plano. Talvez seja algo que acelere o carregamento de um aplicativo, talvez um painel de controle para o seu mouse para gamers ou sua placa de vídeo.

A pergunta é: você realmente precisa que tudo isso fique rodando o tempo todo? Se você não usa o OneNote, por exemplo, não há motivo para deixar o serviço associado aberto. Ele pode ocupar pouco espaço na bandeja do sistema, mas com certeza come uma fatia do poder de processamento e memória de seu computador. A solução é clicar com o botão direito do mouse sobre cada ícone e fechar o que não for necessário.



Cada ícone é um programa que está consumindo memória e processamento do PC sem que você perceba

Problemas com o disco rígido: Inevitavelmente, o sistema de arquivos de seu disco rígido se tornará fragmentado. O Windows 7 tenta minimizar o problema executando uma ferramenta de desfragmentação em segundo plano quando seu PC não está em uso, mas se você cria e exclui arquivos frequentemente (ou roda aplicativos que fazem isso), o sistema pode não dar conta do recado.

O resultado é que, ao abrir um arquivo, o sistema perderá mais tempo tentando juntar todos os “pedaços” que o compõem no HD, tempo que é proporcional ao percentual de fragmentação do disco. Ou seja, quanto mais fragmentado, mais tempo será necessário.

O sistema também pode sofrer se o HD estiver cheio demais. Se ele estiver com mais de 90% da capacidade ocupada o uso da memória virtual se torna muito lento, o que derruba o desempenho como um todo. Pode ser hora de fazer uma limpeza no HD, ou comprar um novo.

Instalações incompletas: O desinstalador do Windows - e utilitários similares distribuídos juntos com alguns aplicativos - nem sempre removem completamente um programa de sua máquina. Estes “resíduos”, que podem variar de configurações no registro a arquivos deixados para trás no HD, se acumulam e acabam atrapalhando o desempenho, seja por aumentar o tamanho do registro ou simplesmente porque ocupam espaço no HD.


Ferramentas de diagnóstico: encontrando a sujeira

Você vai precisar de ferramentas para encontrar os arquivos esquecidos e outro lixo que possa estar atrapalhando o desempenho de seu PC. Estas são algumas delas.

Benchmarks: Estes utilitários ajudam a medir o desempenho de seu PC. É interessante rodar um benchmark de todo o sistema, como o WorldBench ou o PCMark Vantage, logo que você monta ou compra seu computador. Guarde os resultados e depois repita o benchmark após alguns meses. Se a diferença entre os dois for maior do que 10%, pode ser hora de limpar o PC.

Widgets: O Windows vem com alguns mini-aplicativos, ou “gadgets”, que podem ser colocados no desktop e oferecem acesso rápido a informações como a previsão do tempo ou um resumo dos e-mails não lidos. Um gadget útil é o medidor de CPU, nem tanto por relatar a quantas anda o uso do processador, mas pelo medidor de memória incluso. Se o percentual de memória usada ao longo do tempo subir substancialmente, pode ser que hajam programas ou serviços demais sendo executados em segundo plano.

Não é o suficiente? Então experimente alguns dos outros gadgets de monitoramento do sistema disponíveis no site da Microsoft.

Windows Resource Monitor: Gadgets são legais, mas você provavelmente vai concordar que o Windows Resource Monitor é uma forma mais prática de diagnosticar problemas em potencial. Ele é bem mais capaz do que o gadget medidor de CPU e superior ao tradicional Gerenciador de Tarefas. Para executá-lo clique no Menu Iniciar, digite resmon no campo “Pesquisar programas e arquivos” e tecle Enter.



Windows Resource Monitor: informações detalhadas sobre como a memória está sendo usada

Para identificar problemas de lentidão no PC, basta observar os medidores na aba “Visão Geral”. Porém, o mais útil deles é o medidor de memória (aba “Memória”), que mostra de forma mais detalhada que o Gerenciador de Tarefas como um aplicativo ou serviço está usando a memória de seu PC.

Medidor de confiabilidade do Windows: Todos esses aplicativos e serviços consumindo memória e poder de processamento podem tornar seu sistema menos estável, portanto não deixe de dar uma olhada no Monitor de Confiabilidade do Windows. Você pode até achar que seu PC está menos estável do que era, mas o Monitor de Confiabilidade lhe dará a informação de que você precisa para confirmar a suspeita.

Use a Central de Ações para verificar o histórico de confiabilidade de seu computador. Para abrir o Monitor de Confiabilidade vá ao Painel de Controle, clique em Sistema e Segurança e selecione a opção Central de Ações. Lá, clique na palavra Manutenção e depois no atalho chamado Exibir histórico de confiabilidade.



Medidor de confiabilidade: gráfico indica a "tendência" do desempenho e estabilidade do PC

Para navegar pelo monitor de confiabilidade, basta clicar nas colunas que representam as datas. Você também pode ver a tendência, uma linha no gráfico que pode ser reta ou descendente. Uma queda súbita merece atenção. Se múltiplos aplicativos se mostrarem instáveis, talvez algo que você tenha instalado (ou desinstalado) logo antes dos problemas começarem seja o culpado.

Diagnóstico de inicialização do sistema: É incrível a quantidade de aplicativos, ferramentas e utilitários que tentam carregar uma coisa ou outra durante a inicialização do computador. Certa vez eu tive um desktop de alto desempenho com o Windows XP que levava 15 minutos até que o cursor começasse a corresponder aos movimentos do mouse.

O Windows 7 corrigiu muitos do problemas relacionados à lentidão no boot, mas ainda assim eu já vi PCs “topo de linha” que levam mais de 5 minutos para inicializar. Um programa que é bastante útil para identificar problemas de boot é o Soluto, que é tanto um software de diagnóstico quanto um remédio para corrigir os problemas. Falarei mais sobre ele adiante.

Limpando a sujeira: múltiplas opções

Claro, você mesmo pode limpar boa parte da sujeira que se acumulou em seu PC. Estas são algumas formas de fazer o serviço.

Limpeza de Disco: Já faz um tempo que cada cópia do Windows inclui um utilitário chamado Limpeza de Disco, que o ajuda a recuperar espaço em seu HD eliminando automaticamente arquivos que não são mais necessários. Quando o usei em meu PC, descobri nada menos que 16.3 Gigabytes de arquivos temporários relacionados à conversão de músicas que transferi para meu Zune.

Você poderia remover muitos destes arquivos manualmente, mas o processo pode ser arriscado e tedioso. O Limpeza de Disco também permite que você remova pontos de Restauração do Sistema e arquivos Shadow Copy, mas recomendo deixá-los em paz. Você nunca sabe quando irá precisar deles para restaurar sua máquina a um estado usável se tiver problemas.

Defragmente seu disco rígido: É interessante rodar o Desfragmentador de Disco (Iniciar, Todos os Programas, Acessórios, Ferramentas de Sistema) depois que você tiver usado o Limpeza de Disco, especialmente se uma grande quantidade de arquivos tiver sido removida. Durante a desfragmentação seu PC irá ficar mais lento, já que o utilitário irá manter seu HD bastante ocupado. No Windows 7 o impacto sobre o desempenho não é tão intenso, mas ainda assim recomendo usar o desfragmentador quando você não estiver precisando usar o PC para outras tarefas.

Configuração do Sistema: Esta ferramenta é mais conhecida como “MSConfig”, e para rodá-la basta clicar no Menu Iniciar, digitar msconfig no campo “Pesquisar programas e arquivos” e teclar Enter.

O MSConfig pode ser usado para habilitar ou desabilitar serviços em segundo plano, e especificar manualmente quais serviços ou aplicativos devem ser carregados automaticamente sempre que o sistema for iniciado. Entretanto, ele não é perfeito: não há nenhuma indicação de quais serviços podem ser desabilitados com segurança, embora seja possível ocultar os serviços relacionados ao sistema operacional, o que torna mais fácil a escolha.



MSConfig: Decida o que será carregado com o sistema operacional

Ainda assim, o problema é que se você desabilitar tudo o que vê pela frente, alguns de seus aplicativos (como seu software anti-vírus) poderão deixar de funcionar. Entretanto, coisas como o Quicktime Helper e Adobe Acrobat Helper podem ser desativadas com segurança.

Editor do Registro: Use o Editor do Registro (também conhecido como “regedit”) com cuidado. É muito fácil apagar itens importantes do registro permanentemente e deixar seu sistema completamente inoperante. Um risco menos sério é deixar um aplicativo inoperante e ter de reinstalá-lo. E já vi situações onde a edição parcial de uma entrada no registro tornou impossível desinstalar ou reinstalar um aplicativo, e ele não rodava mais. Se você pretende editar o registro, faça um backup antes.

Edite o registro do sistema por sua própria conta e risco. Embora os níveis superiores pareçam simples o suficiente, lá no fundo o registro inclui centenas de milhares de itens, com nomes arcaicos como HKEY_LOCAL_MACHINE\SOFTWARE\{9F5FBC24-EFE2-4f90-B498-EC0FB7D47D15}. Entender o que excluir e o que manter é um processo perigoso.

O editor inclui uma ferramenta de busca, útil se você estiver caçando vestígios deixados no registro por um aplicativo que não foi completamente removido. Entretanto, tenha muito cuidado com os termos da busca: usar o nome do aplicativo é muito melhor do que, por exemplo, o nome do desenvolvedor. Procurar por “Zune”, por exemplo, trará resultados muito mais precisos (e seguros) do que uma busca por “Microsoft”.

Ferramentas de terceiros: duas escolhas úteis

Você irá encontrar muitas ferramentas para manutenção do sistema por aí, mas nem pense em chegar perto de um “Limpador de Registro”. O Registro do Windows é um banco de dados insanamente complexo, e por melhor que seja nenhum limpador pode conhecer todas as “chaves” adicionadas por um aplicativo. Já tive de ajudar amigos que, após usarem um limpador, descobriram que alguns aplicativos não só não funcionavam mais, como era impossível reinstalá-los ou removê-los.

Soluto: O principal destaque deste programa é sua capacidade de reduzir o tempo que o Windows leva para iniciar, às vezes em uma quantidade substancial. E ele pode ser baixado gratuitamente.

Se você tem um monte de aplicativos que iniciam junto com o computador, o Soluto pode ajudar. Ele contém um banco de dados de aplicativos que adicionam processos e serviços à inicialização do sistema, e lhe dá conselhors sobre o que pode ser removido com segurança.

Mas o Soluto não apenas separa os itens em “rode” e “não rode”, ele também pode reorganizar a sequência em que são carregados, para aqueles casos em que um serviço é útil, mas pode ser executado depois que o Desktop já estiver respondendo.



Soluto mostra quanto tempo você pode economizar na inicialização do PC

O programa mostra quanto tempo você pode economizar na inicialização e usa um paradigma de rede social, portanto depende dos usuários para abastecer uma base de dados com informações sobre o que é seguro atrasar ou pausar. Note que um único voto de uma pessoa mal-intencionada não conta muito, então é improvável que o Soluto recomende que você remova um componente essencial do Windows. Da mesma forma, se sua lista de itens na inicialização for tão longa quanto a minha, você verá um monte de itens sobre os quais o Soluto não sabe nada.

Revo Uninstaller Pro: Este prático utilitário é mais completo que o Soluto. O Revo Uninstaller tenta ser um desinstalador melhor que o do Windows, e no geral cumpre bem o seu propósito. Também tem um gerenciador de inicialização (startup manager), mas o Soluto é melhor nesse quesito. O Revo Uninstaller também pode funcionar como um gerenciador de backup, limpador de navegador e removedor de evidências, mas aqui vou focar apenas em sua função principal.

O Revo Uninstaller permite que você expurgue de seu sistema até o último traço de um aplicativo. Do ponto de vista do usuário, ele funciona de forma muito similar à do Desinstalador do Windows. Basta dar um duplo-clique no que você deseja remover e o programa lhe dá opções para uma remoção segura, moderada ou avançada. E depois da remoção é possível varrer o sistema em busca de arquivos ou chaves de registro que tenham ficado para trás.



Revo Uninstaller: remoção mais eficiente dos programas no seu PC

Para remover um ou dois aplicativos, é possível usar o Revo Uninstaller gratuitamente. A versão completa custa US$ 40 por uma licença única ou US$ 80 para quatro computadores. O Revo Uninstaller me ajudou a resolver um problema chato com o iTunes 10 - eu estava recebendo mensagens de erro que impediam a instalação do iTunes de ser completada. O Revo Uninstaller conseguiu remover todos os resíduos deixados por versões anteriores do programa da Apple, e com isso consegui completar a instalação.

Como manter seu sistema limpo

Depois de se livrar do lixo siga estas dicas para manter seu Windows limpo.

Se um aplicativo tiver uma opção de instalação “avançada”, use-a. Instale nas pastas padrão se quiser, mas verifique o que está sendo instalado. Alguns programas lhe dão a opção de executar ou não serviços durante a inicialização.

Sempre fique de olho na janela do instalador. Muitos usuários simplesmente clicam no botão Próximo (Next) sempre que o instalador permite, mas frequentemente deixam de prestar atenção em opções que ocasionam a instalação de itens adicionais e nem sempre desejados, como barras de ferramentas para o navegador, utilitários de inicialização e outras coisas.

Se uma janela aparece em seu navegador lhe pedindo para instalar alguma coisa, preste atenção no que é. Pode ser uma simples ferramenta para auxiliar na navegação, ou algum programinha inútil que vai consumir recursos do sistema (como o Weatherbug). No pior dos casos pode ser malware, como um falso anti-vírus que vai tentar lhe tomar dinheiro (e prejudicar o desempenho do PC), ou até mesmo um programa espião

Use ferramentas como o Soluto e o MSConfig com frequência para se certificar de que não há programas e serviços inúteis rodando na inicialização.

Faça uma limpeza de disco com frequência, especialmente arquivos temporários da internet e arquivos temporários de instalação. Só são precisos alguns minutos por semana para manter seu sistema “um brinco”, e se você fizer isso muito provavelmente não irá precisar fazer uma reinstalação ou reformatação por muito tempo.

Fonte:http://pcworld.uol.com.br/dicas/2010/10/21/livre-se-do-lixo-em-seu-pc/

Tecnologia brasileira dispensa hidrantes para combater incêndios

Planeta Coppe - 22/10/2010


Durante um dos testes realizados no Rio, o protótipo do equipamento, manipulado por apenas um técnico, eliminou, em 1,4 minuto, chamas que atingiam 12 metros de altura. [Imagem: Planeta Coppe]


Combater incêndios em locais de difícil acesso que não contam com redes de hidrantes.

Esse é o diferencial da tecnologia desenvolvida pelo Grupo de Análise de Risco Tecnológico e Ambiental (Garta) da UFRJ/Coppe, que utiliza o dióxido de carbono (CO2) no lugar de água para apagar o fogo.

Favelas, museus e bibliotecas

O equipamento é ideal para comunidades situadas em morros ou em periferias, que não contam com hidrantes e redes adequadas de distribuição de água.

Também é apropriado para ambientes que abrigam obras de arte e patrimônio histórico, como museus, igrejas e bibliotecas, e até mesmo centros de processamento de dados.

Segundo Moacyr Duarte, coordenador do Garta, o equipamento apresenta algumas vantagens em relação aos sistemas tradicionais. Além de combater o fogo sem danificar os materiais, ele pode ser manipulado de forma ágil, segura e eficiente.

"Também pode prevenir incêndios e explosões em galerias subterrâneas, ao ser utilizado para deslocar vapores de substâncias inflamáveis que possam contaminar as galerias subterrâneas, principalmente as de passagem de energia elétrica, comuns nos grandes centros urbanos", explica Moacyr.

Eficiência

O equipamento, denominado Sistema de Descarga Baseada em Gás Liquefeito, pode ser móvel ou fixo. Segundo Moacyr, é mais barato, por exemplo, implantar o sistema em regiões de periferia do que expandir a rede de hidrantes, que requer grandes tubulações para dar vazão à quantidade de água necessária para se combater um incêndio, na faixa de 2,8 mil litros por minuto.

"Além disso, o maior carro-pipa utilizado pelo corpo de bombeiros tem capacidade de apenas 30 mil litros, o que não é suficiente para uma operação de combate a incêndio que ultrapasse dez minutos, operando com vazão máxima", afirma.

Tal carência pode ser suprida pelo equipamento desenvolvido na UFRJ/Coppe, que tem capacidade de armazenar entre 8 e 20 toneladas de gás liquefeito, chegando a ter vazões equivalentes a 1,1 mil litros de água por minuto.

"Apesar de a vazão equivalente ser menor, o nosso sistema é mais eficiente porque o gás, ao neutralizar o oxigênio, elimina as chamas de forma mais rápida e precisa do que a água", garante Moacyr.

Durante um dos testes realizados no Rio, o protótipo do equipamento, manipulado por apenas um técnico, eliminou, em 1,4 minuto, chamas que atingiam 12 metros de altura. O coordenador do Garta diz que, convencionalmente, para apagar um incêndio de mesma proporção, seriam necessárias seis pessoas operando duas mangueiras de 2,5 polegadas.

O equipamento também pode combater incêndio em eletrodomésticos, a exemplo dos extintores comuns, à base de gás comprimido. Outra vantagem é que, caso haja uma pessoa no local, ela poderá ser retirada após a remoção da fumaça e do gás superaquecido, sem risco de sofrer asfixia.

Combate de incêndio com gás

O conjunto do equipamento como um todo possui uma célula de operação autônoma montada em um contêiner.

A célula pode ser à base de sistemas fixos para uso nas indústrias ou adaptada sobre caminhões para múltiplas utilizações.

O sistema foi projetado com diferentes dimensões, ou seja, mais de um formato para atender a necessidades de demandas variadas.

Uma célula do equipamento pode dar suporte a vários disparadores manuais, que têm tamanho similar ao de um extintor de incêndio, até o denominado canhão pode ser montado em caminhões ou robôs, para atender às necessidades de deslocamentos.


Uma célula do equipamento pode dar suporte a vários disparadores manuais, que têm tamanho similar ao de um extintor de incêndio. [Imagem: Planeta Coppe]
O gás, no estado liquefeito, fica armazenado no tanque do equipamento e, após passar pelo processo de descompressão maciça, é lançado por meio de jatos no ambiente, por meio de três bicos reguláveis.

Os jatos formam uma espécie de neve carbônica, similar à fumaça de gelo seco, e o gás proporciona, simultaneamente, a redução da concentração de oxigênio e o resfriamento do ambiente.

De acordo com o pesquisador da UFRJ/Coppe, a redução do oxigênio afasta a possibilidade de fogo e o resfriamento da área, que pode atingir uma temperatura de até 11 graus negativos. "Com isso, eliminamos os focos que poderiam reiniciar o incêndio", afirma Moacyr.

Os disparos são controlados para que a concentração de CO2 aumente segundo uma estratégia definida previamente. Desse modo, é possível utilizar apenas o efeito mecânico do jato, para deslocar a fumaça e os gases aquecidos.

Esse procedimento permitirá que os bombeiros realizem o resgate de vítimas sem risco de asfixia, beneficiando-se da redução de temperatura e de uma melhor visibilidade.

Em ambientes abertos, os disparos são feitos como uma cortina fluidodinâmica, formando uma "gaiola de gás". Essa configuração é adequada para praças de bombas de transferência e parques de carregamento de caminhões com substâncias inflamáveis entre outras instalações características da indústria do petróleo.

Sistema será testado em navios de guerra

Em breve, o equipamento utilizado em base fixa poderá ser testado em três tipos de navios de guerra da Marinha: fragatas, corvetas e porta-aviões. Essas embarcações consistem em ambientes de risco, pois contêm substâncias inflamáveis e explosivas.

Além disso, os navios, corvetas e fragatas também possuem hangares com estoque de combustível para abastecer o helicóptero a bordo.

"O sistema de descarga que desenvolvemos na UFRJ/Coppe poderá aumentar a segurança no abastecimento das aeronaves nos navios porta-aviões, além de possibilitar o aumento do número de pontos de equipamentos de combate a incêndios a bordo. Considerando que são navios de combate, em casos extremos, caso haja um incêndio em compartimentos bem próximos aos locais de estoques de munição e de material inflamável, nosso equipamento resfria os depósitos vizinhos, de forma a evitar as consequentes explosões e aumentar a segurança da equipe durante a operação de combate a incêndios a bordo", garante o pesquisador da UFRJ/Coppe.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=combate-incendios-gas&id=010125101022&ebol=sim

Entrelaçamento de 3 qubits deixa computação quântica mais próxima

Duas equipes norte-americanas, trabalhando de forma independente, conseguiram pela primeira vez entrelaçar três bits quânticos, ou qubits.

Três é o número mínimo necessário para implementar a correção de erros na computação e na criptografia quânticas, com todas as suas promessas de alto poder computacional, baixo consumo de energia e segurança.

Qubits supercondutores

Embora outras equipes já tivessem entrelaçados outros tipos de qubits - até 10 qubits de fótons, por exemplo - ninguém até hoje havia conseguido entrelaçar mais do que 2 qubits supercondutores.

Qubits supercondutores são dispositivos de estado sólido, muito mais robustos do que os aparatos exigidos por outros tipos de qubits. Isso significa que é mais fácil construir circuitos lógicos com eles.

O entrelaçamento quântico é um fenômeno no qual duas ou mais "partículas" em escala atômica tornam-se indissociáveis, de modo que a medição de certas propriedades de uma revela informações sobre a outra, mesmo se elas estiverem separadas por milhares de quilômetros.

"O entrelaçamento quântico entre três objetos já havia sido demonstrado antes com fótons e partículas carregadas," explica Steven Girvin, membro da equipe da Universidade de Yale. "Mas este é o primeiro dispositivo de estado sólido de três qubits, que se parece e se comporta com um microprocessador convencional."

Martinis trabalha no laboratório do professor Robert Schoelkopf, onde foi criado o primeiro processador quântico de estado sólido, em 2009. Outros feitos da equipe no campo da computação quântica incluem a transmissão e a recepção de informações quânticas e a interligação entre átomos artificiais usando micro-ondas.

O novo resultado baseia-se no processador quântico de estado sólido, desenvolvido em 2009.

Transmons

A equipe usou qubits supercondutores, chamados transmons, feitos de dois pequenos pedaços de material supercondutor unidos por junções túnel.

Os supercondutores contêm inúmeros pares de Cooper, duplas de elétrons que caminham pelo material sem qualquer resistência. O estado 0 ou 1 do qubit é definido pela quantidade de pares de Cooper existente em cada fatia de supercondutor.

Mas as estranhas leis da mecânica quântica permitem que os qubits sejam colocados em uma superposição desses dois estados ao mesmo tempo, o que resulta no armazenamento de uma quantidade muito maior de informações e de maior poder de processamento.

A equipe foi capaz de atingir um estado entrelaçado colocando três qubits em uma superposição de duas possibilidades, quando todos os três estavam ou no seu estado 0 ou no estado 1 - um estado chamado Greenberger-Horne-Zeilinger (GHZ).

O resultado alcançou uma fidelidade de 88%. Isto é essencial para a correção de erros na computação quântica.

Como os qubits são muito sensíveis, um único raio cósmico que atinja um deles pode destruir o dado. Replicando os qubits, o computador pode confirmar se todos os três estão no mesmo estado - algo que não faz sentido quando há apenas dois deles, uma vez que qualquer um dos resultados teria o mesmo peso.

"A correção de erros é um dos cálices sagrados da computação quântica hoje," afirmou Schoelkopf. "É preciso pelo menos três qubits para sermos capazes de começar a fazer isso, então este é um passo muito importante."

Qubits de fase


Para fazer o entrelaçamento, em vez do estado GHZ, da equipe da Universidade Santa Barbara usou um estado conhecido como W, no qual um dos qubits tem estado 1 e os outros dois tem estado 0. [Imagem: Neeley et al./Nature]
A outra equipe, da Universidade de Santa Bárbara, usou em enfoque ligeiramente diferente. Eles usaram qubits supercondutores de fase, onde duas fatias de material supercondutor são separadas por uma camada muito fina de material isolante - uma junção Josephson.

Os estados 0 e 1 do qubit de fase são determinados pelas oscilações quânticas da diferença de fase entre os eletrodos da junção.

Para fazer o entrelaçamento, em vez do estado GHZ, o físico Matthew Neeley usou um estado conhecido como W, no qual um dos qubits tem estado 1 e os outros dois tem estado 0.

Neeley afirma que o estado GHZ mantém um entrelaçamento mais forte, mas é muito frágil, e a medição de um dos qubits destrói o entrelaçamento dos outros dois.

"O estado W é de certa forma menos entrelaçado, mas ainda assim muito mais robusto - em dois terços do tempo, medir um qubit manterá os outros dois entrelaçados," afirma o físico. "Nós produzimos os dois estados com nossos qubits de fase, e medimos sua fidelidade em comparação com os estados teóricos ideais. Experimentalmente, a fidelidade nunca é perfeita, mas nós mostramos que ela é alta o suficiente para provar que os três qubits estão entrelaçados."

Neeley é membro da equipe dos professores Andrew Cleland e John Martinis. Entre os feitos recentes do grupo estão o controle quântico da luz e a aplicação da mecânica quântica ao movimento de objetos macroscópicos. Foram também eles que apresentaram o primeiro componente de um computador quântico, em 2008.

Bibliografia:

Preparation and measurement of three-qubit entanglement in a superconducting circuit
L. DiCarlo, M. D. Reed, L. Sun, B. R. Johnson, J. M. Chow, J. M. Gambetta, L. Frunzio, S. M. Girvin, M. H. Devoret, R. J. Schoelkopf
Nature Physics
30 September 2010
Vol.: 467, Pages 574-578
DOI: 10.1038/nature09416

Generation of three-qubit entangled states using superconducting phase qubits
Matthew Neeley, Radoslaw C. Bialczak, M. Lenander, E. Lucero, Matteo Mariantoni, A. D. O’Connell, D. Sank, H. Wang, M. Weides, J. Wenner, Y. Yin, T. Yamamoto, A. N. Cleland, John M. Martinis
Nature Physics
29 September 2010
Vol.: 467, 570-573
DOI: 10.1038/nature09418

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=entrelacamento-3-qubits&id=010110101021&ebol=sim

Networking requer eficiência e não coleção de contatos

Por Josane Beckman, especial para o Yahoo! Brasil

PUBLICIDADE

Montar uma rede de contatos não é apenas conhecer pessoas e trocar cartões. Para serem bem sucedidos, os relacionamentos devem ser cultivados de forma muito cuidadosa. Não existem regras para se fazer um bom networking, mas é importante fazê-lo antes de precisar.


Especial mercado de trabalho
O melhor momento para investir na sua rede de relacionamentos é quando as coisas caminham bem. Faça o que puder para conhecer pessoas novas e interessantes, que possam representar oportunidades futuras, mas se esforce ainda mais em cultivar o convívio. Mantenha contato com essas pessoas, interesse-se por elas e jamais se coloque na situação constrangedora de ser lembrada apenas quando está em dificuldades.

Um estudo realizado pelos americanos John Hagel e John Seely Brown, do Center for the Edge, instituto de análises da consultoria Deloitte, propõe uma revisão na maneira convencional de fazer networking.

Segundo os consultores, a abordagem comum, que consiste em conhecer muitas pessoas e recorrer a elas quando necessário, acaba criando relacionamentos baseados em interesse, em que um lado enxerga o outro com desconfiança. O método não funciona na prática, porque, dizem os autores, não cria engajamento entre as partes na solução do seu problema.

Se você der, periodicamente, uma demonstração de interesse para essas pessoas, certamente será muito mais fácil conseguir algo delas no futuro caso realmente precise e manter ativo o networking.

"Costumo fazer happy hours com clientes ou parceiros de negócios para bater um papo informal, trocar ideias e estreitar relacionamentos. Envio convite por e-mails para eles, e, se o cliente que esteve num desses encontros precisar de mim um dia, vai se lembrar", argumenta Ricardo Monteiro, diretor de vendas da ScanSystem.

Como montar uma boa rede de relacionamentos
É mais simples do que parece: o primeiro passo é começar a lembrar quem pode ser potencialmente interessante para a sua lista, como antigos colegas de faculdade ou trabalho, ex-chefes, ou qualquer outra pessoa que você tenha ligação social.

Com a internet como aliada, o networking se tornou mais prático por meio de redes sociais. Mas busque relacionamentos eficientes. Um estudo recente do antropólogo inglês Robin Dundar mostra que qualidade é melhor que quantidade na hora de montar uma rede de contatos eficiente. A pesquisa analisa o tráfego de sites de relacionamento e concluiu que a tecnologia não ajuda na expansão da rede de amigos. Mesmo com mil contatos no LinkedIn, uma pessoa interage pela web, no período de um ano, com no máximo 150.

"Antigamente, você pegava o cartão de visita de uma pessoa e ela mudava de emprego e você nunca mais a achava. Hoje, quando quero ter acesso a um cliente em potencial, vejo alguém que está na minha rede social e que tem contato com essa pessoa para me apresentar para ela", comenta Antônio Augusto Junqueira de Oliveira, consultor de empresas da área industrial, que usa bastante a internet para se comunicar.

"Manter um perfil pessoal e outro profissional separado para cada rede social é muito difícil de fazer e atualizar. O que eu recomendo é que a pessoa escolha quais redes sociais são vitais para ela manter e a partir daí selecione qual é a informação relevante para cada uma delas", explica Renato Sabai, gerente de mídias sociais da UniqueDB, agência de comunicação online.

"O LinkedIn tem um foco extremamente profissional, então não adianta inserir informações pessoais lá porque o público dessa rede não quer ver esse tipo de mensagem", exemplifica Renato.

É possível utilizar hoje várias ferramentas que integram as várias redes sociais disponíveis no próprio Facebook e no LinkedIn para que cada vez que você atualize uma informação, ela seja automaticamente inserida em outra rede. Há formas de se restringir também quem vai visualizar a mensagem e escolher quais mensagens vão ser atualizadas.

Um bom perfil profissional numa rede social deve ter o currículo recente, principais empregadores, realizações, depoimentos de pessoas que trabalharam com o profissional e atualizações dele no mundo digital (artigos, publicações, informações que agreguem valor ao público da comunidade que lerá a mensagem).

Além de selecionar bem a mensagem, não se deve nunca publicar brincadeiras, situações polêmicas ou algo que possa a vir a causar arrependimento depois em nenhuma rede social. Hoje, a maioria das empresas consulta a internet para analisar perfis de candidatos. Se houver algo que desabone o profissional, seja no seu perfil pessoal ou profissional, isso pode se voltar contra ele.

Conforme o gerente da UniqueDB, as redes sociais são uma ótima ferramenta de networking, de encontrar pessoas e de relacionamento, desde que se faça um bom uso dela. Mas não se deve esquecer que é pública. Portanto, tudo o que você coloca ali permanece até que você tire do ar.

Quais os benefícios para sua carreira?
É comum que algumas vagas de emprego, principalmente para cargos mais altos, não sejam publicadas nos classificados tradicionais. Elas são divulgadas no boca a boca, com o objetivo de encontrar pessoas por indicação.

E mesmo que o anúncio da vaga seja muito divulgado, conhecer alguém de dentro da empresa pode te ajudar a descobrir condutas do trabalho que só um empregado saberia. Essas informações são importantes para facilitar sua aprovação na entrevista.


Dicas práticas:

- Aproveite ocasiões como aniversário ou outras comemorações para ligar ou enviar e-mails;
- Faça happy hours com grupos do mesmo mercado ou interesse;

- Mantenha contato com pessoas com quem já trabalhou;

- Atualize seus perfis nas redes sociais.

Fonte:http://br.noticias.yahoo.com/s/21102010/48/manchetes-networking-requer-eficiencia-nao-colecao.html

quinta-feira, 21 de outubro de 2010

O que a nuvem privada muda para profissionais de TI?

Infraestrutura aumenta desafios das empresas para gerenciar mão de obra e representa oportunidades para profissionais.
Por SANJAY MIRCHADANI*, PARA A CIO/EUA
Todas as vantagens relacionadas às nuvens privadas com relação a custo e eficiência já foram bastante discutidas no mercado e, em muitos casos, comprovadas. Mas o que pode complicar a migração para a nuvem privada não fica somente nos fundamentos da arquitetura, modelos de serviços, governança e consumo. Está também em como transformar os profissionais com habilidades concentradas em infraestruturas tradicionais em profissionais aptos a gerenciar as nuvens privadas.

A primeira constatação de especialistas é que isso se transformou em oportunidade para os profissionais de TI. A nuvem privada exige que eles aprofundem muito suas competências tradicionais para conseguir aplicá-las no novo conceito. Um exemplo: o administrador de storage precisará mergulhar mais fundo nos seus conhecimentos dentro dos mundos físico e virtual dos equipamentos para conseguir fazer provisão de recursos para a nuvem e não somente para uma ou algumas aplicações.

Em segundo lugar, os profissionais de TI precisarão de expertises mais amplas para transcender os silos tradicionais de TI. Para quem você ligaria para implantar, gerenciar e prestar suporte a blocos prontos de hardware para nuvem privada, com armazenamento, redes e virtualização integrados? Há três pessoas hoje para supervisionar cada um desses vetores ou somente uma que atende todas essas competências? É óbvio que os que possuem competências abrangendo todos esses elementos serão os que trarão mais benefícios quando a empresa embarcar na nuvem.

Um terceiro aspecto diz respeito à relação com os negócios. Nuvem privada, por seu modelo de provisão de recursos, é a que mais se aproxima do mundo dos negócios do que todas as outras. E essa tecnologia deve alterar profundamente a dinâmica da organização nesse aspecto.

Isso envolve uma mudança total de comportamento, que passa a ser orientado a negócios. Papéis mudam, jargões devem cair e a abordagem entre TI e negócios deve ser íntima, de entendimento mútuo. Mas a tarefa árdua não é exclusiva do departamento de tecnologia. Os profissionais das áreas de negócios devem ser convencidos de que precisam trabalhar de forma colaborativa, entender o valor dos novos modelos tecnológicos e balizar o trabalho da TI.

Os desafios são grandes. Planejar esse aspecto com cuidado é fundamental para tirar as vantagens da elasticidade que a nuvem traz. Entre as medidas a serem tomadas, está a troca de informações e treinamento mútuo entre os funcionários para difundir e aprofundar competências, em um processo que deve ser conduzido pelas lideranças. Essa é uma chance também para os profissionais testarem seus conhecimentos e habilidades sobre os conhecimentos de TI.

No final, também multiplica-se a importância de mostrar ao profissional que ele terá um papel muito importante se conseguir reunir os conhecimentos necessários e agregar valor, não só para a companhia, mas também para suas carreiras.
Fonte:http://computerworld.uol.com.br/gestao/2010/10/21/o-que-a-nuvem-privada-muda-para-profissionais-de-ti/

Sete habilidades essenciais para líderes de alta performance

Integrar pessoas aos processos é o melhor caminho para chegar a excelentes resultados no universo da tecnologia da informação.
Por CIO/EUA
20 de outubro de 2010 - 15h12
Os CIOs mais bem sucedidos do mercado conseguem alianças fortes com seus funcionários, bons pares e parceiros de negócios e criam um ecossistema que favorece seu trabalho. Essa é a opinião dos autores do livro “The CIO Edge: Seven Leadership Skills You Need to Drive Results”, de autoria do consultor de programas executivos da Gartner Graham Waller e dos estudiosos de prática de liderança em TI da Korn/Ferry George Hallenbeck e Caren Rubestrunk.

De acordo com Waller, os CIOs entendem que precisam gerenciar processos de TI e que sua meta é a de entregar recursos e atingir as expectativas dos negócios. Sabem também que precisam liderar pessoas para chegar a resultados. Mas poucos entendem a importância de combinar essas duas missões e trabalhá-las simultaneamente.

Os autores apontam 7 habilidades essenciais para atingir as metas e conquistar o ideal de reunir os funcionários e stakeholders em torno de um mesmo objetivo.

1 – Liderança vem acima de tudo
As consultorias Gartner e Korn/Ferryrevelam que os CIOs de melhor desempenho são efetivos porque têm clara a ideia de que tudo o que eles precisam alcançar será conquistado com as pessoas e pelas pessoas. Eles não ficam só no discurso. Eles vivem isso. E com isso, lideram.

2 – Liderança também depende de colaboração
Um CIO de alta performance é complexo e um pensador criativo. Mesmo assim, ele não confia somente no seu próprio “brilhantismo” para atingir os feitos. Age colaborativamente para achar a solução que realmente seja a melhor possível.

3 – Papel de durão não ajuda
O CIO vive um paradoxo: uma das formas de ganhar mais influência é não manter controle de tudo e se permitir um pouco de vulnerabilidade. Essa situação se reverterá em conexões pessoais profundas, o que vai aumentar a habilidade do profissional de inspirar pessoas dentro e fora da organização.

4 – Resultados certos vêm com os relacionamentos certos
CIOs de alto desempenho gastam uma boa parte do seu tempo e energia gerenciando relacionamentos dentro e fora das organizações. Eles investem propositalmente em relacionamentos horizontais que formam a base para atingir resultados extraordinários.

5 – CIOs são comunicadores natos
O melhor líder de tecnologia sabe que seus colegas estão sempre o observando. Claro que eles tiram vantagem disso sempre reiterando suas mensagens centrais e valores, coerentes com a forma como agem. Com essa transparência, consistência, autenticidade e paixão sendo demonstrada diariamente, eles têm a certeza de que suas mensagens não apenas são entendidas, como também sentidas. Eles querem comunicar um sentimento que empurra as pessoas para as ações corretas.

6 – Liderar é inspirar
Em troca de um salário, muitas pessoas terão desempenho somente adequado. Elas só darão o melhor se acreditarem que estão envolvidas em uma missão maior do que elas mesmas. Os melhores CIOs fornecem uma visão atraente para as pessoas e envolvem todos no desafio de transformar a corporação na melhor do mercado. Isso só se consegue mostrando como a contribuição de cada um é significativa e tem valor.

7 – Construa pessoas, não sistemas
Todas as dicas anteriores são sobre pessoas. E o sétimo fundamento do CIO é saber preparar todo mundo para ser o próximo líder, deixando seu legado. Assim, cada funcionário deve ser tratado como um líder em potencial, para o qual todos os conhecimentos e valores devem ser transmitidos diariamente.
Fonte:http://computerworld.uol.com.br/gestao/2010/10/20/sete-habilidades-essenciais-para-lideres-de-alta-performance/

Golpes virtuais são mais comuns que crimes físicos

Por PC World/US
Publicada em 20 de outubro de 2010 às 18h29
Segundo consultoria Kroll, 2010 será o primeiro ano em que o número de fraudes online ultrapassará os roubos a ativos físicos.

Se havia qualquer dúvida a respeito do aumento de crimes virtuais nos últimos anos, não há mais: segundo a firma de consultoria Kroll, pela primeira vez desde 2007, quando a empresa começou o estudo, o número anual de fraudes online ultrapassou o de golpes "físicos".

Nos anos anteriores, o roubo a ativos físicos ou a estoques eram maiores que os crimes virtuais. No entanto, em 2010, a partir dos dados levantados pela Unidade de Inteligência Econômica com mais de 800 executivos do mundo, chegou-se aos seguintes índices: 27,3% para os delitos na Internet e 27,2% para saques no mundo real.

A margem é pequena, é verdade, mas a tendência é que ela aumente. Em 2009, os golpes online ficaram em terceiro na classificação, com participação de 18% nos roubos, ante 28% dos assaltos, e 20% para corrupção interna.

A conclusão da pesquisa é pessimista: “Os dados sugerem que as coisas ficarão piores antes de melhorar”, prevê. “Ataques ou roubos pela Internet é o tipo crime que as empresas se dizem mais vulneráveis (37%)”. Nesse sentido, é a principal preocupação para companhias das áreas de serviços financeiros, serviços profissionais e recursos naturais, e o segundo maior temor para os setores de construção, tecnologia, mídia e telecom, e varejo.

Embora a corrupção seja o fator que mais inibe as empresas a investir em países estrangeiros – citado por 17% delas – o roubo de informações confidenciais vem logo em seguida, com índice de 19%. Essa porcentagem , no entanto, varia muito de acordo com a região para onde se destinaria os recursos: de 7% para a Europa Ocidental a 31% para Europa Central e Oriental.

(John P. Mello Jr.)
Fonte:http://idgnow.uol.com.br/seguranca/2010/10/20/golpes-virtuais-sao-mais-comuns-que-crimes-fisicos/

Sites de compras coletivas: dicas para que você não caia em roubadas

O consumidor, que fica eufórico com tantas promoções, precisa tomar cuidado e ficar atento aos detalhes da compra. Veja algumas informações úteis.
Links da matéria:
Peixe Urbano
ClickOn
Clube Urbano
Imperdível
Zipme
Não dá pra negar: os sites de compras coletivas viraram febre no Brasil. O modelo de negócio conquistou milhões de internautas por aqui. Divulgado entre redes sociais e também no boca-a-boca, ninguém quer perder a oportunidade; os sites oferecem descontos exclusivos em restaurantes, clínicas, cinemas, teatros, roupas, acessórios... vale tudo! Eles também são um ótimo negócio para as marcas e estabelecimentos, que podem oferecer serviços e produtos a preços irresistíveis, sem precisar investir grandes quantias em publicidade ou propaganda. Bom, os números não mentem! Até o final deste ano, o segmento deve alcançar a marca de oito milhões de usuários cadastrados. Com o faturamento não é diferente; cresce em uma proporção de colocar um sorriso de orelha a orelha no rosto dos empresários.



Em junho, o faturamento dessas páginas foi de R$ 1 milhão; em julho, R$ 4 milhões; seguidos de R$ 6 milhões em agosto. Para 2011, a previsão é de que o setor fature entre 30 e 50 milhões de reais.



Todos esses sites propõem uma forma de negócio parecida: a oferta de um produto ou serviço por certo período de tempo – em geral, um ou dois dias. Mas a compra só é efetivada se um número mínimo de consumidores confirmarem interesse. O pagamento, normalmente, é feito diretamente ao site de ofertas. Mas o consumidor, que fica eufórico com tantas promoções, precisa tomar cuidado e ficar atento aos detalhes da compra. Veja algumas dicas úteis...



1) Verifique se há o cadeado de segurança na barra inferior do navegador; e nunca compre oferta anunciada por e-mail spam;



2) Pesquise opiniões de amigos que já usaram o serviço ou busque informações com outros usuários antes de efetuar a compra;



3) Leia atentamente e imprima o termo de uso do site. Informe-se também sobre a política de privacidade dele.



4) Verifique o prazo de validade do cupom do serviço comprado e se há alguma condição especial de uso dele (dia da semana ou horário específico, número máximo de participantes da promoção, etc)



Ficando atento, não tem cilada. E se você se interessou e quer saber mais sobre esses sites de compras coletivas, corre lá...no nosso site www.olhardigital.com.br você encontra os endereços dos maiores e melhores sites brasileiros. Não perca tempo, pode ter uma superpromoção esperando por você agora mesmo!
Fonte:http://olhardigital.uol.com.br//produtos/central_de_videos/sites-de-compras-coletivas-dicas-para-que-voce-nao-caia-em-roubadas/14358/integra

Internet no país não suporta demanda

Pesquisa aponta que, apesar dos avanços, rede brasileira não atende às principais exigências dos internautas

A internet brasileira não está preparada para suportar as exigências atuais dos internautas.

É o que revela a terceira pesquisa "A Qualidade da Internet", feita pela Universidade de Oxford (Reino Unido) e pela Universidade de Oviedo (Espanha) com apoio da Cisco, empresa que fabrica equipamentos que conectam os computadores à rede.

Embora o Brasil tenha feito avanços para aumentar o número de domicílios conectados, a qualidade das conexões está abaixo da média.

Hoje, para que um internauta navegue e realize suas tarefas (trocar e-mails, baixar arquivos, assistir a vídeos, entre outras), as velocidades médias precisam ser de 3,75 Mbps (megabits por segundo) para o download (quando se baixa arquivos ou se acessa um site qualquer) e de 1 Mbps para o upload (quando se envia algo, e-mail ou mensagem instantânea).

O tempo de resposta (entre dar o comando e perceber que ele foi obedecido) não pode ser superior a 95 milésimos de segundo, segundo a pesquisa.

Em Fortaleza, apontada como a cidade brasileira com a melhor qualidade de internet, a velocidade de download auferida foi de 4,3 Mbps, ante 570 Kbps (kilobits por segundo) de upload. O tempo de resposta ficou em 114 milésimos de segundo.

A pesquisa indica que, nos próximos cinco anos, os internautas estarão consumindo mais capacidade de rede porque assistirão a vídeos sob demanda e farão videoconferências, entre outras aplicações sofisticadas.

Por isso, os especialistas estimam que, até 2015, um domicílio estará consumindo 500 GB (Gigabytes) mensalmente, ante os atuais 20 GB.

Para dar conta dessa quantidade de dados trocados via internet, será preciso investir mais para que as redes ofereçam velocidades de download de 11,25 Mbps e de 5 Mbps de upload com uma resposta de 60 milésimos de segundo.

Só 38 cidades no mundo já estão preparadas para essa nova fase -nenhuma no Brasil. No total, foram monitorados domicílios em 239 cidades e 72 países. A Coreia do Sul continua liderando a lista de países líderes em internet, seguida por Hong Kong e Japão. O Brasil ocupa a 38ª colocação. Esteve na 41ª, em 2009, e na 36ª, em 2008.
(Folha de SP, 20/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74200

quarta-feira, 20 de outubro de 2010

Um país em busca de leitores

O Brasil tem cerca de 190 milhões de habitantes, dos quais 95 milhões podem ser considerados leitores; mas eles leem, em média, 1,3 livro por ano. Não se trata de rejeição à leitura; uma enquete mostrou que 75% gostam de ler. Pergunta: por que, então, os brasileiros não leem mais?

por Moacyr Scliar
No começo do século XIX, o Rio de Janeiro tinha apenas duas livrarias e, provavelmente, sem muitos clientes: um censo realizado no final daquele século, na mesma cidade do Rio de Janeiro, então capital federal, mostrava uma porcentagem de analfabetismo girando em torno de 80%.

Não é difícil explicar essa situação de analfabetismo e de falta de leitores. No Brasil colonial, o ensino era precário e reservado a uns poucos filhos de privilegiados. Universidades não existiam: os jovens que podiam, iam estudar na Universidade de Coimbra, em Portugal. As coisas começaram a mudar quando, em 1808, a corte portuguesa, fugindo à invasão napoleônica, se transferiu para o Brasil. Foi criada a Biblioteca Real e a primeira gráfica editora, a Imprensa Régia, que tinha o monopólio da edição de livros e só publicava o que era autorizado pela Coroa. Quando esta disposição foi revogada (em 1821, às vésperas da independência e, provavelmente, anunciando-a), multiplicaram-se os jornais, folhetos e revistas.

Já as livrarias foram o resultado da enorme influência cultural que a França sempre teve sobre o Brasil. Muito importantes foram os irmãos Laemmert, Edouard e Heinrich, e Baptiste Louis Garnier. Sediados no Rio de Janeiro (a Garnier tinha filial em São Paulo), esses livreiros importavam obras da Europa e editavam autores brasileiros: Garnier lançou José Veríssimo, Olavo Bilac, Artur Azevedo, Bernardo Guimarães, Silvio Romero, João do Rio, Joaquim Nabuco; Laemmert tinha em seu catálogo, Graça Aranha e Machado de Assis. Suas livrarias tornaram-se célebres pontos de encontro de escritores. Àquela altura, começo do século XX, começava a surgir um público leitor, às vezes surpreendendo os editores: quando a Laemmert se recusou a publicar uma obra que parecia “cientificista” e extensa, o próprio autor resolveu financiá-la. E fez muito bem, Euclides da Cunha: Os sertões, magistral retrato da guerra de Canudos e do Brasil sertanejo, vendeu, em pouco mais de um ano, 6 mil exemplares. Autêntico best-seller.

O fato de que os escritores não conseguiam viver de literatura (muitos eram funcionários públicos ou profissionais liberais), não impedia a existência de uma vida literária. Em 1897, e por influência de Machado de Assis, era criada a Academia Brasileira de Letras. Com o movimento modernista de 1922 surgiram revistas literárias, como a Klaxon, para a qual escreveram Anita Malfatti, Sérgio Milliet, Mário de Andrade e Tarsila do Amaral.

Nas primeiras décadas do século XX apareceram editoras importantes: a José Olympio, que editou sucessos como Raízes do Brasil, de Sérgio Buarque de Holanda, e Vidas secas, de Graciliano Ramos, além de Rachel de Queiroz, Gilberto Freyre e Guimarães Rosa, sem falar em clássicos da literatura mundial, como Balzac, Dostoievsky, Jack London e Tolstoi. A produção crescia; o número de editoras aumentou quase 50% entre os anos de 1936 e 1944. Em meados do século XX o país editava, por ano, cerca 4 mil títulos, representando 20 milhões de exemplares. Durante o Estado Novo, regime de exceção que ampliou os poderes de Getúlio Vargas (presidente de 1930 a 1945), a atividade cultural passou a ser controlada pelo DIP, Departamento de Imprensa; a censura estava presente no rádio, na imprensa, na música, no ensino. E foi também Vargas que, em 1937, criou o Instituto Nacional do Livro, com o objetivo de desenvolver uma política governamental na área.

A qualidade editorial melhorou muito; não era raro que as edições fossem ilustradas por artistas famosos, como Anita Malfatti, Tarsila do Amaral e Santa Rosa. Novas revistas surgiam, a Brasiliense, para a qual colaboravam intelectuais de esquerda (Caio Prado Júnior, Sérgio Buarque de Holanda, Sérgio Milliet, Josué de Castro e Florestan Fernandes), a Civilização Brasileira, dirigida por Enio Silveira, a Tempo Brasileiro, dirigida há 50 anos por Eduardo Portella e contando com a colaboração de Sérgio Paulo Rouanet, Marcílio Marques Moreira e José Guilherme Merquior.

E OS LEITORES?
Ainda não são muitos. O Brasil tem cerca de 190 milhões de habitantes, dos quais 95 milhões podem ser considerados leitores; mas eles leem, em média, 1,3 livro por ano. Nos Estados Unidos, esta cifra é de 11 livros por ano; na França, 7 livros por ano; e na Argentina, 3,2. Não se trata de uma rejeição à leitura; uma enquete mostrou que 75% gostam de ler. Pergunta: por que, então, os brasileiros não leem mais? O argumento mais comum é o do preço do livro, de fato ainda muito caro. Mas isso é o resultado de um círculo vicioso: o livro custa caro porque vende pouco, e vende pouco porque é caro. Dizia-se que o brasileiro não gostava de livro de bolso, que preferia edições de luxo, com capa dura, para, das prateleiras, darem a impressão que o dono da casa era pessoa culta. Agora, porém, vê-se que o livro de bolso tem um público cada vez maior.

Aumentar a venda é uma forma de baixar o preço, mas isso só acontece quando as pessoas têm o hábito da leitura. Este, por sua vez, resulta de um processo que se desenvolve por etapas. A primeira dessas etapas ocorre na infância e depende do ambiente afetivo e cultural em que vive a criança. O conceito de “famílias leitoras”, da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura), não é uma realidade no Brasil: 63% dos não leitores dizem que nunca viram os pais lendo – faltou-lhes, portanto, um modelo. A TV tem sido o centro da vida familiar; aquela cena do passado, a mãe ou o pai lendo para os filhos, é uma raridade.

A etapa seguinte é a da escola. As enquetes mostram que, quanto maior o nível de escolaridade das pessoas, maior é o tempo que dedicam à leitura. Entre os entrevistados com ensino superior, apenas 2% não leem. O problema é que, no Brasil, poucos chegam à universidade: 43% dos jovens de 15 a 19 anos nem sequer concluem o ensino fundamental. Faltam bibliotecas em 113 mil escolas, ou seja, em 68,81% da rede pública de ensino.

Mas, de novo, as coisas estão mudando. Os últimos governos têm se esforçado para preencher esta lacuna; em 2008, as escolas receberam, em média, 39,6 livros cada uma, por meio do Programa Nacional de Bibliotecas Escolares. A par disto, um grande esforço está sendo desenvolvido para estimular o hábito da leitura entre os escolares. No passado, o ensino da literatura era baseado quase que exclusivamente nos clássicos. Autores importantes, decerto, mas que falam de outras épocas, de outros locais, e numa linguagem nem sempre acessível. Hoje, as escolas trabalham também com escritores contemporâneos, e a interação com o texto é a regra. Os alunos fazem dramatizações, escrevem suas próprias versões dos textos, editam jornais na escola. Os eventos literários são frequentes nas cidades brasileiras: as feiras de livros, as bienais de literatura (em cidades como São Paulo, Rio de Janeiro, Salvador, Curitiba) e os festivais literários, dos quais o de Paraty, que traz ao país nomes de destaque na literatura mundial, é um exemplo.

A indústria editorial está em franca expansão, acompanhando o crescimento da economia como um todo. O ano de 2010 mostra-se muito promissor para o mercado editorial e para o crescimento do hábito de leitura no Brasil, diz a presidente da Câmara Brasileira do Livro (CBL), Rosely Boschini. Os números dão apoio a seu otimismo: de 2006 a 2008 foram lançados, aproximadamente, 57 mil novos títulos e impressos mais de um bilhão de exemplares. A indústria editorial atrai investidores estrangeiros, e está deixando de lado o elitismo do passado para buscar o público leitor, sobretudo o leitor jovem. Redes de livrarias estão em expansão, e também a oferta do livro de porta em porta: em 2009, quase 30 milhões de livros foram assim vendidos, sobretudo para setores mais pobres. O Brasil tem hoje 2.980 livrarias, uma para cada 64 mil habitantes. Abaixo do preconizado pela Unesco – uma livraria para cada 10 mil habitantes –, mas com aumento de 10% nos três últimos anos. E, convenhamos, o número está bem acima das duas livrarias cariocas do começo do século XIX.

“Oh! Bendito o que semeia/ livros, livros à mão cheia”, escreveu, no século XIX, o poeta Castro Alves. Abolicionista, Castro Alves lutou pela libertação dos escravos, um objetivo afinal alcançado. Mas, e com isso o poeta, sem dúvida, concordaria, libertar o povo da escravidão da ignorância não é uma causa menos importante.

Moacyr Scliar médico e escritor, já publicou dezenas de livros e integra a Academia Brasileira de Letras. Seu último romance, Manual da paixão solitária, venceu o Prêmio Jabuti em 2009.

Fonte:http://diplomatique.uol.com.br/artigo.php?id=758

terça-feira, 19 de outubro de 2010

Criada tinta capaz de matar superbactérias resistentes a antibióticos

Usando as técnicas da nanotecnologia e uma enzima natural, cientistas desenvolveram uma tinta capaz de eliminar a temível superbactéria resistente a antibióticos que tem vem infectando hospitais ao redor do mundo.

Superbactéria MRSA

Os pesquisadores do Instituto Politécnico Rensselaer, nos Estados Unidos, descobriram como criar um revestimento em nanoescala que erradica a MRSA (Methicillin Resistant Staphylococcus aureus).

Durante os testes, 100% da MRSA em solução morreu dentro de 20 minutos em contato com uma superfície pintada com tinta látex misturada com o nanorrevestimento.

Segundo os pesquisadores, a tinta poderá ser aplicada em instrumentos cirúrgicos, móveis e mesmo nas paredes dos hospitais.

"Aqui nós temos um sistema onde a superfície contém uma enzima que é segura para se lidar, não parece desenvolver resistência, não vaza para o meio ambiente e não se entope com restos celulares. A bactéria MRSA entra em contato com a superfície e simplesmente morre," explica Jonathan Dordick, coordenador da pesquisa.

Nanotubos com enzimas

O segredo do aditivo para a tinta está na mistura de nanotubos de carbono com a lisostafina, uma enzima natural usado por cepas não-patogênicas de bactérias Staph para se defender contra a Staphylococcus aureus, incluindo a MRSA.

A enzima é ligada aos nanotubos de carbono por uma cadeia de polímero flexível, o que aumenta sua capacidade de atingir as bactérias MRSA.

O compósito nanotubo-enzima resultante pode ser misturado em qualquer acabamento de superfície - nos testes, ele foi misturado com tinta látex comum, usada para pintar paredes.

Ao contrário de outros revestimentos antimicrobianos, a cobertura é tóxica somente para a MRSA, não depende de antibióticos e não sofre lixiviação, ou seja, não libera substâncias químicas no ambiente ao longo do tempo.

As bactérias mortas também não entopem o sistema, que continua ativo, podendo ser lavado repetidamente sem perder eficiência.

"A lisostafina é extremamente seletiva," diz Dordick. "Ela não funciona contra outras bactérias e não é tóxica para as células humanas. Nós passamos um bom tempo demonstrando que a enzima não sai da tinta durante os experimentos."
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=tinta-mata-superbacteria-mrsa&id=010160101018&ebol=sim

Lado escuro do Universo é posto em dúvida por astrônomos

Astrônomos da Universidade de Durham, no Reino Unido, afirmaram que todo o conhecimento atual sobre a composição do Universo pode estar errado.

Utane Sawangwit e Tom Shanks estudaram os resultados das observações do telescópio espacial WMAP e afirmam que os erros em seus dados parecem ser muito maiores do que se acreditava anteriormente.

Lado escuro do Universo

A sonda WMAP (Wilkinson Microwave Anisotropy Probe) foi lançada em 2001 para medir a radiação cósmica de fundo (CMB: Cosmic Microwave Background), o calor residual do Big Bang que preenche o Universo e aparece ao longo de todo o céu.

Há poucas semanas a sonda terminou o mapeamento do Universo primitivo, embora ainda sejam necessários meses para que esses dados sejam totalmente processados.

Acredita-se que a dimensão angular das ondulações verificadas na CMB esteja ligada à composição do Universo. As observações do WMAP mostram que as ondulações têm aproximadamente duas vezes o tamanho da Lua cheia, ou cerca de um grau de diâmetro.

Com estes resultados, os cientistas concluíram que o cosmos é composto de 4% de matéria "normal", 22% de matéria escura ou matéria invisível e 74% de energia escura.

O debate sobre a exata natureza desse "lado negro" do Universo - a matéria escura e a energia escura - continua intenso até hoje.

Radiação cósmica de fundo

Sawangwit e Shanks usaram objetos astronômicos que aparecem como pontos não identificados nos radiotelescópios para testar a forma como o telescópio WMAP "suaviza" os dados para formar seus mapas.

Eles descobriram que essa "suavização" é muito maior do que se acreditava anteriormente, sugerindo que a medição do tamanho das ondulações da radiação de fundo residual não é tão rigorosa como se pensava.

Se for verdade, isso significaria que as ondulações são na verdade muito menores, o que poderia implicar que a matéria escura e a energia escura podem nem mesmo existir.

"As observações da CMB representam uma ferramenta poderosa para a cosmologia, e é vital checar [os dados]. Se nossos resultados se confirmarem, então será menos provável que partículas exóticas de energia escura e de matéria escura dominem o Universo. Assim, os indícios de que o Universo possui um 'lado negro' se enfraquecerão," diz o professor Shanks.

Expansão do Universo


Este é o efeito dos superaglomerados de galáxias sobre os fótons da radiação cósmica de fundo (CMB). [Imagem: IOP/Physicsworld]
Se a energia escura de fato existir, então, em última instância, ela faz com que a expansão do Universo se acelere.

Em sua jornada a partir da CMB até os sensores dos telescópios como o WMAP, os fótons - as partículas básicas da radiação eletromagnética, incluindo a luz e as ondas de rádio - viajam através de gigantescos superaglomerados de galáxias.

Normalmente, um fóton CMB sofre um decaimento para o azul - seus picos caminham em direção à extremidade azul do espectro - quando ele entra no superaglomerado de galáxias. E, quando ele sai do superaglomerado, ele tende novamente para o vermelho. Desta forma, os dois efeitos se anulam durante a travessia completa.

No entanto, se os superaglomerados de galáxias estiverem se acelerando uns em relação aos outros - por efeito da matéria escura - esse cancelamento não é exato, e os fótons ficam ligeiramente deslocados para o azul.

Com isto, a radiação de fundo deve mostrar temperaturas ligeiramente mais altas onde os fótons atravessaram superaglomerados de galáxias.

Entretanto, novos resultados obtidos com o Sloan Digital Sky Survey, que já pesquisou mais de um milhão de galáxias vermelhas, sugerem que esse efeito não existe, mais uma vez ameaçando o modelo padrão do Universo e ameaçando dispensar a matéria e a energia escuras - esses dados do Sloan recentemente validaram a teoria da relatividade em escala cósmica.

Partículas exóticas


O modelo cosmológico padrão prevê que o Universo é dominado por 74% de energia escura e 22% de matéria escura. Os restantes 4% são os átomos da matéria ordinária de que tudo o que conhecemos é feito. Assim, nesse modelo, 96% do Universo é escuro e seria mais razoável falar de um "lado claro do Universo". [Imagem: NASA/WMAP]
Se o Universo realmente não tiver um "lado negro", na verdade isso poderá representar um alívio para muito físicos teóricos, que se sentem desconfortáveis com o fato de não se haver sido ainda detectado qualquer sinal das partículas exóticas que comporiam a matéria escura e a energia escura.

Mas, conforme os próprios autores declaram, mais medições precisam ser feitas antes de qualquer declaração categórica a favor ou contra o modelo do Universo mais aceito atualmente.

"Se nossos resultados se repetirem em novos levantamentos de galáxias no hemisfério Sul, então isso vai significar problemas reais para a existência da energia escura," diz Sawangwit.

O telescópio espacial Planck, da Agência Espacial Europeia, está coletando mais dados sobre a radiação cósmica de fundo e poderá ajudar a indicar se há ou não um lado escuro no Universo.

Em 2005, um grupo de físicos propôs um novo modelo do Universo, que explicaria a expansão da aceleração do Universo pela própria gravidade - veja Alterações na Lei da Gravidade, e não a energia escura, causam a aceleração do universo.

Em apoio à teoria atual, outra equipe afirmou já ter encontrado indícios independentes da existência da energia escura - veja Descoberta primeira evidência da existência da Energia Escura.

Bibliografia:

Beam profile sensitivity of the WMAP CMB power spectrum
U. Sawangwit, T. Shanks
Monthly Notices of the Royal Astronomical Society
September 2010
Vol.: 407, Issue 1, pages L16-L20
DOI: 10.1111/j.1745-3933.2010.00894.x
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=energia-escura-materia-escura-nao-existir&id=010130101018&ebol=sim

segunda-feira, 18 de outubro de 2010

BookCrossing já tem 2 mil adeptos em São Paulo

Prática consiste em trocar livros em locais públicos.
Movimento, criado em 2001 nos EUA, abriga 7 mil participantes no Brasil.
Criado com o objetivo de transformar o mundo em uma grande biblioteca, o BookCrossing nasceu da ideia de praticar o desapego material e estimular a cultura. E a prática vem ganhando adeptos: já são 2 mil em São Paulo.
O BookCrossing consiste em deixar um livro em um local público para que outra pessoa o encontre, leia e faça o mesmo processo. O lema do movimento é: ler, registrar e libertar. Leia um bom livro, registre o exemplar no site para adquirir um número de identificação e o liberte.
Qualquer pessoa pode participar do movimento. Não há regras pré-determinadas e nada é cobrado. É esperado, no entanto, que todas as pessoas que peguem esses livros acessem o site e digam que estão com ele. Dessa forma, é possível rastrear o exemplar.

Os livros podem ser deixados ou pegos em pontos fixos de BookCrossing ou em lugares públicos como bares, estações de metrô e praças. Em todos os livros há uma mensagem que explica para aos novatos o que deve ser feito: ler e repassar. O cadastro do livro é feito no site oficial do movimento, que é em inglês.

A orientação é optar por deixar ou pegar o livro em um ponto fixo do que em um local público, pois eles são locais mais seguros, onde os funcionários já conhecem e sabem dar informações sobre o movimento. Além disso, o livro não corre o risco de se perder.

Modelo de etiqueta deixada nos livros
(Foto: Divulgação/BookCroosing)
O movimento foi criado em 2001 por um programador norte-americano. Em seguida, foi lançado o site e, desde então, o BookCrossing tem crescido e ganhado adeptos em todos os cantos do mundo.
Atualmente está presente em 130 países, com mais de 6,1 milhões de livros registrados e cerca de 845 mil membros. No Brasil, são cerca de 7 mil participantes, a maior parte em São Paulo. A estimativa é que tenham circulado, em setembro deste ano, pelo menos 600 livros no estado de São Paulo, sendo 380 na capital e 220 no interior.

Os participantes do movimento têm os mais diferentes perfis. Vai desde um idoso até um adolescente. Entretanto, há algo em comum entre eles: a vontade de ler e apoiar a cultura no país.

Uma das participantes do movimento é a professora de inglês Eunira Galioni, de 52 anos. Para ela, o maior benefício do movimento é dar acesso à cultura para quem não tem condições de comprar. “É bacana porque muitas pessoas têm acesso aos livros só por causa do movimento. Eu não tenho um ponto fixo para deixar ou pegar livros, mas normalmente vou à Biblioteca Mário de Andrade”, diz.
No Brasil, a coordenadora do movimento é Helena Castello Branco. Segundo ela, muitas pessoas já faziam essa "troca" no mundo todo, antes mesmo de o movimento ser criado. “O que o norte-americano fez foi centralizar tudo isso em um site. Assim que houve essa organização, o movimento só cresceu”, afirma. “Estamos trabalhando para que o site seja traduzido para o português. Quando isso acontecer, pode ser que o número de adeptos aumente”, aposta a coordenadora.

Em São Paulo existem três pontos fixos de BookCrossing: na Biblioteca Mário de Andrade, na Casa da Rosas, localizada na Avenida Paulista, e na Central das Artes, em Sumaré.

Fonte:http://g1.globo.com/sao-paulo/noticia/2010/10/bookcrossing-ja-tem-2-mil-adeptos-em-sao-paulo.html

Projeto de Lei quer proibir anonimato em sites no Brasil

Redação do IDG Now!
18-10-2010
(Agência Brasil)
Páginas deverão indicar o nome do responsável e endereço de contato. Reportagens deverão informar o nome e o registro do jornalista
Um Projeto de Lei (PL) que está em tramitação na Câmara dos Deputados prevê a proibição do anonimato em sites no Brasil. Eles deverão indicar o nome do responsável na página principal, além do endereço de contato. Em matérias jornalísticas, deverá ser informado o nome e o registro profissional do jornalista responsável. A proposta é de autoria do deputado Eduardo da Fonte (PP-PE) e tem o código 7311/10.

De acordo com a PL, sites que produzam ou veiculem matérias jornalísticas próprias ou de terceiros, inclusive blogs, ficarão ainda submetidos a outros deveres, como comprovar a veracidade da informação prestada, assegurar o direito de resposta e observar meios éticos na obtenção da informação. A proposta proíbe preferências discriminatórias sobre raça, religião, sexo, preferências sexuais, doenças mentais, convicções políticas e condição social.

Segundo o autor do projeto, em uma rede não regulada, há muitos abusos. “O cidadão prejudicado não tem como fazer contato com os responsáveis por sítios que não disponibilizam endereço ou nome dos jornalistas responsáveis pelas matérias veiculadas”, afirma. “Nem mesmo o direito de recurso ao Poder Judiciário é possível, uma vez que a impossibilidade de identificar os responsáveis impede a caracterização da parte a ser acionada”.

Punição

De acordo com o projeto, em caso de descumprimento, os responsáveis pelos sites no Brasil ficarão sujeitos a multa entre 5 mil e 50 mil reais por cada infração. No caso da pessoa jurídica, também serão punidos com multa os administradores ou controladores, quando tiverem agido de má-fé.

Fonte:http://pcworld.uol.com.br/noticias/2010/10/18/projeto-de-lei-quer-proibir-anonimato-em-sites-no-brasil/

MANIFESTO DE PROFESSORES UNIVERSITÁRIOS EM DEFESA DA EDUCAÇÃO PÚBLICA

Nós, professores universitários, consideramos um retrocesso as propostas e os métodos políticos da candidatura Serra. Seu histórico como governante preocupa todos que acreditam que os rumos do sistema educacional e a defesa de princípios democráticos são vitais ao futuro do país.

Sob seu governo, a Universidade de São Paulo foi invadida por policiais armados com metralhadoras, atirando bombas de gás lacrimogêneo. Em seu primeiro ato como governador, assinou decretos que revogavam a relativa autonomia financeira e administrativa das Universidades estaduais paulistas. Os salários dos professores da USP, Unicamp e Unesp vêm sendo sistematicamente achatados, mesmo com os recordes na arrecadação de impostos. Numa inversão da situação vigente nas últimas décadas, eles se encontram hoje em patamares menores que a remuneração dos docentes das Universidades federais.

Esse “choque de gestão” é ainda mais drástico no âmbito do ensino fundamental e médio, convergindo para uma política de sucateamento da Rede Pública. São Paulo foi o único Estado que não apresentou, desde 2007, crescimento no exame do Ideb, índice que avalia o aprendizado desses dois níveis educacionais.

Os salários da Rede Pública no Estado mais rico da federação são menores que os de Tocantins, Roraima, Rio de Janeiro, Mato Grosso, Espírito Santo, Acre, entre outros. Somada aos contratos precários e às condições aviltantes de trabalho, a baixa remuneração tende a expelir desse sistema educacional os professores qualificados e a desestimular quem decide se manter na Rede Pública. Diante das reivindicações por melhores condições de trabalho, Serra costuma afirmar que não passam de manifestação de interesses corporativos e sindicais, de “tró-ló-ló” de grupos políticos que querem desestabilizá-lo. Assim, além de evitar a discussão acerca do conteúdo das reivindicações, desqualifica movimentos organizados da sociedade civil, quando não os recebe com cassetetes.

Serra escolheu como Secretário da Educação Paulo Renato, ministro nos oito anos do governo FHC. Neste período, nenhuma Escola Técnica Federal foi construída e as existentes arruinaram-se. As universidades públicas federais foram sucateadas ao ponto em que faltou dinheiro até mesmo para pagar as contas de luz, como foi o caso na UFRJ. A proibição de novas contratações gerou um déficit de 7.000 professores. Em contrapartida, sua gestão incentivou a proliferação sem critérios de universidades privadas. Já na Secretaria da Educação de São Paulo, Paulo Renato transferiu, via terceirização, para grandes empresas educacionais privadas a organização dos currículos escolares, o fornecimento de material didático e a formação continuada de professores. O Brasil não pode correr o risco de ter seu sistema educacional dirigido por interesses econômicos privados.

No comando do governo federal, o PSDB inaugurou o cargo de “engavetador geral da república”. Em São Paulo, nos últimos anos, barrou mais de setenta pedidos de CPIs, abafando casos notórios de corrupção que estão sendo julgados em tribunais internacionais. Sua campanha promove uma deseducação política ao imitar práticas da extrema direita norte-americana em que uma orquestração de boatos dissemina a difamação, manipulando dogmas religiosos. A celebração bonapartista de sua pessoa, em detrimento das forças políticas, só encontra paralelo na campanha de 1989, de Fernando Collor.
Fonte:http://emdefesadaeducacao.wordpress.com/2010/10/15/manifesto-de-professos-universitario-em-defesa-da-educacao-publica/

Chips made in Brasília

A primeira casa de projetos de circuitos integrados do Centro-Oeste fica na UnB e é financiada pelo Ministério da Ciência e Tecnologia

Todos os eletrônicos que deixam a vida muito mais prática nos dias de hoje - do controle remoto até os poderosos computadores de um aeroporto, por exemplo - funcionam graças a pequenos circuitos integrados.

Peças de alguns milímetros quadrados que agrupam minúsculos transistores, eles são responsáveis pela coordenação das principais funções das máquinas.

Os chips têm valor inversamente proporcional ao seu tamanho - quanto menores, mais valiosos - e são a causa de um dos maiores problemas da balança comercial brasileira, que perde US$ 25 bilhões por ano com a importação dessas peças.

Para mudar esse quadro, é preciso fazer com que os chips sejam produzidos no Brasil, algo mais complicado do que parece.

A indústria de semicondutores exige investimento pesado em infraestrutura e capacitação.

Desde 2004, o governo federal tenta resolver o problema com a criação de design houses, casas de projetos financiadas através do programa CI Brasil, do Ministério da Ciência e Tecnologia.

A Universidade de Brasília (UnB) é sede de uma dessas casas, a DFChip, a primeira do Centro-Oeste. Dez pessoas trabalham na iniciativa desde julho passado, literalmente desenhando os circuitos integrados.

O trabalho é longo e delicado. Mesmo pequenos, os chips são responsáveis pela competitividade da indústria de eletrônicos, por isso recebem tanta atenção. Antigamente, os aparelhos funcionavam com grandes circuitos elétricos.

"Mas as empresas, por pressão do mercado, tiveram que melhorar seus produtos, aumentando a performance, diminuindo o tamanho e o consumo de energia. Para isso, desenvolveram os circuitos integrados", conta Mario Vergara, gerente técnico da DFChip.

Além disso, os próprios chips melhoraram muito com o passar do tempo. "No início dos anos 1970, havia enormes computadores com uma capacidade irrisória. Já existiam microchips dentro dessas máquinas, mas eram muitos e faziam pouca coisa", explicaWagner Araújo, engenheiro de aplicação da design house da UnB. "Nos dias de hoje, com menos elementos em uma placa, é preciso menos energia para fazer o computador funcionar. Isso deixou o PC muito mais rápido também", completa.

Assim, projetar bons circuitos integrados é uma forma de ganhar mercado. O engenheiro de aplicação da DFChip cita o exemplo do iPad, o eletrônico com maior adesão na história, fora os telefones. "A Apple criou um chip sofisticado para o tablet e deve ter gasto algo entre US$10 milhões eUS$20 milhões.

Agora, imagine o retorno que a companhia não está conseguindo com as vendas", exemplifica.

Essa balança, porém, só fica equilibrada se, na hora de fabricar o circuito integrado, o volume for grande o bastante para valer os custos da produção. Para tornar o processo viável, as indústrias precisam fazer, no mínimo, 100 mil unidades do chip, por um período de três a cinco anos. A regra vale para qualquer tipo de semicondutor, dos mais simples aos mais complexos.

Um microchip de computador pode custar US$ 100; já os que vão em etiquetas de identificação por radio-frequência (RFID) custam US$ 0,10 ou US$ 0,20. "Qualquer circuito precisa de um chip hoje. E a indústria depende da evolução constante da tecnologia", reforça Wagner Araújo.

Investimento

Por que, afinal, desenhar um chip é tão caro? "Formar um projetista não é barato. Não há cursos de graduação específicos para isso no Brasil. Quem quer seguir a área precisa fazer mestrado ou doutorado, que, muitas vezes, são focados na atuação acadêmica", comenta Mario Vergana. "E a indústria ainda é incipiente, não adianta criar um currículo universitário se a pessoa não vai ter onde aplicar esse conhecimento", completa Wagner.

A arquitetura do semicondutor também custa um dinheirão. Os softwares utilizados para gerar os códigos são proprietários e a licença não sai por menos de US$ 200 mil ao ano, podendo chegar a US$ 1 milhão. Por conta disso, mesmo grandes empresas costumam terceirizar o projeto de chips.

É aí que entra a valorização das design houses. Os editais do Ministério da Ciência e Tecnologia (foram dois até agora) dão um prazo de dois anos para que as casas de projetos se estabeleçam. A ideia é que, depois desse período, elas consigam se firmar como empresas para atender indústrias nacionais e estrangeiras.

A DFChip ainda não tem uma "cara" específica. "Cada design house tem liberdade para definir sua área de atuação. Em geral, isso depende da região onde a casa está inserida. Se o Distrito Federal for forte em telecomunicações, provavelmente vamos projetar chips para essa indústria", explica Higor Santana, gerente de desenvolvimento empresarial do Centro de Apoio ao Desenvolvimento Científico e Tecnológico (CDT) da UnB.

Além da DFChip, há outras 21 design houses espalhadas pelo país - 12 delas em órgãos públicos e a maioria nas regiões Sul e Sudeste.

Por enquanto, a casa de projetos de Brasília está atendendo apenas um cliente, uma empresa de São Paulo que trabalha em parceria com uma organização norte-americana.

Mas a intenção é ampliar a carteira de atendimentos. "A vantagem de uma design house é que nós conseguimos distribuir os custos entre vários clientes", afirma Higor. "Nosso maior desafio, contudo, é a cultura empresarial brasileira: aqui, as indústrias ainda têm resistência em adotar tecnologias de ponta", lamenta o gerente do CDT.

Para o engenheiro Wagner Araújo, as design houses do Brasil precisam investir em um mercado específico de chips, não tão sofisticado, mas não menos necessário, como o de identificação por RFID. "Eu acho que seria uma bobagem nós competirmos com projetistas que criam circuitos integrados para microprocessadores, por exemplo", opina. "Podemos, sim, capacitar o país, mas algumas coisas sempre vão ser importadas", diz.

Lei de Moore

A escala do desenvolvimento tecnológico foi prevista em 1965, por Gordon Moore, um dos fundadores da Intel. A chamada Lei de Moore diz que, a cada 18 meses, a capacidade dos chips dobra e o preço cai pela metade. A regra vale ainda hoje, embora especialistas anunciem que, em breve, a lógica do mercado será outra.
(Correio Braziliense, 18/10)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74126

Todos pela educação, artigo de Ricardo Young

"É absolutamente urgente que sejamos todos radicalmente pela educação pública de qualidade, hoje"

Ricardo Young é empresário. Foi candidato ao senado pelo PV-SP. Artigo publicado na "Folha de SP":

Este é o nome de um movimento da sociedade civil, do qual participo, que tem por objetivo contribuir para que todas as crianças e jovens brasileiros tenham acesso à educação pública de qualidade.

Este movimento se torna ainda mais fundamental depois que pesquisa do Ipea dá conta de que a população brasileira passará por um envelhecimento rápido nos próximos 20 anos.

Ao analisar dados sobre fecundidade e mortalidade, o Ipea estima que, a partir de 2030, só os grupos acima de 45 anos é que vão apresentar crescimento.

Em comparação com a Europa, único continente a enfrentar esse problema até agora, o movimento de passagem está acontecendo numa velocidade acelerada, exigindo atenção total dos políticos, do mercado e da sociedade para os impactos da mudança nas políticas públicas, no consumo e na vida de cada um.

Um país com população "mais velha" precisa de políticas públicas de renda e saúde abrangentes e efetivas para compensar a perda da capacidade de trabalho, além de fortes investimentos em habitação, infraestrutura e acessibilidade em focos diferentes dos que são feitos hoje, porque as necessidades serão diferentes.

Quem vai pagar esta conta? De onde sairá o dinheiro para as aposentadorias que garantam dignidade a estes brasileiros? O Brasil ainda vive um período de bônus demográfico, no qual há um contingente de população em idade ativa maior do que o de idosos e crianças. Este período deve durar mais uns 20 anos. Em condições normais, seria uma bênção. Mas, por não estarmos preparados, teremos um ônus difícil de ser superado, pois as pessoas em idade ativa hoje têm baixa escolaridade e quase 50% da população entre 15 e 19 anos não tem acesso ao ensino médio público.

Daqui a 20 anos, a população ativa hoje será a aposentada. Se neste período não realizarmos uma verdadeira revolução educacional que prepare de fato as pessoas para um mercado de trabalho cada vez mais exigente, não seremos um país sustentável, pois a renda dos cidadãos ativos não suportará as necessidades básicas da população.

Na Europa, as aposentadorias são garantidas por uma população economicamente ativa altamente educada e capacitada, que ocupa postos de trabalho complexos com salários sobre os quais incide uma porcentagem que forma a poupança que paga as aposentadorias. Estes profissionais passaram por escolas, públicas na maioria, de alto nível. Por isso os salários melhores garantem uma população de "pirâmide invertida", mais idosos do que jovens.

É absolutamente urgente que sejamos todos radicalmente pela educação pública de qualidade, hoje. Esse é o compromisso que devemos cobrar dos políticos. A viabilidade do país depende disso.
(Folha de SP, 18/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74127

Brasil defende direito de quebrar patente de remédios

Países em desenvolvimento buscam diferenciar medicamentos falsificados de genéricos

Brasil, Índia e África do Sul juntaram forças para rejeitar pressões pela extensão de direitos de propriedade intelectual, e defenderam o uso efetivo de flexibilidades como licença compulsória, ou seja, quebra de patentes, para melhorar o acesso a remédios baratos.

A posição foi manifestada em concorrido seminário que os três países promoveram para a comunidade internacional, em Genebra, onde reuniram uma série de expositores para combater a "confusão jurídica" entre remédios falsificados e genéricos, atribuída a grandes laboratórios.

O relator especial da ONU sobre direito à saúde, Anand Grover, disse que muitas patentes estão expirando, valendo dezenas de bilhões de dólares de negócios, poucas entram no mercado e assim a indústria farmacêutica promoveria "uma campanha agressiva contra genéricos".

"Remédios falsificados são um problema sério. Ninguém está aqui para promover venda de falsificados, mas também não está aqui para promover a venda de nenhum medicamento em prejuízo do direito humano à saúde", afirmou a embaixadora brasileira Maria Nazareth Farani Azevedo.

A posição brasileira é de combater remédio falsificado como um crime contra a saúde pública, e não contra o direito privado, disse Erika Veiga, representante da Agência Nacional de Vigilância Sanitária (Anvisa). A agência diz ter feito mais de 53 mil apreensões entre janeiro e agosto. Em 2009, fez retenção de 235 mil toneladas de medicamentos sem registro.

A Índia vê mais "esforços simultâneos" para torpedear as flexibilidades do Acordo de Trips (propriedade intelectual) da Organização Mundial do Comércio (OMC), com "comércio unilateral e pressões políticas sendo exercidas sobre os países que exercem flexibilidades como licença compulsória". Para participantes, se isso prevalecer, países em desenvolvimento podem "dar adeus" a sua industria farmaceutica nacional.

Para a organização Médicos Sem Fronteiras, que atua em mais de 70 países, o preço de medicamentos é central para se combater falsificados, "a concorrência é importante, como é importante a produção de genéricos".

Certos participantes não escondiam a surpresa com o preço de genéricos no Brasil, considerado bastante caro para um país que procura exercer liderança na área. Nos países europeus, os genéricos representam 50% das unidades farmacêuticas, em média, e em valor representam 18%. No Brasil, os genéricos têm 20% do mercado e fazem 18% em valor, mostrando que a diferença de custo com os medicamentos de marca é insignificante.

Num artigo de quatro páginas publicado na "Resenha de Imprensa" da OMC, o acadêmico americano Robert Naiman conclama o Brasil a ser mais incisivo e efetivo para liderar o acesso a remédios essenciais. "Se o Brasil promovesse fortemente a produção de genéricos alternativos, isso resultaria em preços mais baixos para o país e mais baixos para outros países", afirma.

A Interfarma, a entidade que representa a indústria farmacêutica, considera ultrapassada a "suposta guerra de genéricos", notando que a indústria quer fazer um mix de remédios de marca, genéricos e similares, e quer garantir o produto seguro e eficaz.
(Assis Moreira)
(Valor Econômico, 18/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74137

Ciência em ação

Aulas de robótica, comuns no ensino superior, passam a fazer parte da grade curricular das escolas; objetivo é despertar em crianças e jovens o gosto pela ciência e incentivar neles o empreendedorismo

O ensino da robótica desperta a curiosidade para a área da ciência e tecnologia.

Como interesse não tem idade, não é mais preciso esperar até a universidade para aprender a fazer robôs.

Hoje, muitas escolas dão aulas de robótica para crianças a partir dos 9 anos. No colégio Franciscano Nossa Senhora Aparecida (zona oeste de SP), os alunos têm aula de aventuras robóticas.

O objetivo, diz a escola, é desenvolver neles liderança e empreendedorismo. O professor Fernando Fontes explica sua metodologia: os alunos são divididos em grupos de três; a cada aula, eles têm uma missão. Há sempre um líder, um construtor e um programador.

"A missão de hoje é se adaptar a situações problemáticas para não ficar desesperado", diz Guilherme Pessoto, 10, o programador do dia, ao tentar montar um robô de pequenas dimensões.

Em sua equipe, Lucas Terui, 10, o construtor, diz que gosta de resolver problemas sozinho, sem o professor. Para alunos um pouquinho mais velhos, do 6º ao 9º ano de duas escolas públicas de sua região, a UFJF (Universidade Federal de Juiz de Fora) desenvolve um treinamento para a olimpíada de robótica que a instituição promove para os ensinos fundamental e médio.

Segundo André Marcato, coordenador do curso de engenharia elétrica da UFJF e responsável pelo Projeto de Popularização de Ciência e Tecnologia, a meta é aproximar os alunos de escolas públicas da universidade.

"Queremos despertar nos estudantes o interesse pela tecnologia", diz Marcato.

No programa, além de desenvolverem programação de computadores e robótica, os alunos aprendem conceitos básicos da engenharia eletrônica -como sensores de proximidade, luz e tato-e da mecânica -criar uma artefato do robô,por exemplo.

Já os graduandos dos cursos de engenharia da Escola Politécnica da USP continuam a se dedicar aos estudos com robôs na faculdade.

Mas, agora, os projetos têm mais complexidade. A equipe ThundeRatz, com mais de 20 membros, possui robôs que, somados, chegam ao valor de R$ 30 mil. Além da participação nas competições de robótica, desenvolvem projetos técnicos e científicos apenas com a ajuda de um orientador.

Os robôs Lenhador (R$ 20 mil), Hypnos (R$ 9.000) e Hockey (R$ 700) são os atuais objetos de trabalho dos futuros engenheiros. Os membros do ThundeRatz acreditam que a participação na equipe ajuda na busca de um emprego, uma vez que aliam a experiência como conhecimento técnico. Flavio Tonidandel, coordenador do departamento de ciência da computação da FEI (Fundação Educacional Inaciana), diz que o Brasil produz artigos, teses, mas desenvolve pouca tecnologia. "É como se fosse muita teoria e pouca prática."
(Thiago Azenha)
(Folha de SP, 18/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74138

O melhor da ciência inútil

Ig Nobel premia com 10 trilhões de dólares (zimbabuanos) autores de façanhas como estudar a felação dos morcegos e provar a Lei de Murphy segundo a qual a torrada cai sempre com a manteiga para baixo

Em plena temporada do Nobel, o seu inverso: o Ig Nobel. Há 19 anos que ele existe, premiando pesquisas e façanhas científicas irrisórias, portanto pândegas e irrelevantes. Ou, como define quem o instituiu, pesquisas que provocam o riso e só depois a reflexão, acima de tudo sobre o alcance de sua desimportância. Ensinar pombos a diferençar um quadro de Picasso de um quadro de Monet, por exemplo. Tão inútil façanha já rendeu um Ig Nobel de Comportamento Animal a um trio de psicólogos americanos.

Foi uma ideia - o prêmio, não a columbófila experiência - de um sujeito chamado Marc Abrahams. Se existisse o Nobel do Bom Senso, seria injusto concedê-lo a outro cientista. Abrahams estudou matemática aplicada em Harvard e dedicou os melhores anos de sua vida a catar e tornar públicas as maiores tolices do mundo acadêmico, através de uma organização, Annals of Improbable Research (Anais da Pesquisa Improvável), que antecedeu de muitos anos a denúncia das "imposturas intelectuais" feita pela dupla Sokal-Bricmont.

Os galardões de 2010 foram entregues no dia 30 de setembro, em cerimônia realizada no Teatro Sanders da Universidade de Harvard, mas a série de palestras tradicionalmente embutida no evento - desta feita centrada no tema "bactéria" - continuou rolando, com, entre outras sumidades, o ficcionista e quadrinista Neil Gaiman.

Sempre prestigiada por cientistas premiados com o outro Nobel, é uma festa de gozação e confraternização, a que muitos comparecem com aqueles óculos e bigodes à Groucho Marx ou um barrete de bufão. A cada ano a recompensa em dinheiro ganha mais zeros, acompanhando a inflação, cortesia tão ou mais irrelevante que as pesquisas laureadas, pois a moeda adotada é o dólar zimbabuano. Cada ignobelizado embolsou um cheque de Z$ 10 trilhões.

Por falar em fiasco econômico (na ditadura de Mugabe um quilo de açúcar custa milhares de dólares nacionais), o Ig Nobel de Economia de 2009 coube justamente aos gênios das finanças que destruíram a moeda daquele país africano. O deste ano ficou com os magos da agiotagem dos grupos Goldman Sachs, AIG, Lehman Brothers, Bear Stearns e Magnetar, pelo que fizeram e continuam fazendo nos arredores de Wall Street.

O Ig Nobel de Química foi para três pesquisadores (um do MIT) que estudaram os possíveis efeitos de um vazamento de óleo nas águas profundas do Mar da Noruega, cujos resultados foram vendidos à BP, aquela petrolífera que emporcalhou o Golfo do México. O de Física premiou três neozelandesas da Universidade de Dunedin, pela tese de que a maneira mais segura de se evitar escorregões no gelo acumulado nas ruas durante o inverno é calçar as meias sobre as botas. Solas de lã sem dúvida oferecem muito mais estabilidade, mas e a sensação de ridículo?

No campo da biologia comportamental, o destaque foi a experiência que Gareth Jones fez com morcegos, na Universidade de Bristol, na Inglaterra. Segundo dr. Jones, os morcegos prolongam a duração de suas cópulas praticando a felação - se é que entendi direito sua descoberta, trazida a público pela revista New Scientist. Abrahams autentica todas as suas premiações em apêndices e notas de rodapé. A experiência das meias foi publicada no New Zealand Medical Journal.

Três psicólogos britânicos da Universidade de Keele compartilharam o Ig Nobel da Paz. Tentaram provar cientificamente que praguejar, xingar e dizer palavrões não só acalma o ser humano como lhe aumenta a tolerância à dor. O mesmo japonês, Toshiyuki Nakagaki, que em 2008 ficara com o Ig Nobel de Ciência Cognitiva ao demonstrar o agudo senso de direção dos fungos ameboides no interior de um labirinto, voltou este ano para pegar o Ig Nobel de Planejamento de Transporte. Agora seus fungos "provaram" possuir um sistema de conexão mais eficiente que o do metrô de Tóquio.

A cientista ucraniana Elena Bodnar foi outra que também bisou sua presença na festa da Annals of Improbable Research. Não veio receber outro prêmio, apenas anunciar que já estava à venda o invento que em 2009 lhe proporcionou o Ig Nobel de Saúde Pública: um sutiã que se transforma em máscara contra gases - e tem o mesmo tom de rosa do flamingo de plástico para jardim que assegurou a Don Featherstone o Ig Nobel de Arte de 1996. O fenicopterídeo de Featherstone já tinha, então, quatro décadas de breguice; só lhe faltava a chancela de uma renomada instituição.

O físico inglês que se arvorou em dar respaldo científico a uma das Leis de Murphy ("A torrada sempre cai com o lado da manteiga para baixo") também recebeu o seu Ig Nobel de Física com atraso. Já o zoólogo que escreveu um livro sobre como identificar cada um dos insetos que se esborracham nos para-brisas de automóveis e caminhões esperou apenas alguns meses para abiscoitar o Ig Nobel de Entomologia.

Como a bebida afeta a memória dos peixinhos de aquário? Em que doses regulares o álcool pode curar a ejaculação precoce canina? Que efeitos sobre as aranhas tem o sangue dos esquizofrênicos? Por que os ratos podem ser ensinados a preferir Mozart a Schoenberg? Qual a utilidade do chulé? Sem as limitações categóricas da Academia Sueca, a academia de Marc Abrahams contempla todas as áreas do conhecimento humano. Do ambientalismo à tecnologia, da administração de empresas à zoologia, sempre atrás de especulações que justifiquem a fama da pesquisa científica como "a falta do que fazer metida a besta".

Este ano até um Ig Nobel de Gestão foi providenciado. Três economistas da Universidade da Catânia, no sul da Itália, racharam a oferenda por conta da recauchutagem que deram no Princípio de Peter. "Todo empregado tende a ser promovido até o seu nível de incompetência", reza o princípio. Já que é assim, os italianos desenvolveram a tese de que a melhor maneira de aumentar a eficiência de uma empresa é promover competentes e incompetentes, aleatoriamente. E se a prática confirmá-la?
(Sérgio Augusto)
(O Estado de SP, 17/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74140