Translate

sexta-feira, 6 de maio de 2011

Nova técnica reduz tempo e custo de prospecção

Uma empresa ainda na incubadora da Coppe-UFRJ desenvolveu uma tecnologia de prospecção de petróleo no mar que pode revolucionar o setor.

Uma empresa ainda em gestação na incubadora da Coordenação dos Programas de Pós Graduação em Engenharia da Universidade Federal do Rio de Janeiro (Coppe-UFRJ), tocada por um geólogo e um oceanógrafo cariocas, desenvolveu uma nova tecnologia de prospecção de petróleo no mar que pode revolucionar o setor, barateando muito os custos da busca por novos reservatórios.

Chamada modelagem inversa, a técnica permite descobrir, com elevado grau de certeza, o local de origem de manchas de óleo na superfície decorrentes de vazamentos espontâneos dos reservatórios por fendas geológicas, reduzindo em até 75 vezes o tamanho da área a ser investigada.

O oceanólogo Manlio Mano, de 36 anos, graduado na Universidade Estadual do Rio de Janeiro (Uerj) e doutorado em modelagem computacional na Coppe, explica que o modelo desenvolvido por ele e pelo geólogo Carlos Beisl, de 41 anos, seu sócio na empresa OilFinder, permite percorrer exatamente o caminho inverso ao da mancha, detectada por satélite, até a fenda pela qual o óleo escapou do reservatório, geralmente em decorrência de um dos muitos pequenos abalos sísmicos que ocorrem o tempo todo no solo marinho.

O cientista explica que a técnica teve origem na sua tese de doutorado e levou três anos em processo de validação (testes). Em parceria com a Coppe, a Petrobras testou com sucesso a tecnologia, inclusive no campo de Lula (ex-Tupi), quando este já estava descoberto.

De acordo com o técnico carioca, de 80% a 90% das áreas identificadas nos testes feitos pela Petrobras e pela Coppe estavam sobre estruturas compatíveis com o óleo encontrado na superfície. O índice de acerto esperado, segundo ele, era de 30% a 40%.

Como os resultados dos testes feitos pela Petrobras são segredos comerciais dela, a OilFinder decidiu fazer ela mesma um teste em uma área ainda não licitada pela Agência Nacional do Petróleo (ANP). A área em questão, de 43 Km², fica a sudeste de Cabo Frio (RJ), na vizinhança dos blocos exploratórios BM-C-44 e BM-C-46 e dos campos de produção de Maromba e Papa Terra. A localização exata do seu centro é longitude 41°12'15" Oeste e latitude 26°37'07" Sul.

A modelagem inversa mostrou que três manchas, uma delas localizada a mais de 60 quilômetros do ponto de origem, convergiam para o mesmo ponto. Os resultados ainda são inéditos e serão divulgados hoje por Mano em um evento do qual participará em Curitiba.

Segundo o cientista, a convergência mínima de três manchas para a mesma origem é o critério de confiabilidade que permite a divulgação do resultado, embora haja outras variáveis envolvidas na análise. Foi estabelecida uma escala decrescente de 1 a 6 para definir o nível de confiabilidade de um teste realizado, na qual 1 corresponde à confiabilidade máxima e 6, à mínima. O teste feito pela OilFinder recebeu confiabilidade nível 4.

Como não há limite para a idade das imagens de satélite utilizadas para detectar a origem das manchas, Mano explica que fica fácil saber se determinada mancha veio de uma fenda ou de alguma poluição ambiental provocada pelo homem. Basta usar uma imagem mais antiga do que as instalações de origem humanas existentes na região que possam ter liberado uma mancha de óleo (plataformas, portos e outros).

Mano disse que a tecnologia é com certeza inédita no Brasil e quase com certeza, no mundo. Segundo ele, dois fornecedores de imagens de satélite (todos são estrangeiros) já procuraram a OilFinder para negociar a venda do pacote completo, o que seria uma prova do ineditismo da técnica também fora do Brasil.

Agora, os dois sócios vão preparar pacotes com estudos das áreas que serão licitadas na 11ª Rodada de licitações da ANP, marcada para setembro. Mano disse que o planejamento da OilFinder, fundada com investimentos de R$ 20 mil (ela usa, em regime de aluguel, o supercomputador da Coppe para fazer seus trabalhos), a empresa planejava faturar US$ 2 milhões em 2010/2011, mas está revendo esse plano após a divulgação pela ANP da realização dos leilões.

O técnico esclarece que a tecnologia que ele e Beisl desenvolveram não elimina nenhuma das etapas convencionais de um trabalho de prospecção de óleo. "Ela vem para orientar o planejamento e aumentar a taxa de sucesso", pondera o cientista.

Segundo o técnico e empresário, a tecnologia da OilFinder permite, por exemplo, que uma empresa que precisa furar dois poços para avaliar uma determinada área, mas que só tem recursos para um, decidir com segurança qual o melhor ponto para fazer essa única perfuração.
(Valor Econômico)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77409

Intel apresenta transistores 3-D de 22 nanômetros

Redação do Site Inovação Tecnológica - 06/05/2011



Ilustração comparando um transístor planar de 32 nanômetros com o novo transístor 3-D de 22 nanômetros. À esquerda está o transístor planar, no qual a corrente, representada pelos pontos amarelos, flui em um plano sob a porta. À direita está o transístor 3-D, no qual a corrente flui nos três lados de uma saliência que se eleva verticalmente da pastilha de silício.[Imagem: Intel]


Tri-Gate

A Intel anunciou o início da fabricação em escala industrial de transistores 3-D com estruturas de 22 nanômetros.

Ainda não são os tão esperados processadores 3-D, mas representam um inegável avanço em direção à economia de energia e um novo fôlego para a Lei de Moore.

Os transistores 3-D, chamados Tri-Gate, serão usados na fabricação de uma família de microprocessadores de 22 nanômetros que atende pelo codinome de Ivy Bridge.

Transístor 3-D

Desde a invenção de transístor, há mais de 60 anos, esta é a primeira vez que um transístor 3-D entra em linha industrial de produção.

Um transístor possui três portas, ou eletrodos, chamadas emissor, coletor e base. Nos transistores planos atuais, esses eletrodos são construídos como três fios salientes sobre uma superfície de silício.

No Tri-Gate, cada porta fica em um dos planos de uma única saliência - uma de cada um dos lados e outra no topo - reduzindo significativamente a área ocupada pelo transístor.

A maior proximidade das portas permite um melhor controle da corrente, o que significa que mais corrente pode passar quando o transístor está na condição "ligado" - aumentando o desempenho - e quase nenhuma corrente flui quando ele está na condição "desligado" - diminuindo o consumo de energia.

Esses ganhos podem ser ampliados até um certo limite, ao menos teoricamente, aumentando a altura da estrutura Tri-Gate, o que deverá ser obtido nas futuras gerações dos transistores 3-D.



No Tri-Gate, cada porta fica em um dos planos de uma única saliência - uma de cada um dos lados e outra no topo - reduzindo significativamente a área ocupada pelo transístor. [Imagem: Intel]
Desempenho e economia de energia

Segundo a Intel, seus transistores 3-D Tri-Gate permitem que os chips funcionem com uma tensão menor e sofram menos dos famigerados "vazamentos de corrente", "oferecendo uma combinação sem precedentes de desempenho e eficiência energética."

Os transistores de 3-D Tri-Gate de 22 nanômetros apresentam um desempenho até 37 por cento maior do que os atuais transistores planos de 32 nanômetros da empresa, quando ambos operam sob baixa tensão.

Quando comparados funcionando a plena potência, os transistores 3-D consomem metade da energia dos transistores planares atuais.

Mas tudo continua apontando para a manutenção das "famílias" de processadores - umas voltadas para baixo consumo de energia, usadas em computadores portáteis, e outras voltadas para alto desempenho, com maior consumo de energia.

Nova dimensão

Os transistores tridimensionais representam uma mudança radical da estrutura do transístor planar bidimensional clássico, presente não apenas em todos os computadores, telefones celulares e equipamentos eletrônicos de consumo, mas também nos controles eletrônicos dentro de carros, satélites e sondas espaciais, eletrodomésticos, dispositivos médicos etc.

Os cientistas reconhecem há muito tempo os benefícios da estrutura 3-D não apenas para os transistores individualmente, mas também para o próprio chip como um todo. Mas essas vantagens, demonstradas há anos em laboratório, dependem de outros elementos para migrarem para as fábricas - elementos de natureza técnica e econômica.

O elevado consumo de energia dos processadores atuais, que os fez estacionar em termos de clock ao longo dos últimos anos, parece ter sido a razão técnica que faltava. Mesmo o advento dos processadores com múltiplos núcleos não parecia ser suficiente para salvar a Lei de Moore.

Só uma revolução garantirá os futuros avanços da computação
O primeiro protótipo de processador de 22 nanômetros foi apresentado pela Intel equipando um notebook. A previsão é que os primeiros processadores Ivy Bridge cheguem ao mercado até o final de 2011.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=intel-transistores-3-d&id=010110110506&ebol=sim

Descoberta nova forma de geração de magnetismo

Redação do Site Inovação Tecnológica - 04/05/2011



Representação esquemática do filme de Co:TiO2. O ferromagnetismo surge neste material porque os elétrons 3d do titânio (em verde) viajam ao longo do material, alinhando o spin dos átomos de cobalto (em rosa) e fazendo-os apontar na mesma direção. As esferas azuis e cinzas correspondem aos átomos de titânio e oxigênio, respectivamente.[Imagem: Takumi Ohtsuki]


Onda magnética

Se, ao ouvir falar de magnetismo, tudo o que lhe ocorre é uma barra de material ferroso com um pólo norte e um pólo sul, talvez seja melhor se atualizar.

Em menos de dois anos, a ciência se deparou com magnetismo no grafite, magnetismo artificial usando lasers, magnetismo intrínseco do silício, magnetismo da luz, magnetismo entre materiais diferentes, um magnetismo que pode ser ligado e desligado e até a possibilidade de conversão de magnetismo em eletricidade - sem precisar de um gerador.

Parece ser bastante? Não para Takumi Ohtsuki e seus colegas do Instituto Riken, no Japão.

Os pesquisadores descobriram um novo mecanismo capaz de gerar magnetismo, um mecanismo que torna um material magnético sem qualquer influência externa e a temperatura ambiente.

Óxido ferromagnético diluto

A descoberta foi feita em um material chamado óxido ferromagnético diluto, formado por dióxido de titânio dopado com cobalto - conhecido como Co:TiO2.

"Vários mecanismos têm sido sugeridos para explicar a origem do ferromagnetismo no Co:TiO2, mas nunca se chegou a uma conclusão definitiva," diz Ohtsuki.

Usando uma técnica de caracterização da estrutura atômica de materiais, conhecida como espectroscopia por fotoemissão de raios X, os pesquisadores descobriram que o magnetismo é gerado pelos elétrons da terceira camada - chamada 3d - dos íons de titânio.

Os elétrons 3d do titânio alinham os spins dos átomos de cobalto conforme viajam através do material, o que mostra uma conexão entre a eletricidade - os elétrons em movimento - e o magnetismo

Este mecanismo de magnetismo mediado pela circulação dos elétrons nunca havia sido aventado nem mesmo pelos teóricos.

Spintrônica

"Nossos resultados comprovam que o magnetismo está correlacionado com a condutividade no Co:TiO2," diz o Dr. Ohtsuki. "Isto pode tornar o material aplicável na fabricação de memórias de acesso aleatório magnéticas (MRAM) ou em transistores spintrônicos."

A spintrônica, também conhecida como magnetoeletrônica, poderá substituir a eletrônica nas memórias de computador e no processamento de dados, criando uma nova onda tecnológica, onde os computadores serão mais rápidos e consumirão uma fração da energia consumida hoje.

Bibliografia:

Role of Ti 3d Carriers in Mediating the Ferromagnetism of Co?TiO2 Anatase Thin Films
T. Ohtsuki, A. Chainani, R. Eguchi, M. Matsunami, Y. Takata, M. Taguchi, Y. Nishino, K. Tamasaku, M. Yabashi, T. Ishikawa, M. Oura, Y. Senba, H. Ohashi, S. Shin
Physical Review Letters
Vol.: 106, 047602
DOI: 10.1103/PhysRevLett.106.047602

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=nova-forma-geracao-magnetismo&id=010110110504&ebol=sim

Einstein, o espaço-tempo e o fracasso de um épico

Redação do Site Inovação Tecnológica - 06/05/2011



Apesar da precisão de seus giroscópios, a Gravity Probe B nem se aproximou da precisão que seus projetistas esperavam dela. [Imagem: NASA/Stanford]


Einstein estava certo... de novo. Há um vórtice no espaço-tempo ao redor da Terra, e sua forma corresponde precisamente às previsões da teoria da gravitação de Einstein.

A conclusão é de uma das mais impressionantes sondas espaciais já lançadas, a Gravity Probe B, uma verdadeira maravilha da engenharia.

Imprecisão

Assim posto, tudo parece ser motivo para comemorações.

Infelizmente, não é.

Apesar da precisão de seus giroscópios, a Gravity Probe B nem se aproximou da precisão que seus projetistas esperavam dela.

Na verdade, o anúncio feito pela NASA acrescenta pouco aos dados preliminares já divulgados pela equipe da sonda em 2007:

Sonda da Gravidade confirma teoria de Einstein
O previsto era que agora, depois de todas as análises e correções dos dados, a precisão das medições dos efeitos da gravidade alcançassem uma margem de erro de 0,01% - mas os cientistas tiveram que se contentar com imprecisões mais de mil vezes maiores.

Fracasso de um épico

Um fim lamentável para um verdadeiro épico científico, um experimento proposto há mais de 60 anos e que, para se tornar realidade, exigiu esforços de pelo menos duas gerações de cientistas.

Depois de décadas de planejamento e construção, quase US$800 milhões de dólares de gastos, e uma tenacidade e um idealismo dignos dos mais sinceros elogios aos coordenadores científicos da missão, os resultados não somam nada ao que já havia sido medido antes, com instrumentos muito mais baratos.

Foram vários os elementos que contribuíram para o que a NASA chamou de "resultado histórico", mas que a comunidade dos físicos preferiu situar entre um "sucesso relativo" e um "desperdício de recursos" - os mais aguerridos chegaram a falar em "fracasso retumbante".

E o principal desses elementos, aquele que mais contribuiu para opiniões tão díspares, foi justamente aquilo de que os projetistas da sonda mais se orgulhavam: as quatro esferas mais perfeitas já construídas pelo homem.

Esferas e giroscópios

As esferas são o elemento principal dos giroscópios da Gravity Probe B.

Tudo começou em 1960, quando o físico Leonard Schiff propôs que a curvatura do espaço-tempo prevista por Einstein poderia ser verificada com a utilização de giroscópios.

Seguindo apenas as Leis de Newton, um giroscópio em órbita da Terra deveria ficar perfeitamente fixo. Mas se, conforme diz Einstein, o espaço-tempo curva-se pela ação de uma força gravitacional, o giroscópio, devido à sua inércia natural, deveria mover-se com ele.

Os cientistas então construíram a Gravity Probe B, não com um, mas com quatro giroscópios. A sonda também possuía um telescópio precisamente apontado para uma estrela-guia, a IM Pegasi.

Se a teoria de Einstein estivesse correta, ao longo de um ano deveria haver uma pequena modificação entre o alinhamento do telescópio e o alinhamento dos giroscópios, uma vez que o eixo de rotação dos giroscópios, girando livremente, seria influenciado tão-somente pela curvatura do espaço-tempo.

Mas os giroscópios não eram tão perfeitos quanto se imaginava.



As esferas, feitas de silício e recobertas de nióbio, eram fisicamente tão perfeitas que, se fossem ampliadas até terem a dimensão da Terra, não haveria em sua superfície nenhuma saliência maior do que 3 metros de altura - cada esfera mede 3,8 centímetros de diâmetro. [Imagem: NASA/Stanford]
Imperfeições esféricas

As esferas, feitas de silício e recobertas de nióbio, eram fisicamente tão perfeitas que, se fossem ampliadas até terem a dimensão da Terra, não haveria em sua superfície nenhuma saliência maior do que 3 metros de altura - cada esfera mede 3,8 centímetros de diâmetro.

Porém, o ajuste das esferas era feito eletricamente. E, provavelmente devido a impurezas no revestimento de nióbio, elas eram esferas eletricamente não tão perfeitas - se ampliadas até o tamanho da Terra, suas variações elétricas superariam facilmente o Monte Everest.

O tempo dirá

Ao ressaltar a importância da missão e dos seus resultados, durante a conferência da NASA que anunciou as conclusões do estudo, Clifford Will, da Universidade de Washington, afirmou: "Este é um resultado épico. Um dia isto será escrito nos livros-texto como um dos experimentos clássicos na história da física."

Ele provavelmente tem razão.

Por outro lado, nos livros de história da física e da exploração espacial - a Gravity Probe B foi o projeto científico mais longo da era espacial - talvez os autores não sejam tão condescendentes.

Sonda da Nasa confirma teoria de Einstein sobre o espaço-tempo

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=einstein-espaco-tempo&id=010130110506&ebol=sim

Cortina à prova de som absorve ruídos externos e internos

Redação do Site Inovação Tecnológica - 05/05/2011



Coube à designer de tecidos Annette Douglas a escolha das fibras mais adequadas e da técnica de tecelagem capaz de reproduzir o material simulado no computador. [Imagem: EMPA]


Barulho é irritante. Ele interrompe a comunicação, reduz a produtividade dos funcionários e deixa as pessoas cansadas - em casos extremos, o barulho pode até mesmo deixar as pessoas doentes.

Infelizmente, na maior parte das vezes, a distância entre o ruído incessante e a tranquilidade pode ter a espessura de uma parede, devidamente recoberta com superfícies absorvedoras de ondas acústicas.

Mas deixar o barulho do lado de fora de um ambiente agora pode ser tão simples quanto colocar uma cortina - uma cortina de tecido, flexível como as que já são utilizadas em residências e escritórios, e semi-transparente.

Cortina anti-ruído

Engenheiros do laboratório suíço EMPA desenvolveram um novo tecido que é leve, fino e flexível e, mais importante, um absorvedor de som excepcional.

"Os engenheiros de som ficaram atônitos quando viram as leituras que obtivemos com a nova cortina na sala de reverberação. O coeficiente de absorção sonora ficou entre 0,5 e 0,6," conta Kurt Eggenschwiler, chefe da equipe que desenvolveu a cortina à prova de som.

Em outras palavras, a cortina "absorve" cinco vezes mais som do que as barreiras convencionais. "A nova cortina genuinamente absorve som, melhorando notavelmente a acústica da sala - e seu design é de muito alta qualidade," completa Eggenschwiler.

Outra vantagem é que a cortina é translúcida, o que permite seu uso em uma grande variedade de ambientes, de escritórios e auditórios a salas de visita residenciais.



A cortina à prova de som retém os ruídos externos e diminui a reverberação interna, deixando o ambiente mais silencioso e tranquilo. [Imagem: EMPA]
Do computador ao tecido

A cortina anti-ruído veio ao mundo inicialmente em um computador, projetado na forma de um tecido ideal, com uma estrutura capaz de absorver o som.

A seguir, essa receita - um modelo matemático que descreve a estrutura microscópica do material - teve que ser "traduzida" para que o material pudesse ser fabricado na forma de um tecido.

O processo de fabricação teve que ser aprimorado, seguindo-se uma bateria de testes em cada geração de amostra fabricada.

Coube à designer de tecidos Annette Douglas, que foi quem procurou os pesquisadores com a ideia de uma cortina à prova de som, a escolha das fibras mais adequadas e da técnica de tecelagem capaz de reproduzir o material simulado no computador.

A designer também escolheu os elementos necessários para que a cortina tivesse as características anti-chama e translucência, que permitirão seu uso mais disseminado.

fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=cortina-prova-som&id=010160110505&ebol=sim

Papel eletrônico: futuro dos computadores flexíveis?

Redação do Site Inovação Tecnológica - 06/05/2011



O que o pesquisador chama de um "iPhone flexível" é mais um protótipo que demonstra um conceito de interface, que poderia ser chamado de "navegação por dobradura".[Imagem: University of Queens]


"Isto representa o futuro. Tudo será como ele dentro de cinco a 10 anos," entusiasma-se Roel Vertegaal, ao falar da sua criação, que ele batizou de PaperPhone.

Computador flexível

A tecnologia é mais comumente chamada de papel eletrônico, mas Vertegall e seus colegas da Universidade Queens, na Grã-Bretanha, utilizaram-no para construir um pequeno computador, com funções semelhantes à de um smartphone.

O pesquisador, que apresentará sua invenção durante a conferência Computer Human Interaction, em Vancouver, no Canadá, no próximo dia 10 de Maio, afirma que o protótipo, o PaperPhone, é melhor descrito como um iPhone flexível.

"Este computador se parece, se comporta e é operado como uma pequena folha de papel interativo. Você interage com ele dobrando-o na forma de um telefone celular, inclinando seus cantos para virar as páginas, ou escrevendo sobre ele com uma caneta," diz o pesquisador.

Telas flexíveis

A tela, de 9,5 centímetros na diagonal - 4 polegadas -, é fruto da chamada eletrônica orgânica, feita com a tecnologia de filme fino.

As primeiras telas flexíveis e de enrolar chegaram ao mercado em 2007.



Snaplet - Você concorda que este aparelho se parece com um relógio de pulso? [Imagem: University of Queens]
Por outro lado, embora os primeiros circuitos integrados flexíveis já estejam em testes de laboratório, eles ainda não são capazes de sustentar todo o funcionamento de um computador, ou mesmo de um smartphone.

Assim, o que o pesquisador chama de um "iPhone flexível" é mais um protótipo que demonstra um conceito de interface, que poderia ser chamado de "navegação por dobradura", em lugar das muito mais confortáveis e responsivas telas sensíveis do toque - as opções são acionados dobrando-se a tela inteira para baixo ou para cima.

Um conceito interessante, que sofre das dificuldades próprias dos protótipos - o circuito ainda não é tão flexível quanto se poderia esperar. Além disso, o aparelho está mais para um computador rígido com uma tela semi-flexível anexa.

Durante a apresentação, está programada também a demonstração de um "computador semelhante a um relógio de pulso", segundo Vertegaal, chamado Snaplet.


fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=papel-eletronico-futuro-computadores-flexiveis&id=010150110506&ebol=sim

Memória atômica: fóton grava e lê dados em um único átomo

Olivia Meyer-Streng - 04/05/2011



Estes dispositivos são requisitos fundamentais para o processamento de informações em um computador quântico e para a implementação de comunicações quânticas de longa distância. [Imagem: Andreas Neuzner]


Rede quântica universal

Cientistas austríacos alcançaram um feito inédito, ao transferir a informação codificada de um único fóton para um único átomo.

No átomo, a informação foi armazenada durante algum tempo e recuperada mais tarde.

"Isso nos dá um nó de uma rede quântica universal", comemora o Dr. Gerhard Rempe, do Instituto Max-Planck de Óptica Quântica, coordenador do trabalho.

O experimento abre novas perspectivas para o desenvolvimento de redes quânticas escaláveis, nas quais os fótons comunicam informação quântica entre vários nós, a longas distâncias.

Memória quântica

Em uma série de medições usando diferentes estados de polarização na entrada, a fidelidade entre os fótons originais e os fótons lidos mostrou-se superior a 90 por cento em todos os casos.

"A fidelidade com o fóton de entrada que nós conseguimos com o nosso novo método é muito melhor do que aquilo que seria possível com qualquer tipo de dispositivo de medição clássica," afirma Christian Nölleke, coautor do trabalho.

Considerando a eficiência de armazenamento e a fidelidade alcançadas, o sistema é comparável às melhores memórias quânticas já construídas, com a diferença que o seu "hardware" consiste em apenas um único átomo.

Ao mesmo tempo, a memória atômica oferece tempos de armazenamento de cerca de 200 microssegundos, o que ultrapassa todos os valores obtidos com memórias ópticas até o momento.



Esquema mostra o uso de um lasers para aprisionar o átomo-memória e de outro laser de controle para gravar e ler as informações. [Imagem: Specht et al./Nature]
Memória atômica

A miniaturização contínua dos componentes usados para armazenar informações no interior dos chips alcançou um limite a partir de onde as leis da física clássica não podem mais ser aplicadas.

Em vez disso, os sistemas são regidos pelas leis da mecânica quântica.

Neste limite físico, o menor dispositivo de armazenamento possível consiste de um único átomo, enquanto a menor unidade possível para a transferência de dados óptica é um único fóton.

As propriedades especiais dessas partículas quânticas podem então ser usadas para desenvolver novas aplicações, por exemplo, dispositivos de criptografia quântica ou portas lógicas para processar a informação quântica, atingindo velocidades inimagináveis.

A implementação dessas novas tecnologias requer novos conceitos de transferência e armazenamento de informações.

E o candidato mais promissor é a implementação de uma rede de memórias quânticas distribuídas comunicando-se umas com as outras através da troca de fótons.

Informação da luz para a matéria

Este desenvolvimento exige dois elementos principais.

O primeiro, a transferência da informação quântica armazenada em um nó de memória para um único fóton, já foi demonstrado pela mesma equipe, com a implementação de um emissor de fótons individuais baseado em um único átomo.

O segundo, escrever um qubit fotônico em uma outra memória quântica estacionária, e ler esse qubit novamente, sem distorção significativa, tem sido realizado até agora somente através de experiências com conjuntos formados por milhares de partículas, com a informação sendo mapeada em uma excitação atômica compartilhada pelo conjunto de átomos.

Memória óptica armazena e recupera pulsos de luz individuais

A fim de tirar vantagem integral das oportunidades oferecidas pela mecânica quântica, criando implementações práticas - por exemplo, em computadores quânticos - seria muito melhor trocar informações entre as partículas individuais de luz e de matéria - fótons e átomos - que possam ser dirigidas e manipuladas diretamente.



O processo de armazenamento no átomo pode ser descrito como uma deformação (esfera azulada) da esfera de Poincaré (círculos pretos). Os pontos coloridos indicam as polarizações dos estados de entrada sobre os eixos depois da gravação. [Imagem: Specht et al./Nature]
Gravação na memória atômica

No experimento agora realizado, um único átomo de rubídio foi utilizado pela primeira vez como uma memória quântica.

A fim de aumentar seu fraco acoplamento a um único fóton, o átomo é aprisionado dentro de um ressonador óptico, formado por dois espelhos altamente refletores.

Lá, o átomo é mantido no lugar com a luz de um laser, enquanto o fóton que entra é refletido entre os dois espelhos cerca de 20.000 vezes.

Agora, a informação quântica armazenada no fóton precisa ser escrita no átomo.

"Enquanto um bit clássico sempre representa inequivocamente um dentre dois valores possíveis - 0 ou 1 -, um bit quântico é a superposição coerente de dois estados quânticos," explica o Dr. Holger Specht, coautor da pesquisa. "Assim, nós codificamos a informação usando uma superposição coerente de dois estados de polarização do fóton, por exemplo, uma polarização à direita e outra à esquerda."

A transferência da informação óptica quântica é garantida por um laser de controle: quando tanto o qubit fotônico quanto o laser de controle estão presentes, o átomo faz uma transição para um estado que é - e é aí que está o truque - uma superposição coerente de dois sub-estados.

As quantidades relativas dos dois sub-estados correspondem aos respectivos valores dos dois estados de polarização do fóton de entrada.

Leitura da memória atômica

Depois de um tempo variável de armazenamento, a leitura da informação quântica é iniciada, um trabalho também executado pelo laser de controle.

Agora, todo o processo se inverte e o qubit fotônico é liberado, com uma eficiência média de cerca de 10 por cento.

"Ainda há espaço para melhorar os tempos de fidelidade e de armazenamento por meio da otimização das condições experimentais," explica o Dr. Stephan Ritter.

A seguir, os cientistas planejam usar o sistema para demonstrar uma rede quântica básica, formada por dois nós de comunicação.

Devido às suas propriedades universais, a memória quântica agora demonstrada é um marco para o desenvolvimento de portas lógicas ópticas e repetidores quânticos.

Estes dispositivos são requisitos fundamentais para o processamento de informações em um computador quântico e para a implementação de comunicações quânticas de longa distância.

Bibliografia:

A Single-Atom Quantum Memory
Holger P. Specht, Christian Nölleke, Andreas Reiserer, Manuel Uphoff, Eden Figueroa, Stephan Ritter, Gerhard Rempe
Nature
May 2011
Vol.: Advance Online Publication
DOI: 10.1038/nature09997

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=memoria-atomica&id=020110110504&ebol=sim

Código genético do DNA é descrito matematicamente por brasileiros

Com informações do Jornal da Unicamp - 04/05/2011



A descoberta da estrutura matemática do DNA, além de referendar os fatos descritos pela biologia, é altamente promissora para o entendimento de anomalias observadas nos sistemas celulares e mesmo para possibilitar previsões de novas descobertas ainda não observadas em laboratório.[Imagem: Yikrazuul/Wikimedia]


Descrição matemática do DNA

Cientistas brasileiros descobriram que as sequências das moléculas de DNA podem ser reproduzidas através de estruturas matemáticas.

A descrição matemática da estrutura genética deverá ampliar consideravelmente a capacidade de compreensão do funcionamento dos sistemas biológicos - e, eventualmente, as possibilidades de sua manipulação.

Na física e na química, o uso de equações matemáticas para explicar, quantificar e prever a possibilidade de ocorrência de transformações naturais ou provocadas se tornou rotineiro.

Na biologia, porém, esse recurso é bem mais recente e ainda muito restrito. Vários pesquisadores das áreas de teoria e codificação da informação, principalmente nos EUA e da Europa, vinham tentando reproduzir as sequências de DNA através de estruturas matemáticas.

A primazia do feito, contudo, coube a um grupo de pesquisadores da Universidade Estadual de Campinas (Unicamp) e da Universidade de São Paulo (USP).

Código de correção de erros

Os cientistas brasileiros estabeleceram uma relação matemática entre um código numérico e a sequência do DNA, o ácido desoxirribonucléico, portador dos genes dentro das células.

O código numérico é similar ao usado para correção de erros em programas de computador.

De forma geral, os códigos de correção de erros estão presentes na comunicação via satélite, nas comunicações internas de um computador e no armazenamento de dados - portanto, fazem parte do cotidiano de todos que usam a internet, celulares, TVs, CDs, pen-drives etc.

A utilização destes códigos tem como objetivo a correção de erros que ocorrem durante a transmissão ou o armazenamento da informação.

A associação dos códigos corretores de erros com sequências de DNA constitui objeto de pesquisa desde os anos 80.

O grupo brasileiro estabeleceu essa relação com diferentes sequências de DNA que constituem o genoma (exons, íntrons, DNA repetitivo, sequência de direcionamento, proteínas, hormônios, gene, etc) até chegarem na reprodução do genoma completo de um plasmídeo.

DNA mitocondrial

As mitocôndrias, organelas responsáveis pela respiração celular, apesar de conterem o seu próprio DNA e toda maquinaria necessária para fabricar proteínas, sintetizam somente um pequeno número dessas proteínas.

A grande maioria das proteínas mitocondriais é codificada por genes que ficam no núcleo das células, sintetizadas no citosol e posteriormente enviadas para as mitocôndrias.

Neste caso, a proteína é considerada como a informação que será enviada para a organela, existindo um código padrão para transmiti-la.

Durante o estudo, os pesquisadores brasileiros mostraram que o modelo que empregaram se ajusta a diferentes sequências de DNA.

Essa modelagem, além de referendar os fatos descritos pela biologia, mostra-se altamente promissora para o entendimento de anomalias observadas nos sistemas celulares e mesmo para possibilitar previsões de novas descobertas ainda não observadas em laboratório.



A modelagem matemática do código genético do DNA pode possibilitar a descoberta de curas de doenças de forma mais rápida do que é possível hoje. [Imagem: Bbkkk/Wikimedia]
Grupo interdisciplinar

A complexidade do assunto, e a interface com outras áreas do conhecimento, exigiu a formação de um grupo interdisciplinar para levar a pesquisa adiante.

A possibilidade de utilização de um código matemático que transcrevesse a sequência de DNA foi proposta pelo professor Reginaldo Palazzo Júnior, da Unicamp, a duas de suas alunas de doutorado: Andréa Santos Leite da Rocha e Luzinete Cristina Bonani de Faria, ambas graduadas em matemática pela PUC-Campinas.

Elas se propuseram inicialmente a estudar o transporte das proteínas mitocondriais.

O grupo interdisciplinar se consolidou com a colaboração do professor Márcio de Castro Silva Filho, geneticista especializado em transporte de proteínas, da Escola Superior de Agronomia Luiz de Queiroz (Esalq) da USP, e do engenheiro de computação João Henrique Kleinschmidt, professor da Universidade Federal do ABC, em Santo André.

Reginaldo Palazzo, ele próprio vindo da engenharia elétrica, é especialista na chamada teoria matemática da comunicação, área de estudo da transmissão de todo o tipo de informação e de seus códigos.

Código genético matemático

Iniciou-se então a abordagem para descrever uma estrutura matemática nas sequências de DNA.

A modelagem matemática que se mostrou adequada foi aplicada tanto em sequências de DNA de fungos, vírus, plantas, bactérias e humanos, quanto no gene "TRAV7" do Homo sapiens e no genoma do plasmídeo (DNA extra-cromossomais) da bactéria Lactococcus lactis, verificando que a maioria destas sequências foi geradas por um código matemático.

O feito dos pesquisadores brasileiros apresenta uma solução importante e inovadora para a biologia, permitindo que os fenômenos possam passar a ser analisados por métodos quantitativos.

Palazzo considera que essa nova fase exigirá maior diálogo entre biólogos, matemáticos e engenheiros eletrônicos e afirma estar plenamente convencido de que a teoria da informação constitui uma ferramenta adequada para o intercâmbio com a biologia molecular.

Ele reconhece que essa interdisciplinaridade ainda está distante, embora a seu ver o grupo tenha dado um grande passo inicial.

Resultados concretos

A linha de pesquisa orientada por Palazzo desenvolve programas computacionais para a geração, classificação e análise mutacional e de polimorfismos em sequências de DNA.

A pesquisa abre a possibilidade, a partir de um código e de uma solução matemática, de corrigir uma mutação ou um erro celular, de produzir proteínas desejadas e também de encontrar proteínas ainda desconhecidas existentes nas células.

Em decorrência, o método pode ser aplicado em projetos e pesquisas com a finalidade de criar novas funções para determinada sequência de DNA através de mutações segundo as necessidades comerciais e científicas, afirmam Andréa e Luzinete.

Essa modelagem matemática, afirma o professor Palazzo, que permite caracterizar um sistema biológico, pode possibilitar, através de um programa computacional, a realização de análises que levem a resultados concretos.

Hoje, a pesquisa na área da saúde é, em geral, demorada e dispendiosa. E, mesmo assim, não raro, depois de um longo tempo, não se conseguem resultados positivos.

Com a utilização de um software, a caracterização e a simulação do que se pretende pode ser realizada previamente no computador.

As previsões teóricas poderão ser testadas em laboratório de uma forma sistemática e eficaz, tornando os resultados muito mais confiáveis. A modelagem matemática pode possibilitar a cura de uma doença de forma mais rápida, segundo o pesquisador.

Biologia matemática

Para o professor, a teoria se mostrou válida para certos fatos concretos, mas admite que ainda há muito a ser feito.

Ele considera que a linha adotada está sendo delineada e lembra que alguns pesquisadores chegam a afirmar que não existe uma estrutura matemática que possa ser associada a sequências de DNA. "Nós estamos mostrando que existe", afirma o docente.

Ele insiste que o processo adotado efetivamente inova na modelagem em relação aos trabalhos propostos anteriormente e revela-se bastante coerente e consistente com o modelo biológico vigente.

Os pesquisadores consideram que, por tratar-se de uma proposta nova, que se insere numa área estratégica de pesquisa e de inovação tecnológica e, mais, que a detenção do conhecimento necessário se resume a poucos pesquisadores, é imprescindível que esforços sejam despendidos na formação de recursos humanos para o estabelecimento de uma massa crítica de especialistas na área.

Para isso, consideram fundamental o respaldo institucional quanto ao reconhecimento da relevância em prover uma infraestrutura de pesquisa bem como no estabelecimento de um programa de pós-graduação na área.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=codigo-genetico-dna-descrito-matematicamente&id=010150110504&ebol=sim

quinta-feira, 5 de maio de 2011

Aprenda a criar senhas fortes e proteja suas contas dos cibercriminosos

Por PC World/US
Publicada em 05 de maio de 2011 às 09h00

Maioria dos usuários usa o mesmo código para diversos serviços e não é criativa na hora de criá-lo. Aprenda truques para não cair nesse erro.

A senha de sua conta de e-mail é a última linha de defesa que você tem em se tratando de privacidade; se um usuário inescrupuloso desvendá-la, ele poderá alterar seus códigos para redes sociais, portais de comércio eletrônico ou até do internet banking, a partir da opção “esqueci minha senha”.

É tentador utilizar o mesmo segredo para todas suas contas, mas, dessa forma, a vulnerabilidade online aumenta consideravelmente. Quando ela é descoberta, tudo o que você tem na Web fica aberto ao invasor. Dado os recentes acontecimentos, como a invasão da rede PSN, esta talvez seja a hora de aprimorar sua segurança, garantindo que cada uma de suas senhas sejam únicas e eficazes.

Existem alguns bons programas para organizar o possível caos, como o KeePass, que criptografa todos os seus códigos e os armazena em uma base de dados a qual só você tem acesso – a partir de uma chave-mestra. Outra opção é o LastPass, que funciona como uma extensão para o browser – roda nos mais populares – e ainda sincroniza seus códigos entre os vários computadores em que estiver instalado. O problema, lógico, é que a nuvem pode não ser tão confiável quanto um pen drive – devidamente protegido – que sempre está contigo.

Usar um gerenciador de senhas é uma ótima forma de melhorar sua segurança online, mas não é um modelo perfeito. A muralha praticamente intransponível é um código que você nunca guarda em um papel, em um HD ou na nuvem, uma sequência de letras, números e símbolos que mesmo você não sabe ao certo até ter de escrevê-la. Isso, a princípio, pode parecer confuso, fora de alcance, mas, com alguns truques mnemônicos, tudo fica mais fácil.

Uma senha acima de todas
Na verdade, é muito fácil criar uma senha forte; basta seguir certas regras. Antes de mais nada, precisamos de uma base: uma mistura de letras maiúsculas e minúsculas, números e até sinais gráficos para complicar um poucos as coisas. Escolha uma frase fácil de lembrar e sinta-se livre para ser tão criativo quanto consiga. Pelo bem da simplicidade – e da didática – irei com um dos meus pratos favoritos: chicken adobo (frango adobo).

Certifique-se de que sua “palavra código” (passphrase) tenha ao menos oito caracteres e evite tópicos obviamente memoráveis como nomes próprios, datas de aniversários e cidades natal. Também é interessante evitar o uso de uma única palavra e a troca de alguns dos caracteres por símbolos – as ferramentas dos hackers são sofisticadas o suficiente para superar esse truque. Prefira uma frase secreta – várias palavras colocadas juntas – em vez de uma senha; isso torna mais difícil o trabalho dos hackers para descobrir seu código ao tentar todas as palavras do dicionário.

Agora que escolheu uma palavra código, você precisa colocar essa frase em uma única corrente (como chickenadobo), e então coloque algumas letras maiúsculas fáceis de lembrar (ChickenAdobo). Depois, apimente mais a base do seu código com alguns caracteres aleatórios para manter as coisas interessantes (Ch!cken@dob0).

Depois de definir seu código base, é preciso memorizá-lo e usá-lo como uma chave mestra que vai destravar sua conta em qualquer site desde que você se mantenha firme a algumas regras simples. Para criar a senha mais forte possível, vamos inventar um padrão de nomeação fácil de guardar para gerar uma senha única para todos os seus cadastros.

Por exemplo, vamos dizer que decidi usar sempre a primeira e quarta letra do nome de domínio no meio da minha passphrase, deixando a primeira maiúscula e a última minúscula. Isso significa que minha senha única no Facebbok seria “Ch!ckenFe@dob0”, enquanto minha conta no Hotmail exigiria a senha “Ch!ckenHo@dob0”.

Vê o padrão? Invente algo parecido e terá uma senha única alfanumérica para todo site. Uma que é fácil de lembrar, mas quase impossível para os hackers descobrirem. Nenhuma senha é perfeita, mas ter sua própria frase única e alguns truques mnemônicos já é um grande passo para manter sua privacidade online intacta.

(Alex Wawro)

Fonte:http://idgnow.uol.com.br/seguranca/2011/05/04/aprenda-a-criar-senhas-fortes-e-proteja-suas-contas-dos-cibercriminosos/

FORMAÇÃO DE PROFESSORES

Fonte: Mozart Neves Ramos(*), Correio Braziliense de 02.04.2011

Nos últimos 20 anos, tive a oportunidade, na condição de gestor público, de viver os dois lados da moeda, o da educação básica e o do ensino superior. Hoje, não tenho dúvidas em afirmar que o maior desafio da educação brasileira está na valorização da carreira do magistério.

A larga maioria dos jovens que termina o ensino médio não deseja ser professor, seja pela baixa remuneração (um professor no Brasil ganha 40% a menos - segundo estudo de Fabiana Felício, com base na Pnad 2009 - do que a média de outros profissionais com o mesmo nível de escolaridade), seja pelas difíceis condições de trabalho. Em áreas como química, física e matemática, estamos vivendo (e não é de agora) um apagão de mão de obra qualificada. E o pior, a formação inicial dada pelas nossas universidades deixa muito a desejar em relação às necessidades atuais da escola pública, conforme revelou pesquisa da educadora Bernadete Gatti para a Fundação Victor Civita.

É incontestável, por seu lado, a importante contribuição que a universidade brasileira vem dando ao desenvolvimento científico e tecnológico do país, tanto na formação de recursos humanos (a título de exemplo, na pós-graduação, o Brasil forma hoje 12 mil doutores), quanto na produção de novos conhecimentos, o que o coloca na 13ª posição do ranking mundial da produção científica. Para chegar a esse patamar foi preciso grande esforço da comunidade científica, aliado a políticas públicas arrojadas e exitosas. A indução na direção do fortalecimento da pós-graduação e da pesquisa, em especial nos últimos 15 anos, foi notória. Mas essa estratégia fez com que a universidade se distanciasse da escola pública. E, assim, seus professores pouco ou nada conhecem da realidade dessa escola pública.

Na verdade, a educação básica deixou de ser prioridade para a universidade brasileira. O Ministério da Educação vem procurando reverter esse quadro. Um exemplo desse esforço é a criação do Programa de Apoio a Planos de Reestruturação e Expansão das Universidades Federais (Reuni), com foco na formação de professores. Na mesma linha, houve a implantação da Universidade Aberta do Brasil (UAB) e da Plataforma Freire vinculada à Coordenação de Aperfeiçoamento de Pessoal de Ensino Superior (Capes), que agora possui uma diretoria só para cuidar da formação de professores.

Mas o problema é que esse distanciamento produziu falta de vocação da universidade para formar professores destinados às salas de aula. Além disso, o tempo da maioria dos professores de nossas universidades está comprometido com as atividades de ensino e pesquisa, sem falar naquele dedicado à burocracia.

No que concerne à educação básica, sem um salário inicial atraente e um plano de carreira que valorize a profissão em função de seu desempenho e de seu esforço na formação continuada, o país não conseguirá atrair os jovens mais talentosos do ensino médio para a carreira do magistério.

Enquanto esperamos a implantação plena da lei do piso salarial para o professor no Brasil, o que vai representar instrumento importante para a questão da atratividade docente, a universidade poderia repensar seu papel formador. Felizmente, ainda existem alguns poucos professores nas universidades que continuam se dedicando, de fato, ao cotidiano da escola pública, mas que estão dispersos nos vários departamentos e institutos que cuidam dos bacharelados (e também das licenciaturas). Esses heróis da resistência podem ser o início da retomada da universidade para recolocar a escola pública no plano de prioridade que ela merece.

O ponto de partida seria criar um instituto, em cada uma das universidades, com forte característica interdisciplinar, em que os docentes universitários estariam dedicados exclusivamente à formação de professores para a sala de aula. A esses se juntariam os melhores professores da educação básica, que dedicariam parte de sua carga horária de trabalho ao instituto e funcionariam como espécie de professores colaboradores.

Esse novo instituto, dentro da universidade, teria, assim, "cheiro de escola". Formularia um novo currículo com cara e jeito de escola; novos incentivos, por meio do Capes, poderiam ser dados aos professores envolvidos, que teriam como maior compromisso resgatar a escola pública para dentro da universidade - produzindo experiências inovadoras e de baixo custo para serem disseminadas nas redes de ensino.

Se quisermos, de fato, dar o salto de qualidade na educação básica que o país precisa e merece, não podemos apenas ficar no reconhecimento de nossos acertos. É preciso também ter a humildade de reconhecer nossos limites e falhas, e fazer, assim, a eventual correção de rumo. E a formação de professores para enfrentar as salas de aula do ensino público é uma dessas necessárias correções.

(*)Mozart Neves Ramos é do Conselheiro do Todos Pela Educação, membro do Conselho Nacional de Educação (CNE) e professor da Universidade Federal de Pernambuco (UFPE)

Fonte:http://www.sbpcpe.org/index.php?dt=2011_05_06&pagina=noticias&id=06411

"Facebook é uma terrível máquina de espionagem", diz criador do Wikileaks

Segundo Julian Assange, a popular rede social colabora com o governo dos Estados Unidos na captura de dados sigilosos.

Julian Assange, o criador do polêmico site Wikileaks, especializado em vazar dados sigilosos de vários governos, afirma que o Facebook colabora com o governo dos Estados Unidos para espionar os cidadãos. Segundo, ele a popular rede social é simplesmente “a mais terrível máquina de espionagem já criada”.

O comentário foi feito durante uma entrevista ao Russia Today, publicada ontem (2/5). No momento, o polêmico fundador do Wikileaks está na Inglaterra, onde aguarda extradição, por conta de acusações de crime sexual.

Segundo ele, o Facebook e outros sites colaboram com o governo dos Estados Unidos em investigações ilegais, fornecendo dados como nomes, endereços, redes de relacionamentos e mensagens trocadas entre as pessoas

“Eles criaram uma interface para o uso do departamento de inteligência dos Estados Unidos”, acusa. "Todos precisam entender que, quando adicionam um amigo no Facebook, estão fazendo um trabalho gratuito para agências de inteligência norte-americanas”, completa.

A ideia de que o Facebook pode ser usado para espionar os usuários não é nova. Tanto que o próprio Departamento de Justiça dos EUA já treina seus funcionários para utilizar a rede social como uma ferramenta para conseguir evidências contra suspeitos.

De acordo com um porta-voz da companhia, Andrew Noyes, o Facebook não responde a pressões do governo. “Apenas respondemos a solicitações de processos na Justiça”, disse ele, em e-mail enviado à PC World norte-americana

Ed Oswald

Fonte:http://idgnow.uol.com.br/seguranca/2011/05/03/facebook-e-uma-terrivel-maquina-de-espionagem-diz-criador-do-wikileaks/

terça-feira, 3 de maio de 2011

Gestão de pessoas é prioridade para 83% dos presidentes de empresas

Estudo aponta que, na América Latina, 80% dos executivos devem criar ações que não estejam relacionadas à remuneração para reter talentos

Qual a prioridade dos principais executivos das organizações de todo o mundo? A gestão de pessoas, de acordo com um estudo recém-divulgado pela consultoria PricewaterhouseCoopers (PwC) e que ouviu 1,2 mil CEOs.

Segundo o levantamento, cerca de 83% dos executivos consultados planejam mudar sua atual estratégia para gestão de profissionais nos próximos 12 meses. Na sequência, na lista de prioridades desses executivos, aparece a necessidade de gerenciar riscos e investimentos para, respectivamente, 77% e 76% dos entrevistados.

A PwC destaca que, no mesmo estudo realizado há um ano, a gestão de riscos era a prioridade número um para os CEOs, citada por 84% dos profissionais, seguida pelos investimentos (81%) e gerenciamento de talentos (79%).

“Os CEOs estão colocando muito foco nas pessoas. A competição por talentos está aumentando por conta do aumento da contratação em alguns setores e pelo aumento da dificuldade para encontrar pessoas com os conhecimentos adequados para preencher uma vaga”, afirma o responsável pela prática de Recursos Humanos da PwC, Michael Rendell, no comunicado oficial sobre o estudo.

O levantamento aponta que, para reverter esse cenário, a maioria dos CEOs (65%) pretende motivar os funcionários com ações que não impliquem em remuneração financeira. Quando considerados apenas os entrevistados da América Latina, esse percentual salta para 80%.

Já sobre as principais barreiras para gestão de talentos, 66% dos executivos consideram que a falta de mão de obra qualificada representa o maior desafio para contratar e reter profissionais. Como reflexo direto, 54% dos CEOs pretendem recrutar jovens, com o intuito de capacitá-los internamente.

Fonte:http://olhardigital.uol.com.br/negocios/digital_news/noticias/gestao_de_pessoas_e_prioridade_para_83_dos_presidentes_de_empresas

Programa permite que usuário realize tarefas simples com a força do pensamento



Protótipo permite que pessoas com mobilidade reduzida realizem funções como acender a luz ou fazer uma ligação com a mente

Uma equipe de pesquisadores de Auckland, Nova Zelândia, está desenvolvendo uma nova tecnologia que permite que o usuário realize tarefas apenas com a força do pensamento. Batizado de Neuro-Operated Utility System (NOUS), o sistema é integrado com o computador e utiliza um headset com 14 sensores neurológicos Emotiv EPOC para que o usuário possa realizar funções como acender luzes, fechar cortinas ou fazer ligações telefônicas.

Após colocar o headset, o sistema se adapta ao padrão de ondas cerebrais do usuário e passa a traduzi-los em comandos para o computador. Desta forma, o usuário pode operar a máquina utilizando apenas seu padrão neural, navegando no computador e acionando dispositivos ligados a ele.

O sistema deve custar cerca de US$ 300 e é mais barato que outras tecnologias, como a de rastreamento de olhos. Além disso, o uso do sistema pode complementar facilidades já existentes, como os comandos de voz.

No vídeo é possível ver um conceito de como o NOUS funciona.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/programa_permite_que_usuario_realize_tarefas_simples_com_o_pensamento

TIM anuncia lucro 291% maior no trimestre



A operadora contabilizou uma receita bruta de R$ 5,4 bilhões, com crescimento de 32% no faturamento com dados

Ao divulgar os resultados do primeiro trimestre de 2011, a operadora TIM reportou um lucro líquido de R$ 213,5 milhões, o que representa um ganho de 291%, quando comparado aos primeiros três meses do ano anterior. Já a receita bruta da operadora de telefonia móvel brasileira totalizou R$ 5,4 bilhões, com crescimento de 17,3%, em relação ao mesmo trimestre de 2010.

Entre as áreas que mais cresceram em termos de faturamento para a companhia, a receita com dados teve um incremento de 32% no trimestre (na comparação ano a ano), totalizando R$ 640 milhões. Contudo, os serviços de voz concentraram a maior parcela das receitas da operadora, sendo que as ligações locais contribuíram com R$ 2,37 bilhões (crescimento de 16,3%) e as de longa distância foram responsáveis por R$ 690 milhões, com acréscimo de 21% sobre o primeiro trimestre do ano anterior.

Em relação ao número de assinantes, a TIM contabilizou 1,8 milhão de novos clientes no primeiro trimestre, totalizando 52,7 milhões de usuários (44 milhões pré-pagos e 17,7 milhões pós-pagos), o que representa uma adição de 45% de usuários em relação a janeiro a março de 2010. A operadora concentra hoje 25,1% de participação no mercado brasileiro de telefonia móvel.

“Este foi o melhor primeiro trimestre registrado em toda a história da TIM Brasil”, afirma o presidente da operadora, Luca Luciani. Ele destaca que, no período, a empresa quadruplicou as vendas de smartphones, atingindo 900 mil unidades.

Fonte:http://olhardigital.uol.com.br/negocios/digital_news/noticias/tim_anuncia_lucro_291_maior_no_trimestre

Estariam os cientistas a um passo de dominar a antigravidade?

Alguns pesquisadores estão otimistas e afirmam: em breve, seria possível criar veículos flutuantes


Pesquisadores da Organização Europeia para a Investigação Nuclear (CERN), na Suécia, anunciaram na última segunda-feira (02/05) que conseguiram prender 309 átomos de antihidrogênio por cerca de 15 minutos - um recorde, levando em consideração que, até então, os cientistas só haviam conseguido prender 38 antiátomos por 172 milissegundos.

O anúncio pode parecer conversa de maluco para nós, mas indica um grande avanço nos estudos científicos de antimatéria. Isso significa que, a partir dessas conclusões, seria possível trabalhar com a antigravidade e permitir até mesmo a construção daqueles veículos flutuantes, como o Hoverboard (direita), skate do personagem Marty McFly no filme de ficção científica De Volta Para o Futuro 2. Todo mundo já sonhou com um destes, não é mesmo?

Na física, a anti-matéria seria o mesmo que uma matéria, mas com a diferença de possuir átomos com polaridade inversa. Enquanto um átomo é composto por elétrons e prótons, o antiátomo seria composto por pósitrons e antiprótons, o que o faria flutuar. Muitos cientistas são céticos com relação à antimatéria e dizem que ela não é possível. Será que esta descoberta é o início de uma revolução?

Fonte:http://olhardigital.uol.com.br/jovem/digital_news/noticias/cientistas_estao_a_um_passo_de_dominar_a_antigravidade

5 passos para deixar seu novo PC ainda melhor

Jason Cross, PCWorld EUA
03-05-2011
Comprou um micro novinho em folha? Veja como se livrar do “lixo” de fábrica, instalar seus aplicativos favoritos e ter certeza de que seus arquivos importantes estão no lugar


É uma delícia comprar um computador novo. Assim que a caixa chega em casa a primeira coisa que dá vontade de fazer é rasgar a embalagem, montar a máquina e ver do que ela é capaz.

Mas antes disso o melhor a fazer é parar, respirar fundo e dedicar um tempinho à preparação, que pode fazer um mundo de diferença no desempenho e estabilidade da nova máquina e até na sua sanidade. Além do mais, há arquivos no PC velho que precisam ser transferidos para o novo, e esta é uma tarefa que não deve ser deixada para depois.

Leia também:
» Veja o que não pode faltar em um novo notebook

1. Transfira os arquivos do PC velho para o novo.

Se você ainda não tiver, compre um HD externo (eles são baratos atualmente). Como alternativa você pode gravar uma pilha de DVDs, mas isso não é nada prático. Plugue o HD ao seu velho computador, crie uma pasta chamada “Backup do PC Velho” e comece a copiar os arquivos e pastas pra lá.

Copie suas músicas, fotos e vídeos: Fotos e vídeos de família perdidos nunca poderão ser substituídos. Estes são seus megabytes mais preciosos.

Em seguida, copie os seus documentos: Se você é organizado e grava tudo dentro da pasta “Meus Documentos” o trabalho é fácil, basta copiar a pasta inteira. Se não, terá que caçar todos os arquivos espalhados pelo PC para copiá-los para seu HD externo.

Não se esqueça dos favoritos: Abra o navegador, acesse o gerenciador de favoritos, exporte-os para um arquivo e copie este arquivo para o HD. Ou melhor ainda, instale uma extensão para sincronia de favoritos como a Xmarks ou habilite este recurso no Google Chrome (Clique no ícone da Chave Inglesa / Opções / Coisas Pessoais / Sincronização). Faça a mesma coisa no PC novo. Assim você terá backup online automático de seus favoritos e poderá manter o mesmo conjunto em vários navegadores.

Atenção com as licenças de software: Abra quaisquer softwares que exijam ativação e desative ou desautorize o seu micro velho. Photoshop e iTunes são dois exemplos.

Cuide do resto: Antes de desconectar o HD externo e desligar seu velho PC, pense em outros tipos de arquivos que deseja manter, como saves de jogos, por exemplo. Copie-os para o HD.

Quando você tiver certeza absoluta de que copiou todos os arquivos importantes para o HD externo, poderá desligar seu PC velho para sempre, plugar o HD no micro novo e transferir os arquivos para seus respectivos locais.

Fazer essa cópia manual de arquivos pode parecer algo lento e tedioso, mas tem o benefício de lhe dar um belo backup de todos os seus arquivos importantes, prontos para serem restaurados caso seu computador sofra uma pane catastrófica, seja perdido ou roubado. Basta manter o HD com os arquivos em um lugar seguro e usá-lo quando precisar.

2. Livre-se do lixo

Infelizmente os fabricantes de PCs ainda insistem em colocar no mercado máquinas com montes de “lixo” pré-instalado, como versões de demonstração de aplicativos e painéis de controle que mais atrapalham do que ajudam. Alguns destes programas são apenas um incômodo, enquanto outros podem reduzir o desempenho do computador.

Não existe uma forma única de saber o que você deve remover e o que não deve. Você pode começar indo a Iniciar / Painel de Controle / Programas / Desinstalar um Programa. Role a lista e remova quaisquer programas que você não vá usar, como visualizadores de imagens, media players, versões de demonstração de anti-vírus, barras de ferramentas... use seu bom-senso. Se você não tem certeza quanto à utilidade de um programa anote o nome, faça uma pesquisa na internet sobre ele e volte mais tarde.

Muitos PCs vem com software que atualiza automaticamente os drivers e utilitários do fabricante. Recomendo que você deixe estes programas intactos, embora talvez seja recomendável ajustar suas configurações para que procurem por atualizações com menos frequência. Manter os drivers atualizados é importante para se certificar de que seu PC continue funcionando bem.

Existem ferramentas que automatizam o processo. O freeware SlimComputer varre o seu PC e dá sugestões sobre o que pode ser desinstalado com segurança ou removido da inicialização do PC, e pode fazer o serviço para você em poucos cliques. Um utilitário mais simples e direto é o PC Decrapifier, em cujo site o autor mantém uma lista com os programas que podem ser removidos automaticamente.

3. Atualize os drivers e software de sistema

Se seu PC não veio com uma ferramenta para atualização automática de drivers e outros softwares importantes, vá ao site do fabricante e procure o nome do seu modelo na seção “Suporte”. É de se esperar que um computador novinho em folha venha com as versões mais recentes dos drivers, BIOS e componentes do sistema, mas isso nem sempre acontece. Manter estes itens atualizados pode melhorar a estabilidade e confiabilidade de seu PC, então não ignore este passo só porque as coisas parecem estar funcionando direito.

A seção de suporte no site do fabricante de seu PC pode ter os mais novos drivers para a maioria dos componentes, mas os drivers da placa de vídeo provavelmente estarão desatualizados. Se seu computador tem uma placa de vídeo da Nvidia os drivers estão aqui, basta indicar o modelo de sua placa de vídeo e o sistema operacional (ou deixar o site detectar automaticamente). Se a placa é da AMD/ATI, baixe a versão mais recente do pacote de drivers Catalyst.

Aproveite também para atualizar o Windows usando o Windows Update (Iniciar / Painel de Controle / Sistema e Segurança / Windows Update). Instale todas as atualizações importantes. Isso pode significar o download de várias centenas de MB, é melhor fazer isso em uma conexão de banda larga durante a noite.

Certifique-se também de que o computador está configurado para receber atualizações automaticamente: na janela do Windows Update clique no item Alterar Configurações na lateral esquerda e sob Atualizações importantes escolha o item Instalar atualizações automaticamente (recomendado) e clique em OK.

4. Faça o ajuste fino

Esta também é uma boa hora para fazer alguns ajustes no Windows. Se você quiser modificar a frequência com que recebe os alertas do Controle de Conta do Usuário (UAC, aquela janela que pede confirmação quando um aplicativo tenta fazer alguma coisa) vá até o Painel de Controle, clique em Contas de Usuário e em Alterar configuração de Controle de Conta do Usuário. Mas sugiro que não desabilite completamente este aviso.

Uma coisa que me incomoda muito é a insistência da Microsoft em ocultar as extensões de arquivos por padrão, como se nossos cérebros fossem incapazes de compreender o que significa o .jpg, .doc ou .mp3 no fim do nome de um arquivo. Para corrigir isso abra o Windows Explorer, clique no menu Organizar no canto superior esquerdo da janela e escolha o item Opções de pasta e pesquisa. Vá até a aba Modo de Exibição e desmarque a caixa que diz Ocultar as extensões dos tipos de arquivo conhecidos.

5. Instale programas do jeito fácil

Você já copiou os arquivos que estavam no PC velho, se livrou do lixo que veio pré-instalado no micro novo e atualizou os drivers e o sistema operacional. Agora vem a parte boa: é hora de colocar software novinho em folha em seu novo PC.

E para isso não há nada melhor que o Ninite, uma ferramenta gratuita que pode ser usada para instalar vários programas de uma vez só de forma automática, sem intervenção do usuário. Basta visitar o site ninite.com e marcar os programas que deseja instalar. Minha lista pessoal inclui o Chrome, Dropbox, Evernote, Firefox, Flash, iTunes, K-Lite COdecs, Microsoft Security Essentials, Silverlight, Skype, Steam, uTorrent, VLC, .NET e 7-Zip.

Depois de escolher clique no botão Get Installer no rodapé da página e o site irá lhe enviar um pequeno executável que vai baixar todos os aplicativos de seus servidores oficiais e instalá-los com a configuração padrão, de uma vez só. O Ninite não instala barras de ferramentas para o navegador e outros tipos de “lixo” comumente associados a alguns programas, e é esperto o suficiente para baixar as versões para 64-Bits dos programas se seu PC estiver rodando uma versão de 64-Bits do Windows.

O Ninite é ótimo mas não é perfeito, e você ainda terá de instalar manualmente software que não esteja na lista do site, além de quaisquer outros programas que você tenha comprado nos últimos tempos, como jogos e anti-vírus, bem como extensões para seu navegador favorito.

Todo o processo de preparar seu novo computador, mesmo usando ferramentas como o PC Decrapifier e o Ninite, pode levar algumas horas. E fazer isso quando o que você realmente quer é brincar com seu novo “brinquedo” pode ser difícil. Ainda assim, aconselho que você seja paciente e siga os passos acima, já que eles podem evitar muitas outras horas de dores-de-cabeça no futuro.

Fonte:http://pcworld.uol.com.br/dicas/2011/05/03/5-passos-para-deixar-seu-novo-pc-ainda-melhor/

5 passos para deixar seu novo PC ainda melhor

Jason Cross, PCWorld EUA
03-05-2011
Comprou um micro novinho em folha? Veja como se livrar do “lixo” de fábrica, instalar seus aplicativos favoritos e ter certeza de que seus arquivos importantes estão no lugar


É uma delícia comprar um computador novo. Assim que a caixa chega em casa a primeira coisa que dá vontade de fazer é rasgar a embalagem, montar a máquina e ver do que ela é capaz.

Mas antes disso o melhor a fazer é parar, respirar fundo e dedicar um tempinho à preparação, que pode fazer um mundo de diferença no desempenho e estabilidade da nova máquina e até na sua sanidade. Além do mais, há arquivos no PC velho que precisam ser transferidos para o novo, e esta é uma tarefa que não deve ser deixada para depois.

Leia também:
» Veja o que não pode faltar em um novo notebook

1. Transfira os arquivos do PC velho para o novo.

Se você ainda não tiver, compre um HD externo (eles são baratos atualmente). Como alternativa você pode gravar uma pilha de DVDs, mas isso não é nada prático. Plugue o HD ao seu velho computador, crie uma pasta chamada “Backup do PC Velho” e comece a copiar os arquivos e pastas pra lá.

Copie suas músicas, fotos e vídeos: Fotos e vídeos de família perdidos nunca poderão ser substituídos. Estes são seus megabytes mais preciosos.

Em seguida, copie os seus documentos: Se você é organizado e grava tudo dentro da pasta “Meus Documentos” o trabalho é fácil, basta copiar a pasta inteira. Se não, terá que caçar todos os arquivos espalhados pelo PC para copiá-los para seu HD externo.

Não se esqueça dos favoritos: Abra o navegador, acesse o gerenciador de favoritos, exporte-os para um arquivo e copie este arquivo para o HD. Ou melhor ainda, instale uma extensão para sincronia de favoritos como a Xmarks ou habilite este recurso no Google Chrome (Clique no ícone da Chave Inglesa / Opções / Coisas Pessoais / Sincronização). Faça a mesma coisa no PC novo. Assim você terá backup online automático de seus favoritos e poderá manter o mesmo conjunto em vários navegadores.

Atenção com as licenças de software: Abra quaisquer softwares que exijam ativação e desative ou desautorize o seu micro velho. Photoshop e iTunes são dois exemplos.

Cuide do resto: Antes de desconectar o HD externo e desligar seu velho PC, pense em outros tipos de arquivos que deseja manter, como saves de jogos, por exemplo. Copie-os para o HD.

Quando você tiver certeza absoluta de que copiou todos os arquivos importantes para o HD externo, poderá desligar seu PC velho para sempre, plugar o HD no micro novo e transferir os arquivos para seus respectivos locais.

Fazer essa cópia manual de arquivos pode parecer algo lento e tedioso, mas tem o benefício de lhe dar um belo backup de todos os seus arquivos importantes, prontos para serem restaurados caso seu computador sofra uma pane catastrófica, seja perdido ou roubado. Basta manter o HD com os arquivos em um lugar seguro e usá-lo quando precisar.

2. Livre-se do lixo

Infelizmente os fabricantes de PCs ainda insistem em colocar no mercado máquinas com montes de “lixo” pré-instalado, como versões de demonstração de aplicativos e painéis de controle que mais atrapalham do que ajudam. Alguns destes programas são apenas um incômodo, enquanto outros podem reduzir o desempenho do computador.

Não existe uma forma única de saber o que você deve remover e o que não deve. Você pode começar indo a Iniciar / Painel de Controle / Programas / Desinstalar um Programa. Role a lista e remova quaisquer programas que você não vá usar, como visualizadores de imagens, media players, versões de demonstração de anti-vírus, barras de ferramentas... use seu bom-senso. Se você não tem certeza quanto à utilidade de um programa anote o nome, faça uma pesquisa na internet sobre ele e volte mais tarde.

Muitos PCs vem com software que atualiza automaticamente os drivers e utilitários do fabricante. Recomendo que você deixe estes programas intactos, embora talvez seja recomendável ajustar suas configurações para que procurem por atualizações com menos frequência. Manter os drivers atualizados é importante para se certificar de que seu PC continue funcionando bem.

Existem ferramentas que automatizam o processo. O freeware SlimComputer varre o seu PC e dá sugestões sobre o que pode ser desinstalado com segurança ou removido da inicialização do PC, e pode fazer o serviço para você em poucos cliques. Um utilitário mais simples e direto é o PC Decrapifier, em cujo site o autor mantém uma lista com os programas que podem ser removidos automaticamente.

3. Atualize os drivers e software de sistema

Se seu PC não veio com uma ferramenta para atualização automática de drivers e outros softwares importantes, vá ao site do fabricante e procure o nome do seu modelo na seção “Suporte”. É de se esperar que um computador novinho em folha venha com as versões mais recentes dos drivers, BIOS e componentes do sistema, mas isso nem sempre acontece. Manter estes itens atualizados pode melhorar a estabilidade e confiabilidade de seu PC, então não ignore este passo só porque as coisas parecem estar funcionando direito.

A seção de suporte no site do fabricante de seu PC pode ter os mais novos drivers para a maioria dos componentes, mas os drivers da placa de vídeo provavelmente estarão desatualizados. Se seu computador tem uma placa de vídeo da Nvidia os drivers estão aqui, basta indicar o modelo de sua placa de vídeo e o sistema operacional (ou deixar o site detectar automaticamente). Se a placa é da AMD/ATI, baixe a versão mais recente do pacote de drivers Catalyst.

Aproveite também para atualizar o Windows usando o Windows Update (Iniciar / Painel de Controle / Sistema e Segurança / Windows Update). Instale todas as atualizações importantes. Isso pode significar o download de várias centenas de MB, é melhor fazer isso em uma conexão de banda larga durante a noite.

Certifique-se também de que o computador está configurado para receber atualizações automaticamente: na janela do Windows Update clique no item Alterar Configurações na lateral esquerda e sob Atualizações importantes escolha o item Instalar atualizações automaticamente (recomendado) e clique em OK.

4. Faça o ajuste fino

Esta também é uma boa hora para fazer alguns ajustes no Windows. Se você quiser modificar a frequência com que recebe os alertas do Controle de Conta do Usuário (UAC, aquela janela que pede confirmação quando um aplicativo tenta fazer alguma coisa) vá até o Painel de Controle, clique em Contas de Usuário e em Alterar configuração de Controle de Conta do Usuário. Mas sugiro que não desabilite completamente este aviso.

Uma coisa que me incomoda muito é a insistência da Microsoft em ocultar as extensões de arquivos por padrão, como se nossos cérebros fossem incapazes de compreender o que significa o .jpg, .doc ou .mp3 no fim do nome de um arquivo. Para corrigir isso abra o Windows Explorer, clique no menu Organizar no canto superior esquerdo da janela e escolha o item Opções de pasta e pesquisa. Vá até a aba Modo de Exibição e desmarque a caixa que diz Ocultar as extensões dos tipos de arquivo conhecidos.

5. Instale programas do jeito fácil

Você já copiou os arquivos que estavam no PC velho, se livrou do lixo que veio pré-instalado no micro novo e atualizou os drivers e o sistema operacional. Agora vem a parte boa: é hora de colocar software novinho em folha em seu novo PC.

E para isso não há nada melhor que o Ninite, uma ferramenta gratuita que pode ser usada para instalar vários programas de uma vez só de forma automática, sem intervenção do usuário. Basta visitar o site ninite.com e marcar os programas que deseja instalar. Minha lista pessoal inclui o Chrome, Dropbox, Evernote, Firefox, Flash, iTunes, K-Lite COdecs, Microsoft Security Essentials, Silverlight, Skype, Steam, uTorrent, VLC, .NET e 7-Zip.

Depois de escolher clique no botão Get Installer no rodapé da página e o site irá lhe enviar um pequeno executável que vai baixar todos os aplicativos de seus servidores oficiais e instalá-los com a configuração padrão, de uma vez só. O Ninite não instala barras de ferramentas para o navegador e outros tipos de “lixo” comumente associados a alguns programas, e é esperto o suficiente para baixar as versões para 64-Bits dos programas se seu PC estiver rodando uma versão de 64-Bits do Windows.

O Ninite é ótimo mas não é perfeito, e você ainda terá de instalar manualmente software que não esteja na lista do site, além de quaisquer outros programas que você tenha comprado nos últimos tempos, como jogos e anti-vírus, bem como extensões para seu navegador favorito.

Todo o processo de preparar seu novo computador, mesmo usando ferramentas como o PC Decrapifier e o Ninite, pode levar algumas horas. E fazer isso quando o que você realmente quer é brincar com seu novo “brinquedo” pode ser difícil. Ainda assim, aconselho que você seja paciente e siga os passos acima, já que eles podem evitar muitas outras horas de dores-de-cabeça no futuro.

Fonte:http://pcworld.uol.com.br/dicas/2011/05/03/5-passos-para-deixar-seu-novo-pc-ainda-melhor/

Fábricas chinesas de iPads têm “condições desumanas”, aponta estudo

Levantamento, realizado por organizações não governamentais, afirma que as unidades da Foxconn tratam funcionários como máquinas.

Uma investigação realizada na China nas fábricas da Foxconn, empresa que produz equipamentos como o iPad e o iPhone para Apple, entre outros fabricantes, acusa a companhia de tratar seus funcionários de “forma desumana, como se fossem máquinas”. A informação foi publicada no jornal britânico The Guardian.
Segundo a publicação, o estudo foi conduzido por duas organizações não governamentais em unidades da Foxconn, no sudeste da China, e revela um quadro considerado chocante na produção dos equipamentos.

Nas unidades de Shenzhen e Chengdu há excesso de horas trabalhadas, regras extremamente rígidas e até um curioso termo de “não-suicídio”, que os funcionários são obrigados a assinar, de acordo a reportagem.

Das entrevistas feitas pelas organizações surgiram relatos de pessoas obrigadas a trabalhar 13 dias sem descanso, casos de humilhação pública de funcionários e superlotação de alojamentos, entre outras coisas.

Os suicídios são frequentes nas unidades da Foxconn, quadro que levou a empresa no ano passado a anunciar um plano para oferecer melhores condições em suas fábricas. Em 2010, a Apple divulgou um documento, resultado de uma auditoria feita em seus fabricantes em países como Taiwan, China, Filipinas, Cingapura e Tailândia no qual apontava várias irregularidades, como trabalho infantil e horas de trabalho não registradas.


Em abril deste ano, o Ministro da Ciência e Tecnologia, Aloizio Mercadante, afirmou que a Apple terá fabricação no Brasil, com a produção a cargo da Foxconn, A produção local do iPad começaria até novembro, segundo o ministro. De acordo com a Agência Brasil, o investimento seria da ordem de 12 bilhões de dólares (18,9 bilhões de reais).

Fonte:http://macworldbrasil.uol.com.br/noticias/2011/05/03/fabrica-chinesas-de-ipads-tem-201ccondicoes-desumanas201d-aponta-estudo/

Processos judiciais viraram arma para censurar imprensa no Brasil



Tribunais viraram instrumento de censura
No Dia Mundial da Liberdade de Imprensa, uma análise sobre a situação brasileira mostra que a Justiça passou a ser uma ferramenta usada por aqueles que querem calar os jornalistas.

No Brasil, os jornalistas são livres para escrever e publicar. Num país oficialmente livre das amarras da censura de imprensa, os interessados em impedir que uma informação venha a público encontraram, no entanto, outras maneiras de fazê-lo.

O jornalista paraense Lúcio Flávio Pinto conhece bem essas alternativas – várias foram usadas contra ele na tentativa de interromper seu trabalho. Depois da vasta experiência na grande imprensa brasileira, Lúcio fundou há 20 anos o Jornal Pessoal, focado na cobertura da Amazônia e que, segundo a definição do criador, "é a publicação alternativa de existência mais duradoura do país e a única em atividade".

Nos tribunais brasileiros, Lúcio é um dos jornalistas mais perseguidos do país. "A censura passou a contar com um poderoso instrumento, que é a Justiça", diz. O interessante é que, entre 1966 a 1985, durante a ditadura militar, o profissional só foi processado uma vez – e absolvido. Desde 1992, as inúmeras denúncias de corrupção, desmatamento ilegal e tráfico de madeira já renderam ao único editor do Jornal Pessoal mais de 33 processos.

O sociólogo Benoît Hervieu, chefe da organização Repórteres Sem Fronteiras para as Américas, acompanha de perto a atividade jornalística e traça conclusões sobre o panorama brasileiro. "A questão da insegurança é mais grave no Norte e no Nordeste. Os jornalistas têm confrontos com as autoridades e também com o crime organizado e com traficantes de maneira muito violenta."

Apesar de a situação no Brasil ser bem mais amena do que a do México e de Honduras, países onde a liberdade de informar é a mais cerceada na América Latina, segundo a Repórteres Sem Fronteiras, é com dificuldades que muitos profissionais brasileiros expressam sua opinião, avalia Hervieu.

Outros tipos de censura

A ministra da Secretaria de Comunicação Social, Helena Chagas, não nega as deficiências. "Acho que essas dificuldades são muito mais relativas ao funcionamento da Justiça, envolvendo questões sociais e políticas, do que propriamente à instituição da liberdade da imprensa. Não há censura em nenhum lugar [no Brasil], e todos publicam o que querem", disse à Deutsche Welle.

Mas há também avanços a serem reconhecidos. "Em 20 anos de democracia, o país vive em plena liberdade de expressão, uma democracia consolidada e amadurecida", pontua Chagas. Antes de assumir a secretaria, ela atuava como jornalista e conheceu, ainda na infância, a censura de imprensa.

O pai dela, colunista do jornal O Estado de São Paulo, sofreu diversas reprovações durante a ditadura militar. A ministra conta que, naquela época, não conseguia compreender o porquê de os versos de Os Lusíadas, de Camões, aparecerem todos os dias na capa do jornal. "Até que um dia me explicaram que aquilo era para preencher matérias que foram censuradas."

"O fato de haver alguns casos de jornalistas que sofrem processos e são perseguidos acontece em função de um sistema judiciário que tem falhas. Não há mecanismos na Justiça que funcionem com agilidade e rapidez, que resolvam as controvérsias e disputas envolvendo a imprensa, tanto para proteger o jornalista quanto para proteger o cidadão. Não é um problema da liberdade da imprensa. É um problema de segurança do país, de Justiça, um outro tipo de mazela da nossa sociedade", diz a ministra.

Amarras e controle

Focada em apontar os problemas que atrapalham a cobertura jornalística no mundo, a Repórteres Sem Fronteiras mantém dois correspondentes no Brasil. E observa no país um recurso perverso usado pelos poderosos para calar a mídia. "Está acontecendo a multiplicação dos procedimentos judiciais contra jornalistas por parte de autoridades estaduais, locais, prefeituras, etc, para impedir algumas coberturas de atualidade ou como medida de censura prévia", afirma Hervieu.

Já foram vítimas grandes veículos de comunicação, como O Estado de São Paulo, proibido judicialmente de publicar matérias relacionadas à operação Boi Barrica, que colocou Fernando Sarney (filho do José Sarney) no centro de um escândalo político. Meios menores também não escapam, como a Gazeta de Joinville, em Santa Catarina, impedida pela Justiça de associar o prefeito da cidade à uma ex-miss Brasil, com quem teve uma relação extraconjugal.

Contra a chamada censura prévia, o governo federal não tem espaço para agir, afirma Chagas. "Não há qualquer tipo de iniciativa do Executivo para cercear qualquer tipo de liberdade, muito menos a de imprensa. A presidente da República já deixou isso muitíssimo claro. E em relação à Justiça, é uma questão da Justiça. Ela é uma instituição e vive também de credibilidade, assim como a imprensa. E se a Justiça dá, muitas vezes, uma decisão considerada errada, polêmica, ela tem que responder por isso. O Executivo não tem como interferir, a não ser defendendo a liberdade de imprensa."

Evolução

Ainda persiste no Brasil a tradicional concentração dos veículos de imprensa, mantidos, muitas vezes, por poucas famílias ou por políticos. "Em tese, a constituição proíbe que os parlamentares sejam proprietários de meios de comunicação, isso aí é uma burla da lei. E há formas de tornar essa lei mais rigorosa para coibir esse tipo de desobediência", sugere Chagas.

Mas o uso maciço da plataforma digital indica um movimento de mudança. Especialistas afirmam que a internet e os avanços sociais vistos no Brasil contribuíram para a evolução da sociedade brasileira, que está ficando mais amadurecida para julgar a informação recebida e verificar a credibilidade de uma notícia.

Ainda assim, para a Repórteres Sem Fronteiras, é preciso fazer mais contra a extrema centralização da mídia no Brasil. "Deveria ser um objetivo do poder federal para garantir mais pluralismo na imprensa", diz Hervieu. Para a ministra, o país está num bom caminho, afastando-se cada vez mais do passado sombrio da censura. Para muitos governantes, trata-se até mesmo de uma questão pessoal. "O Brasil está sendo governado por uma geração de pessoas que sofreu na carne os efeitos da censura", finaliza Chagas.

Autora: Nádia Pontes
Revisão: Alexandre Schossler

Fonte:http://www.dw-world.de/dw/article/0,,15044861,00.html?maca=bra-newsletter_br_Destaques-2362-html-nl

Educação discute MP 520 dos Hospitais Universitários

A Comissão de Educação e Cultura realiza audiência pública hoje (3) para discutir a MP 520/10.

Ela cria a Empresa Brasileira de Serviços Hospitalares (Ebserh) para apoiar a prestação de serviços médico-hospitalares, laboratoriais e de ensino e pesquisa nos hospitais universitários federais.

O debate foi proposto pelos deputados Rogério Marinho (PSDB-RN) e Alice Portugal (PCdoB-BA). Ela lembra que a MP é uma tentativa de solucionar a crise que atinge os hospitais universitários e de substituir os funcionários terceirizados, atendendo a uma determinação do Tribunal de Contas da União (TCU).

"Entretanto, a solução apresentada traz alguns inconvenientes, que produziram estranhamento entre os professores, pesquisadores e a comunidade universitária. Segundo especialistas, a MP desvincula os hospitais universitários das universidades. Outro aspecto importante, ainda não esclarecido, diz respeito à gestão da Ebserh e a relação contratual com as universidades", diz Alice.

"O principal aspecto que deve ser garantido é a autonomia universitária. Portanto, ouvir os reitores das universidades é fundamental para respeitarmos este importante preceito constitucional", afirma Rogério Marinho.

Foram convidados - o ministro da Educação, Fernando Haddad; o presidente do Conselho Nacional de Saúde (CNS), Alexandre Rocha Santos Padilha; o presidente da Associação Nacional dos Dirigentes das Instituições Federais de Ensino Superior (Andifes), Edward Madureira Brasil; o diretor de Hospitais Universitários Federais e Residências em Saúde do Ministério da Educação, José Rubens Rebelatto; a consultora técnica da coordenação geral de Atenção Hospitalar do Ministério da Saúde, Ana Paula Silva Cavalcante; o presidente da Associação Nacional dos Médicos Residentes (ANMR), Victor Fernando Lima; o presidente da Associação Brasileira dos Hospitais Universitários de Ensino (Abrahue), Carlos Alberto Justo Da Silva, e a coordenadora geral da Federação do Sindicato dos Trabalhadores das Universidades Públicas Brasileiras (Fasubra), Léia de Souza Oliveira.

A reunião se realiza às 14h no plenário 10.
(Agência Câmara)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77377

Alterada portaria que trata de bolsas de mestrado profissional para professores

O Diário Oficial da União de ontem (2) publica a Portaria 478, que dispõe sobre a concessão de bolsas de formação para professores da rede pública matriculados em cursos de mestrado profissional.

A publicação altera o caput do artigo 1º e o artigo 3º da Portaria 289, de 21 de março de 2011, que trata do mesmo tema. Os artigos citados passam a vigorar com a seguinte redação:

"Art. 1º Criar a Bolsa de Formação Continuada destinada a professores da Rede Pública da Educação Básica, regularmente matriculados em cursos de Mestrado Profissional ofertados pelas instituições de ensino superior, devidamente aprovados pela Capes."

(NR) "Art. 3º A concessão da Bolsa de Formação Continuada tem como abrangência os alunos matriculados a partir de 2011 nos cursos de mestrado profissional em funcionamento no País." (NR) Conheça os cursos de mestrado profissional recomendados no País acessando o link:
http://www.capes.gov.br/cursos-recomendados.
(Ascom da Capes)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77372

Dez por cento do PIB para a educação pública é muito?

Artigo dos professores Otaviano Helene e Lighia B. Horodynski-Matsushigue* publicado no jornal Correio Braziliense de 25 de abril último.

Entre as várias metas do Plano Nacional de Educação (PNE) em discussão no Congresso Nacional está o aumento progressivo dos investimentos públicos em educação até atingirem 7% do PIB.

Analisemos esse valor. Quando, no fim da década de 1990, muitas entidades da sociedade brasileira apresentaram seu projeto de PNE ao Congresso Nacional, com algumas metas até mais modestas do que as do PNE atualmente proposto, os recursos necessários foram estimados em 10% do PIB. Esse valor foi reduzido pelo Congresso a 7% e, finalmente, vetado pelo Executivo federal. Assim, ficamos com as metas, mas sem recursos para cumpri-las. Obviamente, não apenas as metas não foram cumpridas como nos afastamos ainda mais de muitas delas.

Seriam os 7% do PIB suficientes na situação atual? Vejamos. Atualmente, segundo dados divulgados pelo Inep, o investimento direto em educação pública é cerca de 4,7% do PIB, dos quais 3,1% correspondem a salários e encargos. Como, segundo dados do Pnad, os salários dos educadores correspondem a cerca de 60% dos valores percebidos pelos demais trabalhadores com mesma escolaridade, apenas para superar essa desigualdade seria necessário aumentar os investimentos em 2% do PIB, o que já nos levaria praticamente aos 7% previstos.

Considerando outras metas do PNE proposto, entre elas a universalização da educação dos quatro aos 17 anos, a conclusão do ensino fundamental para todos e o atendimento, na educação infantil, de 50% das crianças de até a três anos de idade, uma regra de três simples indica que seriam necessários outros 2% a 3% do PIB. Finalmente, para cumprir as outras muitas metas propostas, inclusive para a educação superior, precisaríamos de recursos da ordem de 10% do PIB ou mais.

Investir 10% do PIB em educação não é nenhum despropósito. Todos os países que superaram atrasos escolares passaram por um período de altos investimentos, muitas vezes bem além dos 10% do PIB. Isso ocorreu nos países escandinavos, em Israel, em Cuba e em vários outros países. Os EUA investem, atualmente, um total de 7,6% do seu considerável PIB, sendo dois terços dos recursos provenientes do setor público. Portanto, seria totalmente normal que um país como o Brasil, com grande atraso educacional, investisse cerca de 10% de seu PIB em educação.

Vale comparar a situação brasileira com a de outros países de modo mais detalhado. Os gastos por estudante e por ano na educação básica no Brasil, onde está a grande maioria dos estudantes, são da ordem de apenas 14% da renda per capita. Nos países que têm um sistema educacional bem estabelecido, esse percentual é da ordem de 25%. Portanto, para dedicarmos à educação um esforço comparável ao desses países, devemos aumentar os gastos por estudante em bem mais de 50%. Mas ainda temos que incorporar pessoas excluídas do sistema, o que nos diferencia da maior parte dos outros países. No Brasil, cerca de 30% das crianças deixam o sistema educacional antes de completar o ensino fundamental e, no fim do ensino médio, o percentual de jovens excluídos atinge 50%. Apenas a combinação dessas duas necessidades, aumentar a inclusão e os investimentos por estudante na educação básica, exigiria investimentos da ordem de 10% do PIB.

Para chegar a investimentos dessa monta precisaríamos adicionar ao setor educacional uma quantidade de recursos equivalente ao crescimento médio do PIB em um único ano. Fracionando esse acréscimo durante alguns anos, teríamos, no fim de uma década, uma escola pública valorizada, professores remunerados adequadamente, estudantes bem atendidos. E tudo isso para sempre, já que a atual taxa de natalidade não prevê um grande aumento do contingente de crianças e jovens.

Finalmente, devemos lembrar que investimentos em educação apresentam altos retornos econômicos, tanto na forma de maiores rendas pessoais quanto na forma de aumento do PIB. Taxas de retorno dos investimentos em educação entre 10% e 20% sobre os recursos investidos são bastante típicas para países como o Brasil, mostrando que o investimento é recuperado em poucos anos. Publicação recente da OCDE, adequadamente intitulada O alto custo do baixo desempenho educacional, apresenta uma série de análises mostrando o enorme impacto positivo que melhor educação escolar tem na economia de um país.

Além dos ganhos econômicos, os ganhos sociais e culturais são enormes. E, se corretamente feitos, esses investimentos poderiam contribuir para superar uma das maiores vergonhas nacionais: a concentração de renda, um dos indicadores econômicos que nos têm colocado, mesmo após a melhora ocorrida nos últimos anos, entre os recordistas mundiais.

* Otaviano Helene é professor do Instituto de Física (IF) da USP, foi presidente da Associação dos Docentes da USP e do Inep. Lighia B. Horodynski-Matsushigue é professora aposentada do IF da USP e foi vice-presidente regional do Andes-SN.

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=77370