Translate

sexta-feira, 17 de dezembro de 2010

Máquina quântica é escolhida a descoberta do ano pela Science

Clássico e quântico

Até o ano de 2010, todos os objetos construídos pelo homem moviam-se seguindo as leis da mecânica clássica.

No início deste ano, porém, um grupo de cientistas criou a primeira máquina quântica, um dispositivo visível a olho nu que se move de uma forma que só pode ser descrita pela mecânica quântica, segundo as leis que regem o comportamento das coisas muito pequenas, como moléculas, átomos e partículas subatômicas.

O Site Inovação Tecnológica anunciou o feito, na reportagem Mecânica quântica aplica-se ao movimento de objetos macroscópicos, destacando então que se tratava de um experimento histórico.

Agora, a revista Science decidiu eleger a criação dessa primeira máquina quântica como sendo o avanço científico mais significativo do ano de 2010 - a propósito, o artigo que descreveu a descoberta foi publicado na revista Nature.

Máquina quântica

A máquina quântica tem uma aparência muito simples: uma pequena haste metálica, semelhante à extremidade de um estilete, fixada de modo a vibrar no interior de um sulco escavado em um material semicondutor - tecnicamente trata-se de um ressonador mecânico.

Com a máquina quântica pronta, os cientistas resfriaram-na até que ela atingisse seu estado fundamental de energia, que é o estado de menor energia permitida pelas leis da mecânica quântica - de resto um objetivo longamente perseguido pelos físicos.

Em seguida, os cientistas injetaram na máquina quântica um único quantum de energia, um fónon, a menor unidade física de vibração mecânica, provocando-lhe o menor grau de excitação possível.

Então verificaram aquilo que era previsto pela mecânica quântica: a máquina quântica, visível a olho nu, vibrava muito e vibrava pouco ao mesmo tempo, um fenômeno absolutamente bizarro, que só pode ser explicado pela mecânica quântica (veja o artigo indicado acima para mais detalhes).

Sentido da realidade

A máquina quântica prova que os princípios da mecânica quântica podem ser aplicados ao movimento de objetos macroscópicos, assim como às partículas atômicas e subatômicas. Ela fornece o primeiro passo fundamental rumo à obtenção de um controle completo sobre as vibrações de um objeto no nível quântico.

Tal controle sobre o movimento de um dispositivo deverá permitir aos cientistas manipularem esses movimentos minúsculos, de forma parecida com o que eles fazem hoje ao manipular as correntes elétricas e as partículas de luz.

Por sua vez, essa capacidade poderá permitir a criação de novos dispositivos para controlar os estados quânticos da luz, detectores de força ultrassensíveis e, em última instância, abrirá o caminho para que se discuta os limites da mecânica quântica e até mesmo o nosso próprio sentido do que é a realidade.

Por exemplo, a mecânica quântica permite que uma partícula esteja em dois lugares ao mesmo tempo. Um experimento assim poderia nos dizer porque algo grande como um ser humano não pode conseguir o mesmo feito - ou poderia?

Bibliografia:

Quantum ground state and single-phonon control of a mechanical resonator
A. D. O’Connell, M. Hofheinz, M. Ansmann, Radoslaw C. Bialczak, M. Lenander, Erik Lucero, M. Neeley, D. Sank, H. Wang, M. Weides, J. Wenner, John M. Martinis, A. N. Cleland
Nature
April 2010
Vol.: 464, 697-703
DOI: 10.1038/nature08967

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=maquina-quantica-descoberta-ano-science&id=010165101217&ebol=sim

Tabela Periódica será corrigida pela primeira vez na história

Mudanças nos pesos atômicos

Pela primeira vez na história, os pesos atômicos de alguns elementos da Tabela Periódica serão alterados.

A nova Tabela Periódica, descrita em um relatório científico que acaba de ser divulgado, irá expressar os pesos atômicos de 10 elementos de uma forma diferente, para refletir com mais precisão como esses elementos são encontrados na natureza.

Os elementos que terão seus pesos atômicos alterados são: hidrogênio, lítio, boro, carbono, nitrogênio, oxigênio, silício, cloro, enxofre e tálio.

"Por mais de 150 anos os estudantes aprenderam a usar os pesos atômicos padrão - um valor único - encontrados na orelha dos livros didáticos de química e na Tabela Periódica dos elementos," comenta o Dr. Michael Wieser, da Universidade de Calgary, no Canadá e membro da IUPAC (União Internacional de Química Pura e Aplicada).

Contudo, explica ele, conforme a tecnologia foi evoluindo, os cientistas descobriram que aqueles números tão bem decorados não são tão estáticos quanto se acreditava anteriormente.

Ciência, indústria e esportes

As modernas técnicas analíticas conseguem medir o peso atômico de vários elementos com altíssima precisão.

E essas pequenas variações no peso atômico de um elemento são importantes não apenas nas pesquisas científicas, mas também em outras atividades práticas.

Por exemplo, medições precisas da abundância dos isótopos de carbono podem ser usadas para determinar a pureza e a origem de alimentos como a baunilha ou o mel.

Medições dos isótopos de nitrogênio, cloro e outros são utilizadas para a detecção de poluentes em rios e águas subterrâneas.

Nas investigações de doping nos esportes, a testosterona, que melhora o desempenho dos atletas, pode ser identificada no corpo humano porque o peso atômico do carbono na testosterona humana natural é maior do que na testosterona farmacêutica.

Pesos atômicos como intervalos

Os pesos atômicos destes 10 elementos agora serão expressos em intervalos, com limites superiores e inferiores.

Por exemplo, o enxofre é conhecido por ter um peso atômico de 32,065. No entanto, o seu peso atômico real pode estar em qualquer lugar no intervalo entre 32,059 e 32,076, dependendo de onde o elemento é encontrado.

"Em outras palavras, o peso atômico pode ser utilizado para identificar a origem e a história de um determinado elemento na natureza," afirma Wieser.

Elementos com apenas um isótopo estável não apresentam variações em seu peso atômico. Por exemplo, o peso atômico padrão do flúor, alumínio, sódio e ouro são constantes, e seus valores são conhecidos com uma precisão acima de seis casas decimais.

E agora, professor?

"Embora esta mudança ofereça benefícios significativos na compreensão da química, pode-se imaginar o desafio para os professores e estudantes, que terão que escolher um único valor de um intervalo ao fazer cálculos de química," diz a Dra Fabienne Meyers, diretor adjunto do IUPAC.

"Nós esperamos que os químicos e os educadores tomem este desafio como uma oportunidade única para incentivar o interesse dos jovens em química e gerar entusiasmo para o futuro criativo da química," afirma Meyers.

O trabalho que embasou a primeira correção já feita na Tabela Periódica durou de 1985 a 2010. A mudança vai coincidir com o Ano Internacional da Química, que será celebrado em 2011.

Considerada um dos maiores feitos científicos de todos os tempos, a tradicional Tabela Periódica tem sofrido "ataques" de várias frentes de pesquisa, conforme o conhecimento científico avança:

Descoberta antimatéria que cria nova Tabela Periódica
Superátomos viram a Tabela Periódica de cabeça para baixo
Elementos pseudo-metálicos podem criar "pseudo-Tabela Periódica"
Tabela Periódica de "super-átomos" pode revolucionar a Química

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=tabela-periodica-correcao&id=010160101217&ebol=sim

A luz da Lua, como você nunca viu antes

Sombra e luz

Este "mapa de iluminação" foi construído a partir de mais de 1.700 fotografias tiradas da mesma área do Pólo Sul da Lua, captadas pela sonda LRO (Lunar Reconnaissance Orbiter) durante um período de seis meses.

O objetivo deste mapa é mostrar o nível de iluminação em cada ponto do Pólo Sul - na verdade, a LRO está produzindo mapas de iluminação também do Pólo Norte da Lua, uma informação importante para futuras missões exploratórias.

O eixo de rotação da Lua tem uma inclinação de apenas 1,54 ° (em comparação com 23,5 ° da Terra).

Isto deixa algumas áreas próximas aos pólos em permanente sombra, enquanto outras regiões vizinhas permanecem iluminadas na maior parte do ano.

Um dos principais objetivos científicos da LRO é identificar estas regiões de forma inequívoca - já pensou mandar uma sonda com painéis solares pousar em uma área e só depois descobrir que ela fica na sombra mais tempo do que se acreditava?

Quanto mais clara é a área, mais iluminação ela recebeu ao longo do período. Neste caso foram seis meses, mas a LRO está fazendo também mapas mensais e anuais dos pólos lunares.

Mapa de iluminação

Em um período de seis meses - o que corresponde a seis dias lunares - a LRO capturou 1.700 imagens do Pólo Sul, sempre cobrindo a mesma área.

Cada imagem foi projetada e convertida em uma imagem binária - se o solo estava iluminado o pixel foi definido como um, e se estava sombreado o pixel foi definido como zero - criando uma diferenciação entre regiões iluminadas e regiões sombreadas.

Todas as imagens binárias foram sobrepostas para criar uma imagem final, em que cada pixel assumiu um valor equivalente à porcentagem do tempo (seis meses) em que ele ficou 0 (sombreado) ou 1 (iluminado).

Estava pronto o mapa de iluminação, mostrado acima.

Esta não é a primeira vez que a LRO produz uma imagem da Lua do tipo "como você nunca viu antes".

Há menos de três meses, a sonda da NASA fez um mapa inédito das crateras da Lua, que permitiu que os cientistas descobrissem populações distintas de asteroides que atingiram nosso satélite.

fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=mapa-iluminacao-lua&id=020130101217&ebol=sim

Cientistas criam um laser 3-D

Cientistas da Eslovênia fabricaram o primeiro laser 3-D do mundo.

Na verdade, um microlaser, em forma de gota, no qual a luz laser brilha em todas as direções.

Laser 3-D na holografia

"Este é o primeiro laser 3-D prático já construído," afirma Igor Musevic, do Josef Stefan Institute. E ele e seu colega Matjac Humar garantem que fabricar outros não será difícil - eles poderão ser feitos aos milhões em poucos segundos.

O feito é promissor em termos de aplicações tecnológicas porque o laser 3-D é não apenas pequeno, como é também rápido, ajustável e barato de ser fabricado.

Os microlasers 3-D serão úteis em uma grande variedade de aplicações, mas os cientistas eslovenos vislumbram sobretudo sua aplicação em holografia, para a criação de imagens verdadeiramente tridimensionais.

Para isso, o laser 3-D seria incorporado no interior do objeto a ser imageado. A luz que vem diretamente da fonte cria padrões de interferência com a luz do ambiente. A imagem do objeto pode então ser reconstruída a partir desses padrões de interferência.

Laser líquido

A luz laser tridimensional é emitida por moléculas de corante alojadas dentro de gotas esféricas de moléculas helicoidais, por sua vez dispersas em uma solução líquida.

As moléculas helicoidais são cristais líquidos colestéricos, parentes próximas das moléculas usadas nas telas de cristal líquido (LCD).

As moléculas colestéricas não se misturam bem com o polímero líquido na qual estão imersas. Esta incompatibilidade cria uma situação curiosa: o índice de refração do cristal líquido colestérico varia em direção ao exterior da gota, que tem 15 micrômetros de diâmetro.

É como se as gotas fossem uma cebola, onde as camadas correspondessem a materiais com diferentes índices de refração.

A maioria dos lasers possui dois ingredientes fundamentais: um meio ativo, no qual a energia pode ser transformada em luz e amplificada, e um ambiente ressonante, no qual a luz coerente que está sendo gerada pode se acumular para formar um feixe, que emerge como luz laser.

No caso do laser de microgotas, o meio ativo consiste em todas as moléculas de corante fluorescente alojadas nos cristais líquidos. E a caixa de ressonância consiste não de uma cavidade espelhada longitudinal, como é tradicional nos demais lasers, mas da sequência aninhada de camadas com diferentes índices de refração.

Autofabricação

Outra grande vantagem desse laser líquido é que ele não precisa ser fabricado, no sentido usual que se dá ao termo. Ele se "autofabrica", a partir de reações químicas.

"Milhões de microlasers podem ser fabricados simplesmente misturando um cristal líquido, um corante emissor de laser e um fluido de suporte, o que permite usar os microlasers em equipamentos fotônicos maleáveis," dizem os pesquisadores.

E ele ainda é ajustável: ao variar o espaçamento das moléculas helicoidais - imagine esticar e encolher um parafuso - varia o comprimento de onda da luz que é emitida.

E não é preciso substituir as gotas para variar a cor do laser - suas propriedades ópticas podem ser alteradas modificando a temperatura ou mediante a aplicação de um campo elétrico sobre as gotas.

"Os cientistas vêm tentando fazer esses lasers com materiais em estado sólido, mas você pode imaginar o quanto é difícil construir centenas de camadas alternadas de material óptico, que devem ser muito uniformes," explica Musevic. "A beleza da nossa abordagem é que essa gota 3-D é automontada em uma fração de segundo."

Em 2009, outro grupo de cientistas construiu um laser capaz de emitir múltiplos feixes de luz simultaneamente, mas que não era verdadeiramente 3-D.

Bibliografia:

3D microlasers from self-assembled cholesteric liquid-crystal microdroplets
M. Humar, I. Musevic
Optics Express
20 December 2010
Vol.: 18, Issue 26, pp. 26995-27003
DOI: 10.1364/OE.18.026995

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=laser-3-d&id=010115101216&ebol=sim

Simulador de motos aumenta habilidades dos motoqueiros

Cientistas usaram um dos mais avançados simuladores de moto do mundo para analisar o comportamento dos pilotos na condução dos seus veículos.

O estudo comprovou que uma maior segurança não significa necessariamente andar mais devagar, e que o treinamento formal e mais avançado dos motociclistas pode resultar na melhoria da segurança das nossas avenidas e rodovias.

Acidentes com motos

Os motociclistas aparecem nas estatísticas de acidentes de trânsito em uma proporção muito superior à sua representação numérica. E, pior do que isto, a incidência de mortes entre os motociclistas é muito superior à dos demais envolvidos em acidentes de trânsito.

Os cientistas da Universidade de Nottingham usaram dados da Grã-Bretanha para verificar que dois terços dos acidentes com motos envolvem carros.

Mas um número significativo de acidentes ainda é causado unicamente pelos pilotos, sem nenhum outro veículo envolvido.

O objetivo da pesquisa foi analisar as atitudes, os comportamentos e as habilidades de diferentes tipos de pilotos, de acordo com seu nível de experiência e formação.

Simulador de motos

O simulador usa uma moto Triumph Daytona 675, montada em um equipamento projetado e construído na própria Universidade. Uma grande tela mostra as imagens do simulador propriamente dito.

Segundo os pesquisadores, o realismo obtido com a estrutura foi essencial para aferir o comportamento dos pilotos.

Três grupos de motociclistas foram submetidos a situações idênticas no simulador, bem como a outras tarefas no laboratório, para testar aspectos da sua percepção de risco e seu comportamento.

Treinamento avançado de pilotagem

Os resultados mostraram que a experiência por si só não aumenta a segurança dos pilotos na estrada e, em alguns casos, os pilotos mais experientes se comportaram como se fossem pilotos novatos.

Já os pilotos melhor treinados, que passaram por um curso avançado, usaram técnicas de posicionamento para antecipar e responder aos riscos, mantiveram-se dentro dos limites de velocidade urbana, e realmente se saíram melhor do que os pilotos apenas com treinamento básico.

"O estudo demonstrou claras diferenças entre os grupos de pilotos e os benefícios potenciais da formação avançada, que supera a experiência do piloto e o treinamento básico. Embora a experiência pareça ajudar as habilidades do piloto em determinada medida, a formação avançada parece desenvolver níveis mais profundos de percepção, consciência e responsabilidade," diz o Dr. Alex Stedmon, coordenador da pesquisa.

Um relatório completo dos resultados da pesquisa está previsto para ser publicado até o final de Dezembro.

fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=simulador-motos&id=010150101216&ebol=sim

Esclarecido o mistério das explosões de raios gama escuras

Poeira à vista

As explosões de raios gama estão entre os fenômenos mais energéticos do Universo.

Contudo, algumas parecem curiosamente fracas quando observadas na radiação visível. O que as mantém escondidas dos olhares humanos era uma questão controversa até hoje.

Por isso, astrônomos fizeram o maior estudo sobre este tipo de explosões, conhecidas como explosões de raios gama escuras, utilizando o instrumento GROND (Gamma-Ray Optical and Near-infrared Detector) montado no telescópio do Observatório Europeu do Sul (ESO), instalado em La Silla, no Chile.

E os cientistas descobriram que o "sumiço" dessas explosões gigantescas não exige nenhuma explicação muito complicada.

A fraca luminosidade das explosões de raios gama pode ser explicada por uma combinação de várias causas, sendo a mais importante de todas a presença de poeira entre a Terra e o fenômeno da explosão.

Explosões de raios gama

As explosões de raios gamas (ERG), fenômenos breves que podem durar desde menos de um segundo a alguns minutos, são detectadas por observatórios em órbita, que captam a sua elevada radiação.

No entanto, há cerca de treze anos os astrônomos descobriram uma quantidade de radiação menos energética originária destas explosões violentas, que se prolonga por algumas semanas, ou até mesmo anos depois da explosão inicial, o chamado brilho residual.

Enquanto todas as explosões de raios gama têm brilhos residuais nos raios X, apenas cerca de metade delas emite estes brilhos no visível, enquanto o resto se mantém misteriosamente escura.

Alguns astrônomos suspeitavam que estes brilhos residuais escuros poderiam ser exemplos de uma classe completamente nova de explosões de raios gama, enquanto outros pensavam que se poderia tratar de objetos que se encontrassem a grandes distâncias.

Estudos anteriores sugeriram ainda que este fenômeno poderia ser explicado por poeira situada entre nós e a explosão, a qual obscureceria a radiação emitida.

"O estudo dos brilhos residuais é fundamental na compreensão dos objetos que dão origem às explosões de raios gama, os quais nos fornecem informação preciosa sobre a formação estelar no Universo primordial," diz o autor principal do estudo, Jochen Greiner, do Instituto Max Planck para a Física Extraterrestre, na Alemanha.

As explosões de raios gama que duram mais de dois segundos são chamadas de explosões de longa duração e as que têm uma duração menor são conhecidas como explosões de curta duração.

As explosões de longa duração, que foram observadas neste estudo, estão associadas a explosões de supernova de estrelas jovens de grande massa situadas em galáxias com intensa formação estelar.

As explosões de curta duração não são ainda bem compreendidas, mas acredita-se que tenham origem na fusão de dois objetos compactos, como estrelas de nêutrons.

O brilho que faltava

A NASA lançou o satélite Swift no final de 2004.

Orbitando por cima da atmosfera terrestre, este satélite consegue detectar explosões de raios gama e comunicar imediatamente as suas posições a outros observatórios, de modo que os brilhos residuais possam ser estudados.

Neste novo estudo, os astrônomos combinaram dados do Swift com novas observações do GROND - um instrumento dedicado à observação contínua de explosões de raios gama. Deste modo, eles resolveram de maneira conclusiva o mistério do brilho residual visível que faltava.

O que torna o GROND o instrumento ideal para o estudo dos brilhos residuais é o seu tempo de resposta muito rápido - o equipamento consegue observar uma explosão minutos depois da chegada do alerta do Swift, utilizando um sistema especial chamado Modo de Resposta Rápida - e a sua capacidade de observar através de sete filtros em simultâneo, cobrindo assim tanto a parte visível como a parte do infravermelho próximo do espectro eletromagnético.

Ao combinar os dados GROND, obtidos através destes sete filtros, com as observações do Swift, os astrônomos conseguiram determinar de modo preciso a quantidade de radiação emitida pelo brilho residual em comprimentos de onda muito distintos, desde os altamente energéticos raios X até o infravermelho próximo.

Esta informação foi utilizada para medir diretamente a quantidade de poeira que obscurece a radiação no seu percurso em direção à Terra. Anteriormente, os astrônomos tinham que se basear em estimativas aproximadas do conteúdo de poeira.

Brilho perdido na poeira

A equipe utilizou uma enorme quantidade de dados, incluindo as suas próprias medições do GROND, adicionadas a observações obtidas por outros grandes telescópios, incluindo o Very Large Telescope do ESO, para estimar as distâncias de quase todas as explosões de raios gama da amostra.

Embora tenham descoberto que uma proporção significativa de explosões escurece para cerca de 60-80 por cento relativamente à intensidade original com que foi emitida devido à poeira, este efeito é aumentado para as explosões muito distantes, para as quais observamos apenas 30-50 por cento da radiação emitida.

Os astrônomos concluíram assim que a maioria das explosões de raios gama escuras são simplesmente aquelas cuja pequena quantidade de radiação visível foi completamente absorvida pela poeira antes de chegar até nós.

"Comparado a muitos instrumentos instalados em grandes telescópios, o GROND é um instrumento de baixo custo relativamente simples. No entanto, ele conseguiu resolver de maneira conclusiva o mistério que rodeava as explosões de raios gama escuras," diz Greiner.

Uma vez que o brilho residual das explosões muito distantes é desviado para o vermelho, devido à expansão do Universo, a radiação emitida pelo objeto era originalmente mais azul que a radiação que detectamos quando esta chega à Terra.

Como a redução da intensidade da radiação devido à poeira é maior no azul e no ultravioleta do que no vermelho, o efeito total de diminuição de intensidade de radiação devido à poeira é maior para as explosões de raios gama mais distantes.

É por isso que a capacidade do GROND de observar radiação no infravermelho próximo faz a diferença.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=explosoes-raios-gama&id=010130101217&ebol=sim

Cassini encontra vulcão de gelo em lua de Saturno

Os cientistas têm debatido há anos se vulcões de gelo - também chamados de criovulcões - existiriam em luas ricas em gelo, e quais seriam suas características.
Vulcão de gelo

A sonda Cassini descobriu uma formação na lua Titã, de Saturno, que pode ser um vulcão de gelo.

Da mesma forma que os vulcões terrestres expelem lava incandescente, o vulcão "titânico" cuspiria gelo.

Dados da topografia e da composição da superfície permitiram aos cientistas identificar um local com grande probabilidade acomodar o vulcão de gelo.

Os resultados foram apresentados hoje na reunião da União Geofísica Americana, em São Francisco.

"Quando olhamos para o nosso novo mapa 3-D de Sotra Facula, em Titã, somos surpreendidos pela sua semelhança com vulcões como o Monte Etna, na Itália, e o Laki, na Islândia," disse Randolph Kirk, que conduziu o trabalho de mapeamento 3-D da superfície da lua de Saturno.

Criovulcão

Os cientistas têm debatido há anos se vulcões de gelo - também chamados de criovulcões - existiriam em luas ricas em gelo, e quais seriam suas características.

As hipóteses levantadas especulam que algum tipo de atividade geológica subterrânea aqueceria o ambiente frio o suficiente para derreter parte do interior do satélite e enviar gelo fofo ou outros materiais através de uma abertura na superfície.

Vulcões na lua Io, de Júpiter, e na Terra, cospem lava quente rica em silicatos.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=vulcao-gelo-lua-saturno&id=010175101216&ebol=sim

Pisa, mas não humilha, artigo de Luciano Rezende Moreira

"É necessário recuperar o tempo perdido para, em médio prazo, alcançar um patamar de ensino próximo ao dos países desenvolvidos"

Luciano Rezende Moreira é professor do Instituto Federal de Alagoas (Ifal) e ex-presidente da Associação Nacional de Pós-graduandos (ANPG). Artigo enviado pelo autor ao "JC e-mail":

Na semana que passou foram divulgados os resultados do Programa Internacional de Avaliação de Alunos, o Pisa 2009. Para uma economia que está posicionada entre as dez maiores do mundo, a 54ª posição entre os 65 países avaliados é no mínimo embaraçosa. Uma economia pujante, que esse ano vai crescer em ritmo chinês, ainda incapaz de garantir educação de qualidade ao seu povo - diferentemente desta mesma China [Xangai], que ocupa o primeiro lugar na lista.

Considerando que a avaliação é realizada a cada três anos em todos os países-membros da Organização para Cooperação e Desenvolvimento Econômico (OCDE), além de convidados, como o Brasil, pode-se afirmar que, se ainda aparecemos mal na foto, o filme tem perspectiva de ter um final feliz. Afinal, o Brasil ficou entre os três países que mais evoluíram no Pisa entre os anos de 2000 e 2009, saltando de 368 para 401 pontos.

Para quem já amargou os últimos lugares, é alvissareiro constatar que avançamos menos apenas que Luxemburgo e Chile, países menores e menos complexos que o nosso. Não por coincidência, o governo federal vem inaugurando uma série de medidas educacionais neste período que tendem a impulsionar esse crescimento de forma duradoura e sustentável.

Para isso, será fundamental que o Projeto de Lei que determina a vinculação de 50% dos recursos do Fundo Social do Pré-sal destinados para a educação não seja vetado pelo presidente Lula e que o Plano Nacional de Educação (PNE) para o decênio 2011-2020 saia do papel e consiga antecipar a ambiciosa meta de se chegar a 7% do Produto Interno Bruto (PIB) investidos em educação. É necessário recuperar o tempo perdido para, em médio prazo, alcançar um patamar de ensino próximo ao dos países desenvolvidos.

Internamente, todavia, temos disparidades crônicas a serem solucionadas. Não é só a educação básica. Mesmo a pós-graduação nacional, sistema consolidado, é vítima de assimetrias científicas regionais abissais, a ponto de alguns estados da Federação não terem sequer fundações estaduais de amparo à pesquisa (FAPs).

Em 2004, toda a região Norte (Pará, Amazonas, Acre, Rondônia, Roraima, Amapá e Tocantins) respondeu por apenas 1,8% dos cursos de doutorado do país. Justamente essa estratégica região amazônica, detentora de um dos mais complexos ecossistemas e com uma das biodiversidades mais cobiçadas e inexploradas do mundo e que merece programas mais ambiciosos de atração e fixação de pesquisadores.

De igual maneira, a educação básica brasileira, segundo o Pisa, é muito desigual. Alagoas, o último da lista, está a quase cem pontos atrás do Distrito Federal, primeiro lugar geral (354 e 439 pontos, respectivamente). Daí a importância do Fundo Nacional de Desenvolvimento da Educação Básica (Fundeb), como instrumento de equalização dos investimentos locais.

O governo federal vem realizando ações importantes. É emblemático, por exemplo, ver ser edificado um campus do Instituto Federal de Alagoas na pequena cidade de Piranhas, no alto sertão, com professores mestres e doutores oriundos de todas as regiões do Brasil e estrutura de fazer inveja a qualquer escola particular do país. As contrapartidas precisam ser dadas para, de fato, concretizar o tão falado pacto pela educação.

Apesar das adversidades, parece que o espectro da professora Madalena - personagem da obra São Bernardo do alagoano Graciliano Ramos -, ronda o sertão com mais leveza e esperança nos dias que se anunciam por vir, diferente de seus ásperos tempos que a levaram ao suicídio. Afinal, quando a esposa de Paulo Honório imaginaria que a educação básica brasileira caminhasse para oferecer educação em tempo integral em 50% das escolas públicas, como consta no PNE? Ou a universalização, até 2016, do atendimento escolar para toda a população de 15 a 17 anos?

A pressão pelo cumprimento destas e demais metas apresentadas ao presidente Lula nesta quarta-feira (15/12) - que constam no Novo Plano de Educação - passa ser tarefa de todos, com o risco de, como se diz muito por aqui no sertão das Alagoas, os mandatários levarem uma boa "pisa" caso não cumpram com seus compromissos firmados. Essa sim, de humilhar.

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75387

Equação de segundo grau para todos!, artigo de Carlos Alberto Sardenberg

"A nossa escola pública não corresponde a um país com a oitava economia do mundo"

Carlos Alberto Sardenberg é jornalista. Artigo publicado em "O Globo":

O Programa Internacional de Avaliação de Alunos (Pisa, na sigla em inglês), que avalia estudantes de 15 anos de 65 países, consiste de três provas: leitura, matemática e ciências.

Os testes são preparados de modo a driblar os decorebas. Medem se o aluno entendeu o que estudou. Não apenas se sabe ler, mas se consegue interpretar um texto e tirar conclusões. Idem para matemática: partir de fórmulas e resolver problemas, situações.

Por que essas três disciplinas? Porque se entende, mundo afora, que todo o resto vem a partir dessa base. Na vida profissional, por exemplo, trata-se do conhecimento e do aprendizado necessário para operar uma máquina ou instrumento eletrônico a partir do seu manual. Mas também é a base para que o cidadão possa entender, interpretar e julgar o discurso, digamos, do presidente da República.

Os alunos brasileiros, embora tenham avançado, apareceram nos últimos lugares no Pisa de 2009. Como é talvez o mais respeitado teste de avaliação no mundo, o governo brasileiro, via Ministério da Educação, tem metas ali. Conforme o projeto do Plano Nacional de Educação 2011-2020, lançado na quarta-feira (15/12) pelo presidente Lula e pelo ministro Fernando Haddad, o objetivo é que os alunos brasileiros saltem da média de 395 pontos, obtida em 2009, para 473 em 2021 (o teste é feito a cada três anos).

Logo, todo o esforço deveria se concentrar nas três disciplinas essenciais do ensino fundamental, português, matemática e ciências, certo? Errado. Tem ocorrido exatamente o contrário.

Há movimentos, via votação de projetos de lei no Congresso, para acrescentar mais matérias ao currículo, sem aumentar o número de dias letivos ou o número de horas de aula/dia. Filosofia, sociologia, música, psicologia, cultura indígenas e africanas - essas são matérias já incorporadas ou a caminho disso. O argumento: a escola não deve formar apenas bons alunos ou bons profissionais, mas cidadãos responsáveis.

Uma primeira observação: se fossem formados "apenas" bons alunos, já seria um enorme êxito, não é mesmo? Outra: se o objetivo faz sentido, formar cidadãos, o acúmulo de matérias não resolve nada. E dá perfeitamente para formá-los sem essas matérias.

Humanidades, por exemplo: nas aulas de português, os alunos podem ler textos de filosofia, sociologia, psicologia etc. Muitas vezes nem precisa: há muita psicologia, por exemplo, num conto de Machado de Assis bem lido e compreendido.

Agora, consideram a música. Qual a melhor maneira de ensinar ou, antes disso, estimular o interesse das crianças? Tocar instrumentos, na verdade, apresentá-los aos meninos e meninas para que comecem brincando com foreles. Com o tempo, formam-se bandas, conjuntos, orquestras. Ora, eis uma excelente atividade para os fins de semana nas escolas.

Qual a melhor e mais atraente maneira de conhecer a cultura indígena? Visitando as aldeias, estando com os povos. Outra excelente atividade para feriados e mesmo para uma parte das férias, por que não?

O problema, reconhecemos, é que isso dá trabalho e toma tempo. Também custa algum dinheiro. Vai daí que, podem apostar, essas boas intenções terminam em desastres. Colocam na grade curricular uma aula de música por semana, pura falação, sem instrumentos, outra de sociologia e culturas antigas, sem sequer boas fotos em Power Point, e acabou.

Torra a paciência dos alunos, rouba tempo do ensino de português, matemática e ciências, para quê? Vamos falar francamente: além de dar emprego a formados nessas matérias, não serve para nada.

Assim, o ensino, que já é precário nas três disciplinas essenciais, torna-se também ruim em humanidades, artes e cidadania. (E por falar nisso, também nas escolas para povos indígenas é preciso ensinar as mesmas três disciplinas. Equação de segundo grau é igual para todos).

O Plano Nacional de Educação foi bem recebido entre educadores, especialmente pelo foco. Em vez das 295 (!) metas do plano anterior, desta vez foram definidas "apenas" 20, efetivamente prioritárias. Foco - eis o caminho correto.

Problema: o projeto tem de ser aprovado pelo Congresso, onde é grande a chance de aparecerem mais algumas centenas de metas que interessam a lobbies e corporações. Seria mais uma pena. A educação brasileira tem avançado, mas, como partiu lá de trás, os progressos são claramente insuficientes.

A nossa escola pública não corresponde a um país com a oitava economia do mundo. Isso exige mais do que avanços burocráticos, requer envolvimento nacional, além, é claro, de mais dinheiro e mais competência no uso dos recursos. E tudo pelo bom professor.
(O Globo, 16/12)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75386

Google também vai ter "mapas" do corpo humano

A próxima ferramenta da Google, o Body Browser, vai permitir a visualização detalhada do corpo humano em 3D, incluindo a estrutura muscular, a estrutura óssea ou o sistema nervoso.
Segundo o DailyTech, a ferramenta Body Browser vai fornecer um modelo 3D que, através da funcionalidade zoom in, vai poder ser explorado detalhadamente.

O Body Browser da Google vai ser baseado em WebGL, uma tecnologia que permite a visualização de imagens 3D no browser sem ser necessário instalar qualquer tipo de software como o Flash ou Java. A tecnologia WebGL necessita apenas de um browser que a suporte, como é o caso da versão 9 do Chrome da Google ou da versão 4 do Firefox da Mozilla.

Se o browser utilizado suportar o WebGL, o Boby Browser pode ser experimentado aqui .

Fonte:http://aeiou.exameinformatica.pt/google-tambem-vai-ter-mapas-do-corpo-humano=f1008098

quinta-feira, 16 de dezembro de 2010

Para além dos números

16/12/2010

Por Alex Sander Alcântara

Agência FAPESP – É comum ouvir que haveria uma menor produtividade na pesquisa em ciências humanas em relação a outras áreas do conhecimento. Ou que a pesquisa feita em humanidades no Brasil não teria a penetração internacional das demais áreas.

Para debater pontos como esses, pesquisadores se reuniram no 1º Fórum de Ciências Humanas, promovido pela Pró-Reitoria de Pesquisa da Universidade Estadual Paulista (Unesp) no fim de novembro. Os participantes analisaram eventuais entraves da pesquisa em humanas, como a falta de uma metodologia apropriada para medir a produção e a necessidade de projetos mais ousados na área.

Segundo os cientistas presentes, não se pode dizer que a produtividade nas humanidades seja menor do que as das demais áreas a partir de critérios meramente quantitativos.

Para o professor Luiz Henrique Lopes dos Santos, do Departamento de Filosofia da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (USP), essa discussão tem se pautado na maior parte das vezes em análises superficiais de números.

“O mito da baixa produtividade está ancorado em uma leitura simplista dos dados, que ignora as especificidades de cada área. A questão é saber o que significa cada número em cada área e, por vezes, em cada linha de pesquisa”, disse à Agência FAPESP.

Segundo o pesquisador, que apresentou dados sobre a produção de artigos científicos nos últimos anos, em muitas áreas a pesquisa é realizada em grupo e resulta em trabalhos de coautoria, o que não ocorre com frequência nas humanidades.

“A publicação de livros nas humanidades, por exemplo, é superior à de muitas áreas. Em um cálculo grosseiro, podemos dizer que um livro equivaleria a seis artigos. O problema é que um livro ou um artigo tem o mesmo peso de cálculo se forem citados em outras publicações”, disse Lopes dos Santos, que integra o quadro de Coordenadores Adjuntos da FAPESP.

Mariana Broens, professora de Filosofia da Unesp de Marília, também destacou a importância de se desenvolver pesquisas em conjunto em ciências humanas e questionou a forma como a pesquisa costuma ser feita. “Será que o modelo de produção solitária, individual e contemplativa pode responder aos desafios da contemporaneidade?”, indagou.

Internacionalização da pesquisa

Outro ponto considerado delicado pelos participantes do fórum, para a maioria das áreas em humanidades, foi a questão da internacionalização da pesquisa. “Em muitas áreas, a agenda interessante de pesquisa para o Brasil pode não coincidir com a pauta internacional dominante, mas pode coincidir com as agendas regionais”, disse Lopes dos Santos.

O pesquisador também destacou especificidades da produção em ciências humanas. Escrever em português, e não em inglês, por exemplo, pode ser visto como um entrave. Mas a forma do discurso nas humanidades não seria apenas um meio de transmitir um conteúdo, e sim um elemento constituinte da própria área.

“Em certas áreas, tem-se um discurso enxuto, recheado de termos técnicos. Nas humanidades, a qualidade do texto é inseparável do conteúdo. É muito difícil que alguém que não tenha o inglês como sua primeira língua escreva com a desenvoltura ideal para usar todos os recursos expressivos da filosofia e da literatura, por exemplo”, disse.

Lopes dos Santos buscou também desmistificar a ideia de que as humanidades são preteridas pelas agências de fomento à pesquisa. Citou dados dos Estados Unidos, onde o setor recebe 9% de todo o investimento anual em pesquisa. Na FAPESP, o percentual para esse segmento é de cerca de 11%. “E em geral os projetos em humanidades têm custo menor, porque não demandam aquisições de equipamentos caros”, ressaltou.

Entretanto, tem havido poucas solicitações de financiamento para projetos de pesquisa de médio e grande porte para as humanas. “Há espaço para projetos mais arrojados, principalmente em pesquisa aplicada em políticas públicas. Mas noto uma certa timidez dos pesquisadores em propor pesquisas mais ambiciosas”, disse.

“Ousadia é a palavra que a área de humanas precisa perseguir com mais afinco”, corroborou Maria José Giannini, pró-reitora de Pesquisa da Unesp. Segundo ela, é necessário reunir competências de diferentes unidades e instituições de pesquisa.

“Um caminho para isso seria divulgar mais os projetos, buscar contatos e parcerias e utilizar melhor as ferramentas de apoio que cada instituição oferece”, disse a também conselheira da FAPESP.
Fonte:http://www.agencia.fapesp.br/materia/13195/para-alem-dos-numeros.htm

6 aplicativos para tirar o máximo dos serviços do Google

Acha que o Gmail já tem de tudo? Que Outlook e Google não se entendem? Que privacidade é uma causa perdida? É hora de conhecer alguns apps.

É bastante provável que, assim como a maioria dos internautas, você use vários recursos do Google para dar conta de suas aventuras digitais. Seja com o Calendar, o Gmail ou até os práticos aplicativos Google Docs, sua esperança de que um dia esses serviços ofereçam mais do que já provêm não cessa jamais.

Saiba que seu desejo é uma ordem. Montamos uma relação com alguns downloads rápidos e práticos para facilitar o seu dia-a-dia.

1. Turbine seu Android
O seu smartphone Android é uma extensão de seu PC e assim merece ser usado. Às vezes, você encontra uma página na internet que gostaria muito de poder revisitar mais tarde em seu smartphone.

Possivelmente isso significa copiar a URL do site em questão, colar esse endereço em uma mensagem de email e enviá-la para você mesmo. Mais tarde, quando quiser ler essa página, terá de acessar seu cliente de email a partir do gadget para ir até onde está a informação que espera.

Bem, esse é apenas um dos jeitos e, diga-se de passagem, não é o mais prático deles. Apresentamos o Chrome to Phone, uma extensão para o browser da Google.

Com esse aplicativo instalado, basta encontrar a página na web e, se desejar, chamar a extensão instalada no navegador. O Chrome to Phone se encarrega de enviar a URL pretendida até seu celular.

Mas (sempre tem um mas desses, não é?) é necessário ter instalada a versão Android 2.2, vulgo Froyo, no smartphone, além de instalar também o Chrome to Phone no aparelho Android.

2. Gmail e Outlook juntos, numa boa
Sim, as empresas Google e Microsoft enfrentam-se numa guerra feroz e, às vezes, pouco elegante. O negócio é não ser vítima dessa falta de entendimento. O Outlook não se dá bem quando é chegada a hora de se comunicar com o Gmail, com o Google Docs, com o Calendar ou com o Contacts. Mas isso está a um download de acabar.

Quem usa o Outlook e os Google Docs pode e deve baixar o Harmon.ie for Google Docs. Trata-se de uma barra lateral que se instala em seu Outlook e exibe o conteúdo de suas pastas no Google Docs.

Se desejar acessar os arquivos para editar, basta clicar. A ferramenta permite, ainda, fazer upload de arquivos diretamente em seu diretório do Docs, buscar por conteúdo de documentos do Google a partir da interface do Outlook e outras facilidades a mais.

Se achar que a única solução para viver em paz requer a união entre o Google Calendar e o Outlook, experimente usar o CompanionLink, de graça por algum tempo. Depois disso, poderá ser seu por 40 dólares.

O pacote irá sincronizar os dois calendários e combinar os contatos das agendas digitais.

3. Ei, meus dados não
O alcance da Google dentro da web é algo monstruoso. Isso causa certo desconforto em algumas pessoas, temerosas ante a possibilidade de o Google saber demais sobre os usuários.

Mas, antes de tudo, saiba que não é necessário sequer passar pelo site de buscas para ter seus dados gravados. Para tal basta entrar em um website que tenha instalado os recursos Adsense ou o Google Analytics – esses dois sujeitos se encarregam de gravar quem, ou pelo menos, o que, você é.

Se você gosta do browser Firefox, conheça Google Alarm, uma plugin para o neto do Netscape e voltado a informar sobre a transmissão de qualquer pingo de informação para o dono de um site ou para o Google.

O Google Alarm irá soar um alarme avisando que tem dados seus indo parar noutro lugar. O programa também exibe que serviços do Google o site usa e compara essa informação com o resto dos sites que visitou.

Apesar de não barrar a transmissão das informações que sua máquina envia, você saberá exatamente o que aconteceu. Serve, assim, para te avisar o que acontece debaixo do mouse pad.

4. Um Gmail melhor que o original
Se você já gosta do Gmail mas acha que poderia ficar ainda melhor, conheça o Better Gmail 2. Ele traz uma série de recursos que fazem falta no webmail de Eric Schmidt.

Um desses incrementos é exibir, na forma de ícones, o tipo do anexo. Outro, para lá de interessante, consiste em agrupar as mensagens de mesma tag em grupos que remetem a uma pasta. O Better Gmail 2 também elimina a incômoda janela de chat. Melhor de tudo é o preço. NADA.

5. Chegou e-mail para você
À espera de novas mensagens quando, sem querer fechou a janela do Gmail? Não se desespere. O Spiffy veio justamente para desobrigá-lo a monitorar mais uma aba em seu navegador.

Localizado na bandeja do sistema, o Spiffy notifica o usuário acerca de novas mensagens quando chegam na caixa de entrada do Gmail. É mais um aplicativo sem custo algum.

6. Um Instant Search para o Gmail
E quando achávamos que nada seria mais rápido que o Google quando o assunto são as buscas, eis que chega o CloudMagic.

O programa, uma extensão para os navegadores Chrome e Firefox realiza o antes impensável: vasculha o interior de sua conta Gmail mais rápido que o próprio Google.

Semelhante ao Google Instant, o CloudMagic exibe os resultados enquanto você digita.

(Preston Gralla)

Fonte:http://idgnow.uol.com.br/internet/2010/12/15/google-6-aplicativos-para-melhorar-o-que-ja-parecia-perfeito/

Estudo explica "avalanche de neurônios"

Explosões de atividade das células do cérebro funcionam basicamente do mesmo modo no sono e na vigília

Ao ler este texto, seu cérebro está sendo varrido por inúmeras avalanches, de todos os tipos e tamanhos. As mesmas avalanches acontecem quando você dorme, sonha ou manipula um objeto que nunca tinha visto antes.

Esses "terremotos" de neurônios, sugere um novo estudo, são um elemento importante para a versatilidade e a criatividade do cérebro.

Eles correspondem a explosões de atividade de neurônios, que se propagam massa encefálica afora, ganhando força -como uma avalanche de verdade.

Se o cérebro fosse um motor de carro, elas seriam equivalentes a um pé permanentemente no acelerador, pronto para fazer o veículo disparar diante de um estímulo interessante ou relevante.

"É como se o cérebro trabalhasse sempre para maximizar o número de padrões possíveis, seja sensoriais [envolvendo os sentidos], seja mnemônicos [ligados à memória]", conta o neurocientista Sidarta Ribeiro, da UFRN (Universidade Federal do Rio Grande do Norte).

Ribeiro é um dos autores da pesquisa, que acaba de sair na revista científica de acesso livre "PLoS One", junto com a dupla de físicos Mauro Copelli e Tiago Ribeiro, da UFPE (Universidade Federal de Pernambuco).

O trabalho é o primeiro a mostrar que as chamadas avalanches neuronais não são só uma curiosidade que acontece em culturas de células ou "fatias" de neurônios em laboratório, mas estão presentes durante as atividades naturais de um mamífero -no caso, uma turma de 14 ratos de laboratório.

Para espionar as avalanches neuronais dos bichos, a equipe instalou neles eletrodos capazes de medir a atividade individual das células nervosas.

Entre 100 e 150 neurônios foram monitorados para cada bicho, em regiões do cérebro ligadas ao tato, à visão e a memória.

Depois, os pesquisadores deixaram que os roedores dormissem e acordassem espontaneamente, explorando objetos que não conheciam durante as horas despertas. Também observaram o que acontecia quando os bichos eram submetidos a uma anestesia geral.

Foi preciso usar uma série de ferramentas estatísticas refinadas para analisar os dados, porque os eletrodos só registram parte das avalanches que estão ocorrendo em dado momento. Mas, com as contas feitas, a equipe se deu conta de que as avalanches eram essencialmente as mesmas em qualquer situação -menos na de anestesia.

Eles verificaram que não há um tamanho típico para as avalanches (em número de neurônios afetados). "Nossa hipótese é que elas estão vindo da ação de centros profundos do cérebro, que só são "desligados" pela anestesia", diz Ribeiro.
(Reinaldo José Lopes)
(Folha de SP, 15/12)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75374

Para o infinito e além

Após 33 anos de viagem, a nave Voyager I deixa os domínios do Sistema Solar

A nave americana Voyager 1 deixou a zona de influência gravitacional e magnética do Sol e avança sobre os limites do espaço interestelar, o mais distante que um artefato feito pelo ser humano já alcançou.

Lançada há 33 anos, a Voyager viaja à vertiginosa velocidade de 61 mil quilômetros por hora, rumo ao desconhecido. A bordo, leva um disco de ouro com mensagens para eventuais extraterrestres encontrados em seu caminho, com músicas, como o rock "Johnny B. Goode", de Chuck Berry, e um mapa ensinando como chegar à Terra, para o caso de um suposto ET querer nos visitar.

Criadas na era pré-internet, a Voyager I e sua irmã gêmea Voyager II, que a acompanha rumo ao espaço profundo, são seguidas por milhares de pessoas pelo Twitter (http://twitter.com/Voyager2). A Nasa mantém atualizados os posts com o dia a dia da viagem celeste.

Segundo a Nasa, a agência espacial dos EUA, os instrumentos da Voyager I mostram que a velocidade média do vento solar - um fluxo de partículas eletricamente carregadas expelido pelo Sol a 1,6 milhão de quilômetros por hora - chegou a zero, numa indicação de que ela deve atingir a fronteira do sistema, conhecida como heliopausa, em breve, rumando então para o espaço interestelar.

- Ela nos diz que a heliopausa não está longe - comentou Edward Stone, cientista do Laboratório de Propulsão a Jato da Nasa. - A Voyager 1 está perto do espaço interestelar. Como os cientistas não sabem qual é a extensão da heliopausa, não é possível precisar quando exatamente a sonda vai alcançar o espaço interestelar, mas as estimativas são de que isso aconteça dentro de um período máximo de quatro anos.

Quando a Voyager 1 finalmente mergulhar no espaço profundo, cientistas esperam observar uma grande alteração nos dados enviados pela nave, com seus instrumentos indicando um meio mais denso e frio. Em dezembro de 2004 a Voyager 1 ingressou numa região do espaço onde o vento solar sofre uma desaceleração abrupta pela interação com o meio interestelar e sua velocidade cai para cerca de 70 mil quilômetros por hora. Essa velocidade é semelhante à da nave, que viaja a aproximadamente 61 mil quilômetros por hora e está a 17,4 bilhões de quilômetros da Terra.

Lançadas em 1977, a Voyager 1 e sua nave-irmã, a Voyager 2, tinham como objetivo principal estudar os grandes planetas externos do Sistema Solar: Júpiter, Saturno, Urano e Netuno. Essa missão foi encerrada em 1989 com a passagem da Voyager 2 por Netuno e, desde então, as duas passaram a coletar dados sobre a heliosfera, a área do espaço ainda sob influência da ação do Sol. Os cientistas esperam que a Voyager 2, que está
a 14,2 bilhões de quilômetros da Terra, também alcance a heliopausa nos próximos anos.

Como as duas sondas são alimentadas por energia nuclear, seus instrumentos continuam a funcionar, mas, devido à grande distância, seus sinais de rádio, que viajam à velocidade da luz, demoram 16 horas para chegar à Terra.
(O Globo, 15/12)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75371

A educação no Brasil e na China, artigo de Naercio Menezes Filho

"Os chineses estão fazendo a sua lição de casa, obtendo avanços significativos nas questões mais fundamentais da sua sociedade, para torná-la mais competitiva. Enquanto isso, os brasileiros passaram o ano inteiro discutindo a taxa de câmbio"

Naercio Menezes Filho é professor Titular e coordenador do Centro de Políticas Públicas do Insper e professor associado da FEA-USP. Artigo publicado no "Valor Econômico":

Foram divulgados na semana passada os resultados do Pisa 2009, o Programme for International Student Assessment, da responsabilidade da OCDE, com o desempenho dos alunos de vários países nos exames de proficiência em leitura, matemática e ciências. Esses resultados são muito aguardados pelos países participantes pois revelam como está o aprendizado dos alunos com 15 anos de idade, fazem um ranking de países e mostram sua evolução ao longo do tempo. O que mostram esses resultados?

A grande surpresa deste ano foi o desempenho dos estudantes da província chinesa de Xangai, que participaram pela primeira vez do exame e obtiveram um desempenho espetacular. Os estudantes chineses ficaram em primeiro lugar em leitura, matemática e ciências, superando todos os países da OCDE e os demais países participantes.

Em matemática, os chineses obtiveram 600 pontos, quase 38 pontos acima do segundo colocado (Cingapura), 113 pontos acima dos Estados Unidos e 214 pontos acima da média dos alunos brasileiros. Se compararmos os alunos de Xangai com os do Distrito Federal (a unidade brasileira com melhor desempenho), a diferença é de 175 pontos. Alguém ainda tem dúvidas de que os chineses irão dominar o mundo?

O desempenho dos alunos brasileiros continua muito ruim, mas vem crescendo ao longo dos anos. Entre os 65 países que participaram do exame, o Brasil ficou em 57º lugar em matemática. Para termos uma ideia de quão crítica é a nossa situação, 70% dos alunos brasileiros estão no nível mais baixo de desempenho em matemática, em comparação com apenas 4,8% dos alunos de Xangai e 8,1% dos coreanos.

Em relação aos nossos vizinhos sul-americanos, os alunos brasileiros obtiveram um desempenho em leitura parecido com os colombianos, acima dos argentinos e peruanos, mas abaixo dos chilenos e uruguaios. E pensar que os argentinos estavam entre os povos mais educados da América Latina no início do século passado.

Entre 2000 e 2009 o desempenho dos alunos brasileiros aumentou 16 pontos em leitura, 52 pontos em matemática e 30 pontos em ciências. Assim, o maior avanço foi em matemática, disciplina em que os alunos brasileiros tinham o pior desempenho. Mas, é preciso aumentar o ritmo desse avanço, caso contrário levaremos 40 anos para alcançar o desempenho atual dos chineses.

Outro ponto importante é que o nosso aumento da proficiência em leitura ocorreu às custas de uma maior desigualdade. Enquanto o desempenho dos nossos melhores alunos aumentou cerca de 30 pontos, entre os piores praticamente não houve melhora.

Assim, a desigualdade na qualidade da educação está aumentando. Vale notar também que grande parte do avanço obtido em leitura ocorreu entre as meninas, sendo que o crescimento da nota entre os meninos foi insignificante.

Vale a pena contrapor a nossa evolução educacional com a ocorrida no Chile. Em leitura, por exemplo, o desempenho dos alunos chilenos aumentou 40 pontos, mais do que o dobro dos brasileiros. Entretanto, no caso do Chile o desempenho aumentou mais entre os piores alunos do que entre os melhores.

Assim, a qualidade da educação no Chile melhorou com queda na desigualdade, o melhor dos mundos. Por fim, a melhora ocorreu tanto entre os meninos como entre as meninas. Mas, que políticas educacionais tiveram efeito tão positivo no Chile?

Segundo o relatório do próprio Pisa, as principais políticas parecem ter sido o foco nas escolas com pior desempenho, o aumento do número de horas-aula, mudanças no currículo nacional, aumento dos gastos com educação e avaliação completa do desempenho dos professores das escolas públicas, incluindo observação do seu desempenho em classe. Os professores que forem reprovados três vezes nessa avaliação são demitidos.

Além disso, as escolas e os professores com melhor desempenho recebem mais recursos e maiores salários. Aumento de gastos com mais horas-aula, acompanhado de medidas que introduzam a meritocracia na vida escolar parece ser a receita para o sucesso.

Em suma, o desempenho dos alunos brasileiros vem melhorando na última década, graças a uma série de políticas educacionais corretas que foram sendo introduzidas por diferentes ministros, no sentido de descentralizar a gestão, criar sistemas de avaliação, divulgar os resultados das avaliações por escola e estabelecer metas para cada uma delas. Além disso, inovações nas redes estaduais e municipais de educação, principalmente aquelas com ênfase na meritocracia, tiveram um papel importante.

Entretanto, esse avanço tem ocorrido de forma lenta e puxado pelo desempenho dos melhores alunos e das meninas. Assim, enquanto a desigualdade no acesso à educação está declinando e puxando para baixo a desigualdade de renda, a desigualdade na qualidade da educação caminha no sentido contrário, o que retardará a queda na desigualdade de oportunidades.

Por fim, os resultados do Pisa mostram claramente que os chineses estão fazendo a sua lição de casa, obtendo avanços significativos nas questões mais fundamentais da sua sociedade, para torná-la mais competitiva. Enquanto isso, os brasileiros passaram o ano inteiro discutindo a taxa de câmbio!
(Valor Econômico, 15/12)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75357

CONVERSE COM AS MÁQUINAS

Fonte: Blog de Ethevaldo Siqueira de 14.12.2010
A comunicação homem-máquina evoluiu de forma surpreendente na era digital: de botões a teclado, controle remoto, identificação por meios biométricos (como impressões digitais, íris, timbre de voz, fisionomia, gestos, movimentos), síntese e comando vocal. Essa é a trajetória da comunicação homem-máquina. Ou, na linguagem dos especialistas, da interface de usuários.

Vivemos hoje uma época de humanização das interfaces. Elas nos permitem uma comunicação muito mais fácil e intuitiva com as máquinas. Como um conjunto de meios – hardware e software – que nos permite estabelecer relação com as máquinas, elas tendem a tornar-se cada vez mais amigáveis, humanizadas e intuitivas.

Há muitos exemplos dessa tendência. As modernas telas de toque (touchscreens) criam uma relação muito mais intuitiva e amigável entre usuários e smartphones (como iPhone, Xperia ou Galaxy) ou outros dispositivos portáteis (como iPods, iPads, tablets, notebooks e laptops).

Comandos por gestos

A Toshiba japonesa tem um modelo de televisor que pode ser operado apenas com movimentos das mãos e dos braços, feitos à distância de até 4 metros diante do aparelho. Os gestos são detectados por minúsculas câmeras de vídeo embutidas nesse equipamento. É um tipo de comando quase mágico, executado por movimentos (Spatial Motion Interface).

Essa interface é também usada em videogames. Em lugar de usar o tradicional joystick ou controle remoto, o usuário apenas faz movimentos com a mão e com o braço para comandar o seu videogame. Ou, diante do televisor, para selecionar canais, acessar a internet, organizar arquivos e fotos ou editar apresentações audiovisuais. Em breve, a interface de gestos ou movimentos será utilizada também por muitos outros equipamentos, como home theaters, consoles de videogames, sistemas de áudio e vídeo ou softwares aplicativos.

Na casa digital, passaremos a usar formas avançadas de identificação biométrica, pela voz, impressões digitais, íris ou fisionomia, em incontáveis situações, para o controle de seus equipamentos e sistemas.

Por ser o mais próximo da comunicação humana, mais intuitivo e natural, o comando de voz deverá ser a interface preferida das pessoas no futuro, em especial se considerarmos os avanços da síntese da voz (voice synthesizing) combinada com o reconhecimento da fala (speech recognition), que nos permitem estabelecer o diálogo homem-máquina.

Na prática, porém, a maioria das pessoas ainda parece resistir a esse diálogo. Ouvi de um jovem uma frase que resume a questão com precisão: “Sinto-me um débil mental, conversando com as máquinas”.

Como usuário, tenho ainda muitas queixas em relação às interfaces pouco amigáveis que encontramos em dezenas de aparelhos eletrônicos ou dispositivos do mundo digital, embora devamos reconhecer o avanço expressivo já obtido e incorporado pela maioria dos equipamentos eletrônicos nos últimos anos.

Interface gráfica

Nos computadores pessoais, a interface gráfica de usuário (Graphic User’s Interface ou GUI) é a mais largamente conhecida e a que tornou realmente fácil e amigável o uso de todos os aplicativos e programas dessas máquinas. A interface gráfica teve papel relevante na popularização da maioria dos softwares de PCs ao longo dos anos 1980 e 1990.

Pouca gente se lembra, quando usa esses comandos gráficos com um mouse nos computadores pessoais, que ela foi adotada primeiramente pelos computadores Lisa e Macintosh da Apple e, bem depois, pelos PCs, com os sistemas operacionais Windows, da Microsoft. Mas é preciso lembrar, também, que não foi a Apple que criou nem o mouse nem a interface gráfica de usuário dos computadores Lisa e Macintosh. Seus criadores foram Alan Kay e Douglas Engelbart, pesquisadores do laboratório de pesquisas da Xerox, o Palo Alto Research Center (Parc).

Há pelo menos 30 anos, a indústria tenta introduzir, sem grande sucesso, as interfaces de voz ou, no jargão dos especialistas, as linguagens de alto nível, mais próximas da linguagem humana. Nos primeiros anos, a razão principal desse insucesso podia ser atribuída à baixa qualidade dos softwares de voz sintética e de reconhecimento da fala.

O curioso é que, mesmo com a evolução extraordinária dessa tecnologia, a maioria das pessoas não se entusiasma por esse tipo de interface, pelo menos se houver alternativas convencionais, como o velho teclado, aos quais estamos acostumados há tanto tempo. A experiência dos celulares com comando de voz é uma prova disso. Poucos a utilizam.

Biometria

O uso de características do próprio corpo humano – impressões digitais, a palma da mão, a íris, a fisionomia ou a voz –, embora desperte curiosidade como forma avançada de interface, encontra também resistência por parte de muitos usuários.

Uma voz rouca por resfriado acaba, às vezes, impedindo a abertura de uma porta ou o reconhecimento de um usuário. Pequenas alterações da fisionomia, resultantes do envelhecimento do usuário, por exemplo, podem inviabilizar seu reconhecimento pela máquina ou sistema de segurança.

Pelo que vemos, nem todo esforço de humanização e de simplificação é aceito pelo usuário. O leitor conhece dezenas de pessoas que preferem o câmbio manual dos automóveis e não se entusiasmam pelo câmbio automático. Mas essa preferência pelo manual está caindo rapidamente, porque a tecnologia oferece soluções cada dia mais perfeitas, com economia de combustível e maior segurança.

Diálogo máquina-máquina

Quando você passa pelo pedágio automático do tipo Sem Parar, um dispositivo de seu automóvel comunica-se com o equipamento eletrônico da cancela e fornece seus dados para debitar em sua conta o valor do pedágio, usando a tecnologia dos Dispositivos de Identificação por Radiofrequencia, ou RFID (sigla em inglês Radio Frequency Identification Device). Outro exemplo: seu celular comunica-se permanentemente com a estação radiobase, informando onde ele está a um sistema de controle central da operadora.

No futuro, bilhões de dispositivos à nossa volta estarão em permanente comunicação, para controlar o trânsito das ruas, para supervisionar a segurança de prédios, empresas e residências e para outras mil aplicações. Serão, em sua maioria, microprocessadores (chips) minúsculos embutidos nas paredes, nas portas, nas roupas das pessoas, na coleira dos cães, nos relógios e celulares de estudantes e nos sistemas de vigilância que tendem a multiplicar-se dia a dia.

A função predominante desses dispositivos será proteger-nos. Mas nada nos convence de que não poderão ocorrer abusos e novas formas de violação de nossa privacidade. Nesse caso, estaremos diante da desumanização das interfaces.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_12_15&pagina=noticias&id=06172#

O GOOGLE ACHOU A FLORESTA

Fonte: Aline Ribeiro, Revista Época e SBEF NEWS de 13.12.2010
Quem é o cientista brasileiro que ensinou o gigante de buscas a acompanhar o desmatamento no mundo
A rotina profissional do cientista Carlos Souza, de 43 anos, é indecifrável para grande parte dos mortais. Seu escritório em Belém, no Pará, é repleto de computadores com telas grandes, que estampam mapas coloridos e imagens feitas por satélites. Suas conversas diárias com a equipe giram em torno de siglas incompreensíveis – como SAD e Prodes (dois sistemas de monitoramento por satélite). Desse mundo enigmático saiu a base de uma ferramenta crucial para o futuro das florestas. Ela é capaz de detectar os primeiros sinais de desmatamento nos mais remotos territórios da Amazônia. Até a semana passada, a plataforma estava disponível só para o Brasil. Graças a uma parceria entre Souza e o gigante de internet Google, países de todo o planeta vão poder vigiar suas reservas florestais. “É uma tecnologia nacional em prol da conservação no mundo”, afirma Tasso Azevedo, consultor do Ministério do Meio Ambiente.

O Google Earth Engine, como é chamada a plataforma, funciona como uma espécie de camada do Google Earth, a ferramenta que usa imagens de satélite para mapear a Terra. Baseia-se em 25 anos de dados coletados pelo Landsat, a maior série de satélites em órbita no Universo. O usuário entra na internet e digita o lugar e o período de interesse. Em segundos, o programa apresenta uma espécie de fotografia da área, inclusive do naco de floresta derrubada. Uma das ideias com o sistema é criar um ambiente virtual que permita aos leigos fazer análises do desmatamento de maneira colaborativa – uma rede social de monitoramentos. Hoje, o monitoramento por satélites é feito por dois centros: o Instituto do Homem e Meio Ambiente da Amazônia (Imazon), do qual Souza é pesquisador sênior, e o Instituto Nacional de Pesquisas Espaciais (Inpe). Mas as informações ficam restritas aos cientistas. Com o Google, qualquer pessoa vai poder se tornar fiscal de florestas. E o tempo de análise de dados vai ser reduzido.

Souza começou a vigiar as florestas por acaso. Formado em geologia pela Universidade Federal do Pará (UFPA), sonhava em se especializar em prospecção de petróleo, um combustível fóssil poluente. Até que foi apresentado por um amigo aos criadores do Imazon. A conversa fluiu, e ele acabou enveredando para as causas ambientais. “Se não tivesse conhecido o Imazon, provavelmente estaria na prospecção do pré-sal.”

A parceria com o Google brotou em junho de 2008 do que Souza chama de “uma conversa de elevador”. Ele estava em Brasília para um workshop do Google sobre monitoramento de terras indígenas e puxou papo com Rebecca Moore, cientista da computação e gerente do Google. O resultado das conversas, a versão final do Google Earth Engine, foi lançado na quinta-feira passada em Cancún, no México, no encontro das 194 nações que tentam chegar a um acordo para conter o aquecimento do planeta. A data não poderia ser mais apropriada. Não há como chegar a uma solução para clima sem discutir a preservação das florestas tropicais. Árvores em fase de crescimento tiram da atmosfera o carbono, um dos gases que esquentam o planeta. Quando derrubadas, elas liberam os gases estocados. E o sistema criado por Souza (e endossado pelo Google) permite aos países combater com mais agilidade o desmatamento.

A derrubada de florestas já é responsável por 17% do total de emissões globais de gases do efeito estufa. Os negociadores do clima precisam aprovar um mecanismo que permita aos países ricos compensar as nações que reduzam o desmate. É a Redução de Emissões por Desmatamento e Degradação, ou Redd. A conversa estava emperrada porque as nações ricas alegavam que as pobres não dispunham de uma ferramenta transparente, isenta e eficaz para comprovar a queda do desmatamento. Era verdade. Só o Brasil contava com a tecnologia de monitoramento. Com o lançamento do Google, a desculpa não faz mais sentido. “Já viramos a página do gargalo técnico”, afirma Souza. “A questão agora é política.

Fonte:http://www.sbpcpe.org/index.php?dt=2010_12_15&pagina=noticias&id=06172#

ALEMÃES SUGEREM TÉCNICA QUE CURARIA AIDS

Fonte: Folha de São Paulo de 15.12.2010
Em um teste, vírus desapareceu do corpo de paciente americano

Ainda é tudo muito preliminar e os próprios cientistas estão com um pé atrás, mas cientistas alemães acreditam ter evidências de que curaram um paciente americano com Aids utilizando células-tronco adultas.

Timothy Ray Brown, de 44 anos, que vive em Berlim, tinha também leucemia, e por isso recebeu as células-tronco, retiradas da medula óssea de um doador.

O doador das células que Brown recebeu no transplante tinha uma mutação: não produzia a proteína CCR5, fundamental para a multiplicação do vírus HIV no organismo humano.

O transplante foi feito em 2007. O paciente foi acompanhado pelos pesquisadores da Universidade de Medicina de Berlim. Em 2009, eles publicaram um artigo científico que falava em "sumiço" do vírus HIV. Agora, na revista científica Blood, já falam de "evidência de cura".

Os pesquisadores lembram que, como o estudo envolve somente um paciente, é necessário ter cautela antes de dizer com certeza que se conseguiu uma cura para a Aids. É necessário repetir o trabalho muitas vezes ainda para que se tenha conclusões mais concretas.

Além disso, transplantes de medula são arriscados. Brown, por ter leucemia, teria de fazer um de qualquer jeito, mas submeter pacientes com Aids a ela seria perigoso, ainda mais sabendo que hoje é possível sobreviver muitos anos com Aids.

Fonte:http://www.sbpcpe.org/index.php?dt=2010_12_15&pagina=noticias&id=06172

quarta-feira, 15 de dezembro de 2010

Bem-vindo à era do Business Analytics ou BA

Mercado de análises preditivas e em tempo real começa a mostrar sua força.
Por RODRIGO AFONSO
Faz algum tempo que os softwares de análise ganharam destaque no mercado corporativo. Ano após ano, as ferramentas de Business Intelligence (BI) vêm aparecendo com destaque nas listas de prioridades dos CIOs divulgadas por organizações de estudo de mercado e consultorias globais como Gartner, IDC e Forrester. No radar das empresas está o poder que essas soluções têm de desenhar cenários e auxiliar o processo de tomada de decisão.

Com o passar do tempo, o avanço das redes sociais e a montanha de informações provenientes de diversas fontes fizeram com que os dados localizados nos servidores das empresas já não fossem mais suficientes para elaborar análises que, de fato, proporcionassem diferenciais competitivos. E as informações do passado, oferecidas pelo BI, passaram a não ser mais suficientes. É necessário ter dados colhidos e analisados em tempo real, que gerem informações preditivas com base em modelos matemáticos e estatísticos altamente sofisticados. Esse tipo de informação já começa a ser encarada como a única capaz de auxiliar a tomada de decisão na velocidade que o mercado pede. Nasce aí o conceito de BA (Business Analytics). No Brasil, uma realidade ainda distante – já que aqui a maioria das empresas continua às voltas com a implantação de projetos tradicionais de business intelligence, que demandaram investimentos vultosos e só agora começam a dar os primeiros resultados – mas que também começa a se impor.

Falar em análises preditivas de negócios já não causa estranhamento e ceticismo nas empresas brasileiras. Algumas até começam a arriscar os primeiros passos. Em especial, aquelas que ainda não implantaram BI.

“Ter um roadmap para adoção de BA é algo que, mais dia, menos dia, entrará no radar dos líderes de TI”, afirma o sóciodiretor da TGT Consult, Pedro Bicudo.

O problema, para Bicudo, é que a maioria das organizações não sabe lidar com arquitetura da informação. “Não adianta investir em soluções sofisticadas sem se preocupar em buscar excelência na área de arquitetura, em zelar pela qualidade da informação”, diz Bicudo. Em outras palavras: alimentar o BI e o BA com uma boa base de dados padronizados, bem estruturados, tomando como parâmetro as respostas que a empresa procura. A formação e a organização dessa base de dados é a parte mais importante do processo de implantação. Para entender um pouco o que se pode obter com BA, basta olhar para os setores que têm a tecnologia no DNA dos negócios e possuem um histórico de pioneirismo na adoção de ferramentas inovadoras. Na área financeira, por exemplo, é perceptível a forma como seguradoras e bancos conseguem informações em tempo real para estabelecer valores de apólices, limites de crédito e até identificar padrões de comportamento que poderiam estar relacionados a fraudes.

O que essas companhias fazem? Estruturam bem seus dados, compartilham bases com outras empresas e não perdem a oportunidade de obter informações. Além disso, possuem formas estruturadas de recolher indicadores de mercado e fatores de mudança em tempo real para adaptar melhor seus produtos às condições do mercado. Não é à toa que o crédito disponível na conta bancária das pessoas físicas varia diariamente, assim como as cotações de preços de seguros diversos.

Como iniciar

Uma boa forma de começar sem pensar em grandes investimentos iniciais é procurar por serviços analíticos. Realizados por empresas com expertise tecnológica e orientadas a trabalhar de acordo com objetivos de negócios, pode ser uma opção. “O tipo de informação que pode ser comprada sob demanda é aquela associada a uma meta de negócios muito específica, na qual é necessário ‘espremer’ uma grande quantidade de dados para se chegar a alguma análise”, avalia Pedro Bicudo. “O interessante, nesse caso, é que não é necessário manter matemáticos e especialistas em algoritmos dentro de casa, o que costuma sair muito caro”, completa. É, sem dúvida, um dos caminhos mais adequados para pequenas e médias empresas sem poder de investimento para manutenção de soluções preditivas in house, com o alto grau de sofisticação que a tecnologia hoje permite. Mas, entre as grandes corporações, há resistências.

A grande barreira é cultural, já que essas empresas não gostam muito de ver suas informações circularem fora de suas paredes. Além disso, existe aquela percepção de que, já que as informações estão dentro do próprio data center, o melhor seria realmente fazer em casa. De acordo com Daniel Lázaro, líder de serviços de gerenciamento de informação para América Latina da Accenture, as iniciativas mais bem-sucedidas são feitas de forma bem localizadas, pensando na solução de algum problema de negócio. A metodologia proposta pelo executivo começa com um diagnóstico da situação atual, do valor que uma análise aprofundada pode gerar, dos tipos de tecnologias necessárias in house, para só depois partir para alguma execução. Para Lázaro, iniciar com análises bem pontuais, para depois espalhar isso para o resto da organização, se mostra muito viável à medida que permite o que o executivo chama de “pensar grande, começar pequeno e evoluir rápido”.

Kátia Vaskys, líder da área de consultoria em business analytics da IBM Brasil, concorda que o ponto de partida é sempre o negócio em si, em função de uma meta específica. A chave, segundo a executiva, é ter planejamento e entender que tipo de informação pode realmente ajudar a provocar mudanças positivas.

“O grande erro cometido por muitas organizações é pensar em soluções e infraestrutura para abrigar essas soluções, sem o mínimo alinhamento com objetivos do negócio”. Deve-se levar em conta que, para objetivos diferentes, as necessidades mudam. A estruturação de informações necessárias para se conhecer mais profundamente o cliente da companhia e aumentar a receita extraída de cada um é diferente da que seria necessária para aumentar a penetração no mercado em regiões diferentes, por exemplo. Por isso, a tecnologia, por si só, não resolve.

Mídia social

O fato de as discussões acerca de Business Analytics terem avançado deve-se muito à expansão das redes sociais e ao mar de informações que o uso intensivo dessas ferramentas acaba gerando. Com informações mais evidentes, as companhias passaram a perceber que poderiam reduzir muito o tempo para entender o retorno de algumas ações. Os primeiros sinais de alerta vieram das áreas de marketing e de relacionamento com o cliente.

O vice-presidente sênior e principal executivo de marketing da companhia de soluções analíticas SAS, Jim Davis, dá um exemplo: recentemente, a marca de vestuário GAP resolveu mudar sua logomarca. Não demorou muito para descobrir que ela estava sendo criticada nas redes sociais. O resultado foi a volta para a logomarca anterior, buscando restabelecer o vínculo com os clientes. Segundo Davis, a companhia não tinha uma forma estruturada de analisar as redes, mas nesse caso a repercussão foi muito óbvia. “Se as redes não existissem, provavelmente a empresa teria contratado uma agência para realizar pesquisas e descobrir, depois de doze meses sendo mal falada nos círculos sociais, que o seu novo logo era odiado.”

Ocorre que nem todos os movimentos das redes sociais fica tão evidente quanto nesse caso específico da GAP, marca de projeção mundial. A própria SAS anunciou, recentemente, uma ferramenta para Twitter que identifica postagens em tempo real e avalia quais têm potencial de influenciar toda a rede. A meta é permitir que as organizações respondam mais rapidamente a questões relacionadas a sua marca.

Segundo a SAS, o grande trunfo do software está no fato de reconhecer o nível de influência de um usuário do Twitter medindo volume de conteúdo criado e a frequência com a qual ele interage com outros usuários. Assim, o conteúdo é classificado de acordo com uma lista de tópicos para determinar com qual área da companhia ele está alinhado, como relacionamento com cliente, relações públicas e controle de qualidade. O lançamento será em janeiro de 2011. A IBM, por meio de sua divisão Business Analytics Optimization (BAO), também já trabalha em tecnologias parecidas. Segundo declarações recentes de executivos da companhia, a promessa é lançar soluções para redes sociais e para a internet, como um todo, com capacidade de analisar imagens e textos de forma mais precisa, de um jeito mais parecido com o que hoje se faz com números.

Pedro Bicudo classifica esse novo paradigma com a frase “a internet é o banco de dados”, parafraseando aquele slogan visionário da Sun, dos anos 90, que já adiantava que “a rede é o computador”, referindo-se a conceitos mais modernos de infraestrutura.

Hoje, a computação em nuvem já deixou de ser tendência e consolidou-se como um conceito que em breve será o dominante. Talvez o mesmo aconteça no campo dos softwares analíticos. Resta aos líderes de TI apostar em um planejamento para tirar proveito do que já está disponível hoje e observar de perto o desenvolvimento da indústria para identificar rapidamente o que será capaz de trazer diferenciais competitivos.

Fonte:http://computerworld.uol.com.br/gestao/2010/12/15/bem-vindo-a-era-do-business-analytics-ou-ba/

Artigo: 2011, o ano em que poderemos dar adeus à liberdade na internet

Cada vez mais governos e instituições parecem controlar o uso da web, caso de países como China e Estados Unidos.

Este artigo de final de ano é, acima de tudo, um modesto olhar sobre o que vejo e imagino para o futuro. Afinal, estamos prestes a começar 2011, e ao que tudo indica, será um ano decisivo para a Internet e para todo o seu grande potencial livre.

Ao longo de sua história, a Internet tem sido essencialmente livre de regulamentação governamental. Embora existam exceções - alguns países estão trabalhando bastante para controlar o conteúdo online.

Mas, sem dúvida, tem sido profundo o impacto da Internet sobre a indústria da música e do cinema, jornais, entretenimento, privacidade, transparência de governo (voluntária ou não) e educação.

Claro, existem muitas pessoas que não estão felizes com estas mudanças, muitas vezes, impostas pela web. Por alguns anos, a indústria dos direitos autorais protestou bastante contra a Internet. Ainda que alguns indivíduos tenham realmente tido dores de cabeça, nada realmente mudou para a maioria, pelo menos até o momento.

Entrentato, os esforços para controlar a rede de outras maneiras estão começando a crescer.

Governos x Internet

Um exemplo recente foi o evento ITU Plenipotentiary Conference, em Guadalajara, no México, onde ocorreu uma grande discussão sobre a possibilidade de extender à Internet o regime regulatório dos sistemas mundiais de telefonia. Mas, no final, o encontro terminou sem a conclusão de um regulamento global.

Uma outra tentativa surgiu com a Comissão para Ciência e Tecnologia das Nações Unidas, que votou no sentido de estabelecer um comando único, nas mãos do Fórum para Governança da Internet - um grupo responsável por discutir questões na web relacionadas, principalmente, a direito de imagens.

Agora, um grupo, constituído por países integrantes da ONU, investigará como ajustar a IGF para este comando. Sinceramente, não é preciso muita imaginação para prever o provável resultado.

Afinal, os governos, em geral não gostam muito da internet ou pelo menos de atividades online que eles não controlam. Alguns, como a chinês, por exemplo, estabeleceram inúmeras restrições aos websites de seus próprios países. Um caso recente é a Venezuela.

Uma possível reestruturação da Internet permitiria a cada país gerenciar o conteúdo de tal forma que se tornaria difícil descobrir o que está acontecendo ao redor do mundo.

Mas não temos de esperar a ONU para refletirmos sobre o futuro. Recentemente, o governo dos EUA tirou do ar uma série de domínios, sem qualquer notificação oficial aos proprietários.

Caso semelhante pode ter ocorrido caso o governo dos EUA tenha realmente pressionado o PayPal e a Amazon para interromper seus serviços ao WikiLeaks, novamente, sem a utilização de nenhum meio legal.

Você não tem de ser um fã do WikiLeaks para entender que deixar o governo dos EUA decidir sozinho, sem nenhum processo jurídico como o definido pela Constituição, não é um caminho para a liberdade. Além disso, a FCC votará um novo marco regulatório para a internet no dia 21 de dezembro – e o conteúdo está sendo mantido longe dos holofotes.

Posso estar sendo um pouco alarmista, mas os sinais indicam que a Internet do futuro não será igual àquela que um dia conhecemos, a não ser no nome. Feliz Ano Novo.

(Scott Bradner)

Fonte:http://idgnow.uol.com.br/internet/2010/12/14/artigo-2011-o-ano-em-que-poderemos-dar-adeus-a-liberdade-na-internet/

"Nasce um trouxa por minuto", diz Stallman sobre usuários do Chrome OS

Por ITworld/EUA
Fundador da Free Software Foundation alerta sobre os perigos legais do sistema e a fragilidade de se confiar dados pessoais à computação em nuvem.

O fundador da Free Software Foundation criticou o Chrome OS, da Google, dizendo que ele forçará os usuários de PC a colocar seus dados em risco, já que eles serão armazenados na nuvem e não na sua máquina pessoal.

Richard Stallman, que também criou o sistema operacional GNU, afirmou ao The Guardian que o sistema vai “empurrar as pessoas no caminho da computação descuidada” já que, ao guardar seus dados na nuvem, os usuários de PC perderão os direitos legais sobre seus dados e a capacidade de controlá-los.

“Nos Estados Unidos, você até perde direitos legais se armazenar seus dados nas máquinas de uma empresa em vez de suas próprias”, afirmou.

“A polícia precisa apresentar a você um mandado de busca se quiser obter seus dados; mas se eles estiverem armazenados no servidor de uma companhia, a polícia poderá obtê-los sem mostrar nada a você. Eles podem até nem precisar mostrar um mandado à empresa.”

Stallman disse esperar que muita gente “continuará a adotar o modelo de computação descuidada, porque a cada minuto nasce mais um trouxa no mundo”.

“No entanto, se um número suficiente de pessoas continuar a manter seus dados sob seu próprio controle, nós ainda poderemos fazê-lo. E é melhor que seja assim, senão a opção poderá desaparecer.”

Sistema engessado
Stallman sustentou que, na essência, o sistema da Google é “o sistema operacional GNU/Linux. Contudo, ele é entregue sem as aplicações de costume, e engessado de forma a impedir e desestimular a instalação de aplicações.”

Oficialmente, a Google mostrou seu sistema na semana passada, cerca de dois anos depois de ter sua existência anunciada.

O sistema, que atualmente tem sido testado por empresas e por um pequeno grupo de consumidores, guarda o menor número possível de dados dentro da máquina. Em vez disso, ele se apóia em uma conexão à Internet para armazenar dados nos servidores da Google.

A Google ainda precisa revelar se ou quando terá planos de produzir seus próprios laptops rodando o sistema operacional.

No entanto, espera-se que as primeiras máquinas com o sistema, produzidas pela Acer e pela Samsung, estejam disponíveis em meados de 2011.

(Carrie-Ann Skinner)

Fonte:http://idgnow.uol.com.br/computacao_pessoal/2010/12/15/para-stallman-chrome-os-estimula-descuido-com-dados-pessoais/

Programas falsos para manutenção do HD infestam a internet

Techworld.com
14-12-2010
(John E. Dunn)
Programas alertam o usuário sobre suportos problemas no HD e prometem, mediante pagamento, fazer o que o Windows faz automaticamente.

Uma avalanche de aplicativos scareware que enganam os usuários, fazendo-os comprar falsos utilitários de reparo de HD, parece fazer parte de uma campanha orquestrada para empurrar falsos programas de “defrag”, alertou uma empresa de segurança.

A Internet está repleta de utilitários para Windows, geralmente gratuitos, e alguns não muito bons. Usuários costumam ter um apetite insaciável por eles.

Mas, de acordo com o blog da empresa GFI-Sunbelt Security, um novo tipo de software para HD tem-se tornado muito comum, dado o grande número de exemplos surgidos nas últimas semanas.

Os usuários que encontrarem programas com nomes como HDDRepair, HDDRescue e HDDPlus deveriam ignorá-los. Eles são aplicativos falsos que prometem desfragmentar o disco rígido do usuário - mesmo que o trabalho de desfragmentação dificilmente seja necessário, já que o Windows faz boa parte desse trabalho nos bastidores.

Os apps, no entanto, avisam que o HD do usuário está recheado de problemas. Exemplos anteriores são UltraDefragger, ScanDisk, Defrag Express e WinHDD. Resolver o problema que não existe pode custar 20 dólares ou mais.

Menos conhecidos
Tais apps têm estado em circulação por algum tempo, mas são bem menos conhecidos quando comparados aos programas antivírus falsos que causaram caos na Internet nos últimos dois anos.

O fenômeno do software falso está agora profundamente enraizado na Internet e os criminosos têm até imitado o modo como as empresas de segurança criam programas de segurança de uso geral. Os apps falsos adotam táticas de semelhança de nomes “inventando” marcas como PCoptimizer, PCprotection Center e Privacy Corrector.

Uma rápida investigação no Google revela que todos os exemplos de scareware já citados são fáceis de encontrar. Assim, como um usuário pode separar o real e útil do falso e caro?

Dependendo do tipo de app, algumas vezes é mais fácil consultar listas de apps reais do que se aborrecer procurando quais deles não são genuínos.

Como lembra o autor do blog, é possível verificar a autenticidade de alguns produtos em sites como o Virus Total. Ele permite que arquivos e URLs sejam pesquisados em listas de sites falsos.

A empresa de certificação ICSA Labs também publica uma lista com fornecedores de software conhecidos.

Estes sistemas, no entanto, não são perfeitos. As URLs falsas mudam constantemente e podem não ser detectadas pelo Virus Total, por exemplo.

Fonte:http://pcworld.uol.com.br/noticias/2010/12/14/programas-falsos-para-manutencao-do-hd-infestam-a-internet/

A alma de uma máquina antiga, artigo de Alysson Muotri

"Parte da diferença entre as habilidades cognitivas humanas, aquilo que gera um Picasso ou um Einstein, pode muito bem ser uma loteria literalmente"

Alysson Muotri é biólogo molecular, pós-doutor em neurociência e células-tronco e professor da Faculdade de Medicina da Universidade da Califórnia (EUA). Artigo publicado no "G1":

Após uma década do anúncio do genoma humano, diversos resultados incríveis foram obtidos: do genoma Neandertal até um organismo sintético, só pra citar os mais óbvios. Mas a consequência mais intrigante dessas pesquisas foram resultados da genômica comparativa.

A comparação entre sequências dos diversos genomas permitiu começar a encontrar pistas sobre a essência do humano moderno, as variações que distinguem o Homo sapiens dos outros animais, inclusive de outros humanos. Nessas variações genéticas estariam o segredo que fez com que nossa espécie florescesse.

Mas a genômica pode fazer mais do que isso. Comparando as sequências de pessoas vivas, é possível acompanhar como as pressões evolutivas atuaram durante nosso passado recente. Junto aos dados antropológicos sobre a migração humana fora da África, podemos refinar essas informações para ter uma visão mais precisa da evolução dos diferentes grupos humanos, inclusive de fatores que nos tornam diferentes, como inteligência e comportamento.

Esse tipo de genômica já vem sendo aplicado, ainda que de forma tímida. Deixamos apenas de pesquisar os riscos genéticos de doenças entre grupos humanos e estamos olhando para outros fenótipos, como personalidade, propensão religiosas, habilidade de investimento.

A árvore genealógica dos africanos e seus descendentes, começa no nordeste africano. Muitas evidências apontam para aquela região como o local que de surgimento do Homo sapiens. Para pessoas sem origem africana recente, a jornada começou a partir de um gargalo evolutivo cerca de 60 mil anos atrás, que se abriu em migrações humanas para o resto do mundo.

O gargalo corresponde aos pioneiros que cruzaram o estreito de Bab El Mandeb e começaram a popular o planeta. Até então, existiu pouco cruzamento entre esses grupos pioneiros, permitindo que diferenças locais emergissem.

Essas diferenças acontecem por mutações genéticas ao longo do tempo. Muitas serão aleatórias, mas outras serão produtos da seleção natural. Não é fácil distinguir qual é qual, mas algumas das alterações encontradas são óbvias: estão em genes envolvidos em pigmentação da pele ou tipo de cabelo. Essas alterações são marcadores conhecidos de regiões geográficas distintas, que foram selecionadas por fornecer vantagens de sobrevivência em determinado ambiente.

Da mesma forma, alterações foram encontradas em genes que conferem resistência a determinados patógenos. Malária, tuberculose e pólio deixaram cicatrizes no genoma de algumas populações humanas e nos permitem reviver a história.

Interessante notar que a mesma tecnologia pode ser aplicada para fatores cognitivos como criatividade e inteligência. Quando esse tipo de resultado começar a ser publicado, os velhos argumentos sobre genes e ambiente terão que ser repensados. Além disso, se a interpretação de nossos dados publicados recentemente (Muotri et al, Nature 2010) estiver realmente correta, o problema pode ficar ainda mais complexo.

Nesse trabalho, mostramos que a propensão para doenças mentais com variações cognitivas podem ser geneticamente determinadas de uma forma não hereditária. Estudamos elementos do genoma conhecidos como L1 retrotransposons. Os elementos L1 são pedaços de DNA vulgarmente chamados de "genes saltadores". Esses elementos representam cerca de 20% do genoma humano e a maioria dos pesquisadores os consideram como "DNA lixo" ou mesmo "parasitas genéticos", genes-egoístas.

Os L1s são estruturas antigas do genoma, anciões genéticos. Estão presentes na maioria dos genomas dos organismos vivos. Sobrevivem ao duplicar-se e inserir novas cópias em outros locais do genoma, escapando de mecanismos moleculares de defesa, criados durante a evolução para frear a expansão dos L1 no núcleo celular. Em 2005 mostramos que isso acontece com muito mais frequência durante o desenvolvimento do sistema nervoso.

Nessa "guerra" silenciosa que acontece no genoma de cada neurônio, a cada vitória de uma nova cópia de um retroelemento, surge a chance de alterar a função celular. Isso porque ao inserir-se no genoma, os novos L1 podem causar pequenas perturbações em genes vizinhos, afetando como o neurônio se comporta.

No trabalho recente, mostramos que mutações num gene chamado MeCP2, envolvido com síndromes do espectro autista, bi-polar e esquizofrenia, podem alterar a frequência dos genes saltadores no cérebro. Mas qual seria a consequência disso? Nossa interpretação é que o cérebro de cada pessoa é esculpido durante o desenvolvimento por um processo de seleção natural.

Neurônios são selecionados pela habilidade de fazer conexões e gerar redes neurais funcionais. Se em todas as pessoas esse processo fosse idêntico, não haveria variabilidade cognitiva alguma.

Mas, ao adicionarmos um fator aleatório para a seleção agir, como as novas cópias de L1, deixamos o processo variável. Ao identificarmos um mecanismo molecular que regula esse processo no cérebro de pessoas portadoras do espectro autista, especulamos que isso possa contribuir para as "habilidades" inerentes desses indivíduos, muitas vezes superior à média da população humana.

Parece uma proposta ousada - mas não é. O sistema imunológico também usa um sistema de mutação aleatória no DNA para gerar a variabilidade necessária nas células que reconhecem os milhares de patógenos que nos atacam diariamente. E mais, os dois sistemas (nervoso e imunológico) estão em constante interação com o ambiente, buscando um equilíbrio.

Se nossa hipótese estiver correta, levará a uma ironia um tanto desconfortável. Ninguém duvida que inteligência e criatividade possuem fatores genéticos. Estudos com gêmeos idênticos e não-idênticos já provaram isso antes. Também, ninguém questiona as forças de uma boa educação e um ambiente favorável.

Mas parte da diferença entre as habilidades cognitivas humanas, aquilo que gera um Picasso ou um Einstein, pode muito bem ser uma loteria literalmente. E essa loteria genômica durante o desenvolvimento pode ter sido responsável pela vitória evolutiva do Homo sapiens, gerando indivíduos capazes de liderar grupos humanos nas mais difíceis situações ambientais.
(G1, 10/12)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75342

Um terço dos professores leciona sem curso superior

Plano prevê formar 400 mil, mas não vai zerar defasagem

Quase um terço dos professores da educação básica das redes pública e particular do Brasil não tem formação adequada. Do total de 1,977 milhão de docentes, 636,8 mil - 32,19% - ensinam sem diploma universitário. De acordo com dados de 2009 do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep), o quadro piora nas regiões mais pobres do país.

Dos cerca de 600 mil professores do Nordeste, metade não tem ensino superior. Na Bahia e no Maranhão, mais de 60% dos profissionais do magistério não cursaram a universidade. Nos estados da região Norte, os docentes apenas com ensino médio e fundamental somam 76,3 mil, número que representa 45,98% do total. Dos 70,7 mil professores do Pará, 39,7 mil (56,14%) apresentam formação inadequada. No Sul, Sudeste e Centro-Oeste, a taxa média dos sem-diploma é de 20% de um total de 1,213 milhão de docentes.

Nos últimos dez anos, o país reduziu em 17 pontos percentuais a taxa de professores sem curso superior. Dados do Inep de 1999 mostram que 49,3% dos 2,338 milhões de docentes do ensino básico não eram formados na universidade. No Norte e Nordeste, a média dos profissionais sem diploma era de 75,29% e 71,55%, respectivamente. Segundo especialistas, o lento avanço na formação inicial de professores se deve à execução de políticas esparsas, que não contavam com integração entre as diferentes esferas de governo.

Na avaliação de educadores e autoridades, a defasagem de escolaridade no magistério é um dos problemas mais graves da educação brasileira. Afeta diretamente - para baixo - os resultados de indicadores que medem a qualidade do ensino. "Uma escola funciona sem certos equipamentos, sem diretor, sem um monte de gente, mas não sem professor", raciocina Ocimar Munhoz Alavarse, professor da Faculdade de Educação da Universidade de São Paulo (USP).

Os números desenham bem o problema. Quanto maior o percentual de docentes com formação inadequada, menor é a nota do Índice de Desenvolvimento da Educação Básica (Ideb). Os piores estados em formação, como Bahia, Maranhão e Pará, tiveram as piores médias do Ideb para ensino médio, entre 3 e 3,3. Por outro lado, Mato Grosso do Sul, São Paulo e Paraná, que sustentam os maiores percentuais de professores com terceiro grau, estão posicionados na parte de cima da tabela do Ideb, com notas que vão de 3,8 a 4,2.

Para tentar resolver o problema, em 2009, o governo federal enviou ao Congresso projeto de lei (PL 280) que torna obrigatória a formação universitária do docente para todas as etapas do ensino básico, do infantil ao médio, e lançou um Plano Nacional de Formação de Professores (Parfor), sob a responsabilidade da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), em parceria com estados e municípios.

A nova política prevê a abertura de 400 mil vagas em licenciaturas exclusivamente para professores das redes municipais e estaduais com defasagem de escolaridade em cerca de 150 universidades federais, estaduais, comunitárias e instituições de ensino a distância de 25 estados. Estima-se um gasto de R$ 2 bilhões em três anos.

As inscrições no plano de formação são feitas pela internet na Plataforma Paulo Freire e dependem de aprovação das secretarias municipais e estaduais de Educação. Em seguida, a demanda é encaminhada às universidades participantes, que recebem recursos federais para abrir os cursos. A Capes prevê o preenchimento de cerca de 50 mil vagas, presenciais e a distância, no primeiro semestre de 2010.

Apesar dos esforços, o diretor de educação básica da Capes, João Carlos Teatini, admite que a meta de zerar o número de professores sem formação superior pode levar dez anos. Segundo ele, é preciso levar em conta que o tempo médio de conclusão dos cursos do plano de formação é de três anos e país continua contratando professores sem diploma universitário. Em 2009, o estoque de docentes da educação básica apenas com o ensino médio ficou bem acima do objetivo do plano, em cerca de 625 mil - 22% mais que os 510,8 mil profissionais registrados nas redes pública e particular um ano antes.

"Esperamos fechar 2010 com 100 mil entradas desde o início do Parfor, no segundo semestre de 2009. O maior desafio é mobilizar estados e, principalmente, municípios. Eles precisam levantar a demanda e garantir as condições para que o profissional fique no programa, o que nem sempre acontece. Por isso foram criados os fóruns estaduais permanentes de apoio à formação", afirma Teatini.

Na Bahia, onde mais de 100 mil professores não têm diploma universitário, 12,5 mil profissionais da rede estadual estão matriculados no plano de formação. Cada um deles recebe cerca de R$ 500 extras no contracheque para custear os gastos de locomoção, hospedagem e alimentação durante o curso.

"Temos 417 municípios e apenas 32 têm universidades. Esse auxílio é muito importante para o sucesso da política. Há muitas prefeituras que não liberam recursos e inviabilizam a obtenção do diploma", conta Penildon Silva Filho, responsável pela área de formação da Secretaria Estadual da Educação da Bahia.

Segundo ele, a defasagem de escolaridade está concentrada na rede municipal. "Pelos nossos levantamentos, 7,5 mil professores da rede estadual e 58 mil da rede municipal estão aptos para participar do Parfor." No âmbito dos fóruns permanentes, governos estaduais e a Capes estudam ajudar as prefeituras a custear bolsas para o plano de formação.

Além do problema da formação inicial, João Carlos Teatini levanta outro problema: 300 mil professores com formação superior atuando fora da área de formação. Esses também estão credenciados a entrar no Parfor. "São licenciados em física dando aula de matemática, graduados em pedagogia lecionando língua portuguesa. Isso gera um prejuízo enorme no aprendizado."

É o caso de Georgia Juli Souza, professora da rede estadual no município baiano de Itabi, na região de Anápolis. Formada em geografia, ela dá aula de educação física. "Houve uma reformulação no quadro de professores da escola e ficou faltando um professor. A escola não ia abrir concurso só para essa vaga, alguém tinha que assumir. Eu fui escolhida para completar minha carga horária", lembra.

No começo do ano, ela se inscreveu na Plataforma Freire para a licenciatura em educação física. Uma semana por mês ela viaja para Anápolis, onde estuda, em período integral, de segunda a sábado, com gastos cobertos pelo estado direto no salário.

"Não gosto de entrar em outras disciplinas, mas como tive que entrar é melhor estar preparada. Antes não tinha noção, as aulas eram mais recreativas. Agora tenho mais responsabilidade, trabalho com metodologia, pensando no bem-estar e no desenvolvimento dos alunos dentro da escola", conta Georgia.
(Luciano Máximo)
(Valor Econômico, 14/12)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75326