Translate

sexta-feira, 14 de janeiro de 2011

UFJF em 18º no ranking do MEC

A Universidade Federal de Juiz de Fora (UFJF) ocupa a 18ª colocação entre 102 instituições públicas de ensino superior do Brasil, de acordo com o Índice Geral de Cursos (IGC) 2009, divulgado ontem pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) do Ministério da Educação (MEC). Das 20 federais mais bem posicionadas, nove são de Minas, e sete entidades que participarão do consórcio para a formação da superuniversidade mineira estão entre as 30 melhores. Considerando a classificação geral de 180 universidades, incluindo as privadas, a UFJF fica em 20º lugar. Em todo o país, foram avaliadas mais de duas mil instituições.

A classificação avaliou a qualidade de cursos de graduação, mestrado e doutorado, tendo como base as notas dos alunos no Exame Nacional de Desempenho de Estudantes (Enade) em 2007, 2008 e 2009, e Nota Capes, no caso da pós-graduação, além de análise do corpo docente, infraestrutura e programa pedagógico. São atribuídos valores entre zero a 500 pontos a cada uma das instituições. Essas notas são classificadas por faixa de aproveitamento, que variam de um a cinco (IGC por faixa).

A UFJF alcançou 357 pontos, ficando na faixa 4 e subindo uma posição em relação à classificação anterior, referente a 2008. As federais de Itajubá (Unifei), Alfenas (Unifal), Uberlândia (UFU), Ouro Preto (Ufop) e São João del Rei (UFSJ) obtiveram o mesmo conceito (ver quadro). Já a Universidade Federal de Lavras (UFLA) ficou em terceiro lugar na classificação nacional, com 420 pontos (faixa 5), atrás apenas das federais de São Paulo (Unifesp), com 440 pontos, e Rio Grande do Sul (UFRGS), com 422 pontos.

Fonte:http://www.tribunademinas.com.br/geral/geral30.php

Google compra empresa de livros eletrônicos

A primeira aquisição do Google de 2011, a eBook Technologies Inc., foi confirmada nesta quinta-feira (13).


A Google confirmou para o site TechCrunch, nesta quinta-feira (13), que adquiriu a empresa de hardware e software de livros eletrônicos, eBook Technologies Inc., sua primeira aquisição de 2011. A aquisição foi confirmada pela gigante das buscas após um post no site da eBook Tech, dizendo que estavam "felizes em anunciar que foram adquiridos pelo Google".
A empresa provavelmente auxiliará o Google no desenvolvimento de softwares para eBooks, já que os únicos produtos de hardwares que desenvolveram datam de 2007 e já estão ultrapassados. O valor da transação não foi divulgado pelo Google nem pela eBook Tech Inc.
Fonte:http://olhardigital.uol.com.br/negocios/digital_news/noticias/google_compra_empresa_de_livros_eletronicos

Tinta eletrônica para ajudar na camuflagem

Empresa britânica está desenvolvendo uma pintura que reproduz imagens do ambiente no casco dos tanques de guerra.
Os tanques de guerra camuflados percorreram um longo caminho desde o tempo em que eram pintados com tonalidades de verde para imitar o ambiente natural. De acordo com o jornal britânico Telegraph, uma empresa de tecnologia de defesa do Reino Unido está desenvolvendo um sistema de camuflagem que irá utilizar uma espécie de tinta eletrônica. A pintura vai reproduzir as imagens do ambiente que estão ao redor do tanque em seu casco para que ele se torne invisível aos possíveis atacantes.
Usando um conjunto de sensores eletrônicos instalados na parte externa do tanque, o sistema vai recriar as cores, linhas e formas do entorno do veículo. Com isso, mesmo que o ambiente mude, enquanto o tanque estiver se movimentando, a tinta será capaz de reproduzir estas imagens automaticamente. O sistema ainda só existe no papel, mas os cientistas estão confiantes de que podem torná-lo realidade. A ideia é entregar o projeto às tropas britânicas que irão servir no Afeganistão nos próximos anos. Caso o grupo consiga criar a tinta, o tanque deverá ter um alto custo de produção, o que, aparentemente, não será um grande problema para o Ministério da Defesa britânica. O atual veículo da tropa custa em torno de US$ 6 milhões e eles estão querendo modernizá-lo ainda mais.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/tinta_eletronica_para_ajudar_na_camuflagem

Espelho mede a temperatura do corpo

Por meio de um sensor infravermelho, o Thermo Mirror identifica a temperatura da pessoa e aciona um alarme caso ela esteja com febre.

A empresa japonesa de eletrônicos NEC/Avio desenvolveu um espelho bastante diferente, o Thermo Mirror. O dispositivo usa um sensor infravermelho para medir a temperatura de uma pessoa que esteja a até 30 centímetros de distância. Sem contato físico algum, a temperatura da pessoa aparece na superfície do espelho e, se ela estiver com febre, um alarme é disparado para alertá-la.
Quando o espelho não está em uso, ele mostra a data, hora, umidade relativa do ar e a temperatura ambiente. De acordo com a agência de notícias AFP, a empresa pretende vender o dispositivo para escolas, hospitais e outras instituições públicas.
O Thermo Mirror já está disponível no Japão em duas versões, uma de 98 mil ienes e outra de 120 mil ienes, o equivalente a US$ 1.180 e US$ 1.440. E, segundo a empresa, o produto custa menos de 10% das câmeras de termografia usadas nos aeroportos para triagem de pessoas com doenças transmissíveis.
Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/espelho_mede_a_temperatura_do_corpo

Usar anti-inflamatórios triplica risco de infarto

Estudo suíço mostra que os idosos são os mais vulneráveis a drogas como ibuprofeno

O consumo de analgésicos de venda livre, como ibuprofeno, para tratar inflamações pode dobrar ou triplicar o risco de ataques cardíacos e derrames em pessoas mais vulneráveis, segundo estudo realizado por médicos suíços e publicado na "British Medical Journal".

Pessoas que tomam esses remédios ocasionalmente para aliviar dores de cabeça ou menstruais não parecem correr riscos, dizem os autores. Mas idosos que sofrem de artrite e de problemas cardíacos que usam esses medicamentos regularmente e em altas doses estão em maior perigo.

Os pesquisadores analisaram 31 estudos envolvendo 116.429 pacientes para estimar o risco cardiovascular de todas as drogas anti-inflamatórias não esteróides em comparação a placebos. Estudos anteriores já haviam sugerido um risco aumentado de problemas cardiovasculares relacionados a essas drogas.

Eles descobriram que o ibuprofeno, por exemplo, elevou o risco de acidente vascular cerebral em três vezes, enquanto o diclofenaco e o etericoxibe aumentaram em quatro vezes a chance de morte por infarto ou derrame.

Em 2004, um dos medicamentos dessa classe, o Vioxx, foi retirado das farmácias depois de comprovado que ele aumentava o risco de infarto. Peter Juni, professor na Universidade de Berna e um dos principais autores, disse que é preciso tomar sérios cuidados na hora de receitar essas drogas a idosos.
(O Globo, 13/1)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75856

Como o gato bebe água, artigo de Fernando Reinach

"Se o suspiro da fã mudou minha maneira de observar Caetano Veloso, essa descoberta aumentou meu prazer de observar um verdadeiro gato bebendo água. É para isso que serve a ciência"

Fernando Reinach é biólogo. Artigo publicado em "O Estado de SP":

A mão largou o violão e abraçou o copo. Foi num show de Caetano Veloso. O copo tocou os lábios e assim que o pomo de adão voltou à sua posição inicial, indicando o fim do gole, ouvi um sussurro feminino suficientemente alto para ser ouvido no palco: "Gato!"

Foi essa a lembrança que me veio à mente ao ler o relato de como os verdadeiros gatos, aqueles com quatro patas e sete vidas, bebem água. O método utilizado por esse animal, tão elegante e arredio quanto o cantor na imaginação de suas fãs, é muito mais sofisticado que o utilizado pelos seres humanos. E, apesar de ter sido observado por milhões de seres humanos nos últimos milênios, somente agora foi investigado pelos cientistas.

Todos os animais necessitam de água. A maioria vive nos mares e rios e não precisa lidar com a força da gravidade. Cercados de água, basta abrirem um orifício para serem inundados. Mas para a minoria que vive no ambiente terrestre, a gravidade é um problema. A água, como todo líquido que se preza, acumula no fundo dos recipientes, um copo, lago ou rio, e necessita ser transportada para o interior da boca contra a força da gravidade.

Poucos, como nós, podem contar com a ajuda das mãos. Muitos aspiram a água, seja com o nariz (elefantes), seja com a boca (cavalos, vacas, ovelhas). Outros, como os cães e os felinos, são incapazes de controlar seus lábios de modo a fechá-los completamente. Para esses animais, aspirar ou chupar o líquido é impossível.

A solução é utilizar a língua. Os cães mergulham a língua no líquido e a dobram para a frente, de modo que ela se assemelhe a uma colher; depois levantam rapidamente a língua jogando parte da água no interior da boca. O resto se espalha em volta do animal e o resultado é sempre espalhafatoso, barulhento e um tanto caótico. Quem já observou um gato beber água, discreto e elegante, talvez já tenha se perguntado como cada movimento da língua leva água ao interior da boca.

Cientistas dos departamentos de engenharia do MIT e de Princeton, duas das melhores universidades dos EUA, filmaram diversos gatos bebendo água com câmaras de vídeo de alta velocidade. Durante a ingestão da água, a língua sai da boca, toca levemente a superfície da água e volta para o interior da boca. Isso ocorre quatro vezes por segundo, mas, como entre cada movimento a língua permanece por 100 milissegundos no interior da boca, o ciclo de sair da boca, tocar a água e voltar para a boca leva aproximadamente 150 milésimos de segundo.

Com uma câmara de alta velocidade, é possível observar em velocidade reduzida tudo o que ocorre nesses 150 milissegundos. O gato posiciona a boca 3 cm acima do nível da água (todos os gatos usam a mesma altura). Primeiro, a língua desce em direção à água a uma velocidade que chega a 50 cm/seg. A após quase 50 milésimos de segundo, a ponta da língua, dobrada para trás, toca a superfície da água sem penetrá-la. O toque dura menos de 2 milissegundos e imediatamente a língua é recolhida em direção à boca do gato, subindo com uma velocidade máxima de 78 cm/seg.

Durante a volta da língua, forma-se uma coluna de água que liga a ponta da língua à superfície da água. Essa coluna se rompe quando a língua está quase na boca do gato e a maior parte da água presente na coluna volta para o recipiente. Mas como a coluna de água se rompe entre a língua e a superfície do líquido, parte da coluna, uma gota, fica aderida à superfície da língua e é ingerida. Assim, gota a gota, quatro coletadas por segundo, o gato abate sua sede, silenciosamente, sem espirrar água em sua volta.

Com base nos dados coletados a partir da análise dos filmes, os cientistas construíram um cilindro, cuja superfície é idêntica à da língua, capaz de baixar, tocar a água e subir, imitando a língua de um gato. Com essa engenhoca eles simularam o que ocorria se operassem a língua mais rápido ou mais devagar que o gato e também a diferentes distâncias da superfície da água.

Eles descobriram que a distância e a velocidade com que o gato movimenta sua língua é a que produz a maior gota de água na língua quando ela entra na boca. Ou seja, o gato "descobriu", ao longo da evolução, como otimizar esse mecanismo capaz de transportar a água para a boca.

Os cientistas também determinaram que a inércia da água é o fator determinante nesse processo e que a natureza do líquido e da superfície da língua tem pouca influência na eficiência do processo. É por isso que esse método serve para beber água, leite ou mingau.

Agora os engenheiros estão testando essa língua artificial como parte de um robô capaz de transportar quantidades precisas de líquidos.

Se o suspiro da fã mudou minha maneira de observar Caetano Veloso, essa descoberta aumentou meu prazer de observar um verdadeiro gato bebendo água. É para isso que serve a ciência.
(O Estado de SP, 13/1)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75860

Veículo não tripulado trará segurança para a fronteira da Amazônia

Pesquisadores da Universidade Federal do Amazonas (Ufam) trabalham em aeronaves que podem ser controladas por GPS ou controle remoto

Implantar um sistema de segurança nas fronteiras da Amazônia e monitorar o meio ambiente por meio de veículo aéreo não tripulado (Vant) são apenas algumas das ações que serão desenvolvidas pelo Núcleo de Excelência em Desenvolvimento de Sistemas Embarcados para Veículos Aéreos Não Tripulados e Robôs Táticos Móveis.

Quem garante é o coordenador do projeto, professor Raimundo da Silva Barreto, do Departamento de Ciência da Computação da Universidade Federal do Amazonas (Ufam). Ele disse que durante o período de quatro anos, o núcleo reunirá profissionais de diversas instituições de pesquisa, não somente do Amazonas, mas de outros estados, para desenvolver projetos em ciência da computação.

"O núcleo se constitui de duas linhas de pesquisas, o que possibilitará a formação de profissionais habilitados nesta área do conhecimento, além do que, deverá agregar estudantes de graduação (iniciação cientifica) e pós-graduação (mestrado e doutorado)", explica Barreto.

Expectativa

O núcleo é financiado pela Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam) e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), por meio do Programa de Apoio a Núcleos de Excelência em Ciência e Tecnologia (Pronex), com aporte de R$ 381 mil. Os objetivos são melhorar processos, métodos e técnicas aplicadas em construção de veículos aéreos não-tripulados e robôs táticos móveis, bastante utilizados hoje no mundo.

Entre os benefícios que o núcleo trará, Barreto destaca dois aspectos. Um é o fator aglutinador de profissionais, o que possibilitará a troca de experiência e conhecimentos. E o outro é a aquisição de equipamentos específicos, que darão suporte à pesquisa e possibilitarão o desdobramento para outras investigações.

"Os resultados deste projeto deixarão o Amazonas numa condição favorável, no que tange ao controle das fronteiras. Uma vez que, nesses locais ocorrem com frequência o tráfico de drogas, guerrilhas, dentre outras atividades subversivas. Os veículos aéreos não tripulados vão desempenhar funções estratégicas como a captura de informações que posteriormente serão processadas e encaminhadas aos órgãos competentes como a Policia Federal (PF) e o Exército Brasileiro", destacou o coordenador do projeto.

A aquisição dos equipamentos também aponta para outras vantagens relacionadas a alguns problemas ambientais. "Será possível detectar enchentes, desmoronamentos, dentre outros fenômenos naturais que comprometem a vida do cidadão comum. A idéia dos robôs táticos, por exemplo, é detectar focos de incêndio", completa.

Para Barreto os custos para uso de um Vant são bem menores do que o uso de uma aeronave tradicional. Tendo o mesmo desempenho, os equipamentos medem aproximadamente 2 metros de comprimento e podem levar vários sensores, filmadora e máquina fotográfica para captar imagens e dados.

"A Fapeam tem sido uma agência de fomento que tem ajudado no crescimento da pesquisa em nosso estado. A disponibilidade deste recurso garantirá o desenvolvimento dos estudos. Vemos essa ação de forma muito positiva o que a torna uma grande parceira no avanço das pesquisas", ressaltou Barreto.
(Com informações da Agência Fapeam)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75865

Alquimia no século 21

Assinado pelo pesquisador Fernando Galembeck, da Unicamp, editorial do "Journal of the Brazilian Chemical Society" reflete sobre a importância da produção química no país

O texto, publicado na edição n.2, volume 22, do "Journal of the Brazilian Chemical Society", ressalta que os países mais ricos são também os maiores produtores químicos e vice-versa.

Entretanto, afirma o editorial, "há algumas exceções, que são os países cuja posição como produtores químicos é superior à sua posição segundo o PIB. Trata-se da China, Brasil, Índia e Coréia do Sul, ou seja, um grupo de países que tem se saído bem desde a recente crise econômica global."

Apesar disso, o texto alerta que o Ministério da Ciência e Tecnologia não tem dado a devida atenção à área da Química. E ressalta a importância do Ano Internacional da Química, que será celebrado ao longo de 2011.

Leia a íntegra do editorial do JBCS em:
http://jbcs.sbq.org.br/online/2011/vol22_n2/JBCS22-2_draft.pdf
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75850

Educação superior: apenas 25 instituições conseguem nota máxima

Índice Geral de Curso (IGC) considera a qualidade dos cursos de graduação e pós-graduação. Dados foram divulgados nesta quinta-feira, 13 de janeiro

Apenas 25 instituições de ensino superior obtiveram nota 5 no IGC (Índice Geral de Curso), que considera a qualidade dos cursos de graduação e dos de pós-graduação. Elas representam 1,39% das 1.793 faculdades, centros universitários e universidades que conseguiram conceito final -- o que depende da participação dos seus estudantes no Enade (Exame Nacional de Desempenho de Estudantes).

A escala do IGC vai de 1 a 5 - instituições que obtiverem notas 1 e 2 ficam sob supervisão do MEC. Caso não consigam sanar as deficiências, elas podem ter diminuído o número de vagas oferecidas ou, em último caso, ter suspenso o recredenciamento de seus cursos.

Os dados foram divulgados na manhã desta quinta-feira (13) pelo MEC (Ministério da Educação) e pelo Inep (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira), autarquia responsável pelo levantamento. A divulgação era esperada para o segundo semestre do ano passado.

Maioria passa "raspando"

Apenas 124 instituições ficaram com IGC 4 -- elas representam 6,92% dos cursos com avaliação.

Ao se analisar a distribuição de notas, a maioria das instituições passam "raspando" -- 945 instituições ficaram com nota 3, o que representa mais da metade deles 52,70%.

Devem ficar sob supervisão do MEC 699 instituições. Parte delas (12) obteve nota 1 e outro grupo, nota 2 (687).
Sem conceito

Por algum motivo -- mais comumente por causa da falta de massa de alunos realizando o Enade --, 344 insituições ficaram sem conceito na avaliação do triênio 2007/2009. Elas representam 16,10% do total de cursos que deveriam ser avaliados.

Algumas universidades públicas de renome como a USP (Universidade de São Paulo) não aderem ao Enade. Há diversos grupos de movimento estudantil que também são contra a avaliação.

Confira as instituições com nota 5:

- Universidade Federal de São Carlos (UFSCar)
- Fundação Universidade Federal de Viçosa (UFV)
- Universidade Federal de Minas Gerais (UFMG)
- Universidade Federal do Rio Grande do Sul (UFRGS)
- Universidade Federal do Rio de Janeiro (UFRJ)
- Universidade Federal de São Paulo (Unifesp)
- Universidade Federal de Lavras (Ufla)
- Universidade Federal do Triângulo Mineiro (UFTM)
- Fundação Universidade Federal de Ciências da Saúde de Porto Alegre (UFCSPA)
- Centro Universitário Municipal de São José (USJ)
- Faculdade de Medicina de São José do Rio Preto (Famerp)
- Escola de Administração de Empresas de São Paulo (FGV-EAESP)
- Instituto Tecnológico de Aeronáutica (ITA)
- Instituto Militar de Engenharia (IME)
- Faculdade Jesuíta de Filosofia e Teologia (Faje)
- Escola de Governo Professor Paulo Neves de Carvalho (EG)
- Faculdade de Economia e Finanças (Ibmec)
- Insper Instituto de Ensino e Pesquisa (Insper)
- Faculdade de Administração de Empresas (Facamp)
- Escola Brasileira de Administração Pública e de Empresas (Ebape)
- Escola de Direito de São Paulo (Direito GV)
- Escola de Economia de São Paulo (Eesp)
- Faculdade de Odontologia São Leopoldo
- Faculdade Fucape
- Escola Brasileira de Economia e Finanças
(Karina Yamamoto)
(UOL Educação, 13/1)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75842

Carros inteligentes são mostrados em feira em Las Vegas

Carros inteligentes

Uma feira de tecnologia realizada recentemente em Las Vegas, Estados Unidos, mostrou as últimas tecnologias disponível para veículos de passeio.

A repórter da BBC especializada em tecnologia L. J. Rich foi à cidade norte-americana e mostrou tudo o que os carros podem fazer sem a ajuda do motorista, como estacionar.

Stephanie Janczak, gerente de segurança automotiva da Ford, conta que o novo carro da empresa usa sensores eletrônicos para estacionar sozinho. O veículo examina a vaga para saber se é grande o bastante e o motorista precisa apenas pisar nos pedais. A direção se move sozinha durante o processo.

Outro dispositivo é o controle de música por comando de voz. O arquivo de música - ou a estação de rádio - é sintonizado pelo celular ou por tocadores de MP3 e o controle é feito pelo próprio carro pelo sistema Bluetooth.

Isso evita que o motorista se desconcentre com o celular nas mãos. O carro vai tocar os arquivos de acordo com o comando de voz do motorista.

Carros-conceito

Mas, além de mostrar tecnologias para carros que estão disponíveis atualmente ou que podem ser adaptadas facilmente para o uso imediato, a feira em Las Vegas mostrou também os carros-conceito, como deverão ser os carros do futuro.

A repórter da BBC experimentou um carro-conceito da GM, que não pretende colocar o modelo de dois lugares no mercado.

A ideia da montadora é mostrar como um carro deverá ser no ano 2030. Ele poderá se comunicar com outros carros do mesmo modelo, não poluirá e também não fará ruído.

Montadoras como GM, Ford, Audi e BMW preferiram levar as novidades do setor nesta feira de Las Vegas, ao invés de mostrá-las apenas no tradicional salão do automóvel de Detroit, o que pode ser um sinal de que o futuro do carro é a tecnologia.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=carros-inteligentes&id=010170110113&ebol=sim

Célula solar usa moléculas de DNA para se regenerar

Usando nanotubos de carbono e moléculas de DNA, cientistas estão criando uma nova geração de células solares capazes de se autoconsertar.

Imitando o sistema fotossintético das plantas, essas células solares poderão ter uma vida útil mais longa e reduzir os custos da energia solar.

"Nós criamos fotossistemas artificiais usando nanomateriais ópticos para capturar a energia solar, que é convertida em energia elétrica," resume o Dr. Jong Hyun Choi, da Universidade Purdue, nos Estados Unidos.

Célula solar fotoeletroquímica

O projeto da nova célula solar fotoeletroquímica aproveita as propriedades elétricas incomuns dos nanotubos de carbono de parede única - suas paredes são formadas por uma única camada de átomos de carbono.

Segundo Choi, os nanotubos de carbono funcionam como fios moleculares no interior das células solares.

As células fotoeletroquímicas convertem a luz solar em eletricidade e usam um eletrólito - um líquido condutor de eletricidade - para transportar os elétrons e criar a corrente elétrica.

Mas elas têm um inconveniente: o uso de corantes absorvedores de luz, chamados cromóforos, moléculas semelhantes à clorofila. Embora altamente eficientes, essas moléculas são orgânicas, degradando-se devido à exposição à luz solar.

A equipe do Dr. Choi resolveu o problema da mesma forma que a natureza faz nas plantas: substituindo continuamente as moléculas danificadas por moléculas novas. "Esse tipo de auto-regeneração é feito nas plantas uma vez por hora," diz Choi.

Garantido o suprimento constante de novos cromóforos, as novas células fotoeletroquímicas operam com capacidade total de forma praticamente indefinida.

Célula solar com DNA

Os nanotubos de carbono funcionam como uma plataforma para ancorar fitas de DNA. O DNA é projetado para ter uma sequência específica de nucleotídeos, o que lhe permite reconhecer e se ligar aos cromóforos.

"O DNA reconhece as moléculas de corante, e então o sistema se estrutura sozinho, de forma espontânea," conta Choi.

Os cromóforos podem ser substituídos por processos químicos ou pela adição de novas cadeias de DNA com sequências de nucleotídeos diferentes, arrancando as moléculas danificadas e abrindo espaço para a adição de novos cromóforos.

A abordagem tem dois elementos fundamentais para mimetizar o mecanismo de auto-reparo da natureza: o reconhecimento molecular e a metaestabilidade termodinâmica, ou a capacidade do sistema de ser continuamente dissolvido e remontado.

"Eu acho que a nossa abordagem é promissora para a fabricação em larga escala, mas ainda estamos na fase de pesquisa básica," alerta o pesquisador.

O trabalho é uma extensão de uma outra descoberta recente, feita com conjunto com parceiros do MIT - veja Funil solar: antenas de nanotubos concentram luz em células solares.

A principal novidade agora é a substituição dos cromóforos biológicos, colhidos de bactérias, por moléculas sintéticas, chamadas porfirinas.

Bibliografia:

Biomimetic light-harvesting optical nanomaterials
Jong Hyun Choi, Benjamin A. Baker, Tae-Gon Cha, Yujun Wu, M. Dane Sauffer
SPIE
DOI: 10.1117/2.1201007.003130
http://spie.org/x41475.xml?ArticleID=x41475

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=celula-solar-regenera-como-planta&id=010115110114&ebol=sim

Transístor de seda avança rumo aos computadores de vestir

Computadores na roupa

Circuitos eletrônicos flexíveis não são exatamente uma novidade - pelo menos não nos laboratórios de pesquisas.

Os cientistas já criaram telas flexíveis, circuitos eletrônicos que podem ser esticados e até uma tela totalmente maleável.

Eletrônicos flexíveis já começam a chegar ao mercado, mas as roupas inteligentes e os computadores de vestir seriam uma novidade bem-vinda na loja de eletrônicos mais próxima.

Recentemente, uma equipe da Universidade de Cornell, nos Estados Unidos, criou uma fibra de algodão que conduz eletricidade, abrindo o caminho para as roupas inteligentes.

Mas, se você não gosta de algodão, a solução já está a caminho. Um outro grupo de pesquisadores transformou fibras de seda em componentes semicondutores que podem ser usados para criar circuitos eletrônicos no próprio tecido.

A novidade foi apresentada pelo grupo do Dr. Olle Inganas, da Universidade de Linkoping, na Suécia, e seus colegas espanhóis do Centro de Tecnologias Eletroquímicas.

Transistores de seda

Os transistores de seda foram criados mergulhando as fibras produzidas por uma lagarta (Bombyx mori) em uma solução de um polímero condutor de eletricidade.

Isso incorporou as moléculas condutoras na fibra natural, transformando a seda em um semicondutor.

Inganas e seu grupo demonstraram que as fibras de seda dopadas com o polímero podem ser tecidas em um transístor eletroquímico: uma solução iônica funciona como eletrólito, modificando a condutividade das fibras, fazendo o papel que os elementos dopantes fazem nos semicondutores tradicionais.

O transístor eletroquímico foi "tecido" cruzando duas fibras de seda previamente mergulhadas em um polímero conhecido como PEDOT-S, que vem sendo utilizado em experimentos com chips neurais.

O eletrólito foi adicionado na forma de uma gota, colocada na junção das fibras.

Aplicando uma tensão nas extremidades de uma das fibras, que funcionou como a "base" do transístor, os cientistas demonstraram que é possível controlar a energia que flui na outra fibra, cujas extremidades funcionam como "emissor" e "coletor".

Super amplificação

O transístor de seda apresenta um fator de amplificação impressionante - mais do que 100 vezes - o que é comparável aos transistores mais modernos. Ele também funciona com tensões muito baixas, o que é interessante quando se pensa em circuitos que estarão em contato direto com o corpo humano.

A grande limitação da abordagem é a necessidade da junção das duas fibras com o eletrólito: fazer isto em escala industrial irá exigir uma boa dose de criatividade dos engenheiros.

Mas o foco dos pesquisadores é aproximar seus transistores eletroquímicos dos materiais biológicos, integrando eletrônica com tecidos vivos, eventualmente abrindo caminho para os neurocomputadores.

Bibliografia:

Woven Electrochemical Transistors on Silk Fibers
Christian Müller, Mahiar Hamedi, Roger Karlsson, Ronnie Jansson, Rebeca Marcilla, My Hedhammar, Olle Inganäs
Advanced Materials
DEC 2010
Vol.: Published online
DOI: 10.1002/adma.201003601
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=transistor-seda-computadores-vestir&id=010110110114&ebol=sim

Arca flutuante é autônoma e autossustentável

Arquitetura anti-cataclismas

Seu nome é simplesmente Arca.

Bastante adequado para atender à "Arquitetura de Auxílio contra Desastres", um programa lançado pela União Internacional de Arquitetos.

O projeto visa fornecer aos moradores tudo o que é necessário para que eles sobrevivam a um desastre natural, inclusive flutuar no caso de uma "repentina elevação do nível dos oceanos".

Segundo seus criadores, a Arca pode ser construída tanto em terra quanto como um barco.

Talvez não dê para levar um casal de cada animal da Terra, mas há espaço de sobra para muita gente: são 14.000 metros quadrados de área útil total.

A Arca contém um sistema independente de suporte de vida, incluindo elementos que permitem assegurar o funcionamento de um ciclo fechado, mantendo a atmosfera interior isolada do exterior.

Como na "original", a madeira é um elemento importante dessa Arca futurista: "A solidez estrutural é garantida pela capacidade de compressão dos arcos de madeira e da flexibilidade das cordas de aço," afirmam seus projetistas.


Embora nem estivesse chuviscando quando Noé começou a construir sua Arca, agora os módulos pré-fabricados permitirão a construção rápida de frotas de arcas. [Imagem: RemiStudio]
Autolimpante

A cobertura externa deve ser construída com uma película especial de ETFE (Etil tetrafluoretileno), um material forte e altamente transparente, autolimpante, reciclável e mais durável, mais econômico e mais leve do que o vidro.

As películas são fixadas à estrutura principal por perfis metálicos especiais, que servem simultaneamente como coletores termossolares, para aquecimento de água, e como calhas para captar água da chuva. Coletores solares tradicionais, fotovoltaicos, são colocados dentro do edifício.

Segundo seus projetistas, o formato de cúpula com um rolamento central na forma de um tubo permite obter uma relação ótima entre o volume do edifício e sua superfície exterior, economizando materiais e garantindo eficiência no uso de energia.

O projeto prevê a produção de quadros pré-fabricados, permitindo construir uma frota de Arcas rapidamente.


O projeto energético da Arca prevê o aproveitamento do calor externo, com sistemas adaptáveis a diferentes climas e estações. [Imagem: RemiStudio]
Sistema de suporte de vida

A forma da cúpula garante a acumulação do ar aquecido na parte superior do edifício. Esse calor é coletado em acumuladores de calor e em acumuladores elétricos e de hidrogênio, a fim de proporcionar um fornecimento ininterrupto de energia para todo o complexo, quaisquer que sejam as condições do ambiente externo.

O calor do meio ambiente externo - do ar, da água ou do solo - também é utilizado. Em tempos menos cataclísmicos, o edifício pode produzir energia extra a ser fornecida para casas adjacentes e para meios de transporte "verdes".

Segundo os projetistas, a Arca pode ser construída em diferentes zonas climáticas e em regiões sujeitas a terremotos, porque a estrutura inferior tem a forma de uma concha, sem bordas ou ângulos. Em caso de terremoto, a estrutura flexível de arcos e cordas permite distribuir a carga ao longo de todo o edifício.


O projeto já contém uma seleção de plantas para garantir beleza aos jardins, eficiência na manutenção do clima interno e produção de alimentos. [Imagem: RemiStudio]
Arca flutuante

Mesmo sendo construído em terra, a estrutura do prédio lhe permite flutuar no caso de enchentes ou de uma elevação cataclísmica do nível dos oceanos. A Arca, como seria de se esperar, pode se manter flutuando indefinidamente e manter seus habitantes de forma autônoma.

Todos os resíduos são utilizados no interior do edifício por queima ou por pirólise livre de oxigênio.

Para uma vida totalmente sustentável não poderiam faltar as plantas. O projeto já contém uma seleção de plantas para garantir beleza aos jardins, eficiência na manutenção do clima interno e produção de alimentos.

E, caso o cataclisma final não venha, os projetistas afirmam que o edifício pode ser facilmente adaptado a diferentes funções.

fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=arca-flutuante-autossustentavel&id=010125110112&ebol=sim

Divulgada a maior imagem já feita do Universo

Imagem do Universo

Foi divulgada na tarde desta terça-feira, no 217º encontro da American Astronomical Society, a maior imagem já feita do Universo.

Mas é melhor contentar-se com a animação mostrada acima: a imagem tem mais de um trilhão de pixels, o que significa que seriam necessárias 500 mil TVs Full HD, colocadas uma ao lado da outra, para visualizá-la na sua resolução máxima.

O retrato do universo levou uma década para ser montado. E está longe de ser definitivo: o anúncio faz parte da oitava divulgação de dados do Sloan Digital Sky Survey (SDSS), sendo apenas a primeira da fase três do projeto.

Os dados agora liberados ao público contêm imagens de 14.555 graus quadrados do céu (ou mais que um terço de toda a esfera celeste) e espectros de mais de 800 mil galáxias, 100 mil quasares e 500 mil estrelas para análise científica.

Céu para o povo

O SDSS é um ambicioso projeto que pretende cobrir mais de um quarto do céu, produzindo mapas tridimensionais de galáxias e quasares com cerca de 1 milhão de pixels cada um.

O projeto está exercendo um enorme impacto na astronomia mundial. Suas imagens são a base de projetos abertos ao público, como o Galaxy Zoo (www.galaxyzoo.org), em que 250 mil voluntários ajudaram a classificar milhões de galáxias captadas pelo SDSS, e o Google Sky (www.google.com/sky).

Importantes descobertas recentes acerca do Universo basearam-se nos dados do projeto:

Lado escuro do Universo é posto em dúvida por astrônomos
Estudo de galáxias valida Teoria da Relatividade em escala cósmica
Via Láctea tem dois halos, girando em direções opostas
Brasil no SDSS

O Brasil participa do Sloan Digital Sky Survey, sob a coordenação do recém-criado Laboratório Interinstitucional de e-Astronomia (LineA), sob a direção do astrofísico Luiz Nicolaci da Costa, do Observatório Nacional.

A equipe nacional participa tanto das pesquisas científicas quanto da distribuição dos dados, que é feita por meio da infraestrutura computacional montada para o LineA.

Com investimentos de cerca de R$ 5 milhões, o laboratório está armazenando 12 terabytes de dados provenientes do SDSS.

Formado por pesquisadores do ON, do Centro Brasileiro de Pesquisas Físicas (CBPF) e do Laboratório Nacional de Computação Científica (LNCC), todas instituições do Rio de Janeiro, o LineA aproveitou a ocasião para lançar sua página na internet, no endereço www.linea.gov.br.

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=maior-imagem-do-universo&id=020130110112&ebol=sim

Criado um vidro mais forte do que o aço

Um vidro mais forte e mais resistente do que o aço?

Não apenas isso, mas um vidro resistente a danos que supera a tenacidade e a resistência de qualquer material conhecido.

E seus criadores, uma equipe de vários laboratórios dos Estados Unidos, afirmam que versões ainda melhores são teoricamente possíveis de se conseguir.

Vidro metálico

O novo vidro metálico é uma microliga contendo paládio, um metal com uma elevada resistência à deformação, o que neutraliza a fragilidade intrínseca dos materiais vítreos.

"Este é o primeiro uso de uma nova estratégia para a fabricação de vidros metálicos, e acreditamos que podemos usá-la para tornar o vidro ainda mais forte e resistente," afirma Robert Ritchie, do Laboratório Nacional Lawrence Berkeley, um dos membros da equipe.

Segundo o pesquisador, devido ao elevado módulo de resistência ao cisalhamento do material com paládio, a energia necessária para formar bandas de cisalhamento é muito menor do que a energia necessária para transformar essas bandas de cisalhamento em rachaduras

"O resultado é que o vidro mostra uma extensa plasticidade em resposta ao estresse, permitindo que ele se curve, em vez de se quebrar," diz Ritchie.

Interrupção das trincas

Os materiais vítreos não são exatamente sólidos - eles têm uma estrutura não-cristalina, amorfa, que os torna inerentemente fortes, mas muito quebradiços.

Enquanto a estrutura cristalina dos metais oferece obstáculos microestruturais - como inclusões, contornos de grânulos etc - que inibem a propagação das rachaduras, não há nada na estrutura amorfa de um vidro que interrompa a propagação de uma trinca.


A adição de prata à composição do vidro metálico permitiu aos pesquisadores expandir a espessura das hastes de vidro para seis milímetros. [Imagem: Caltech/Marios D. Demetriou]
O problema é especialmente sério nos vidros metálicos, onde bandas de cisalhamento individuais podem se formar e se estender por todo o material, o que leva a falhas radicais sob tensões muito pequenas.

Anteriormente, o grupo havia descoberto que a introdução de uma fase cristalina de um metal no vidro era capaz de interromper a propagação das trincas - veja Vidro metálico de titânio supera ligas tradicionais do metal.

Esta fase cristalina, que assume a forma de padrões dendríticos que permeiam a estrutura amorfa do vidro, funciona como barreiras microestruturais para evitar a propagação da rachadura.

Plasticidade

Neste novo trabalho, a equipe produziu um material de vidro puro, cuja composição química única gera uma ampla plasticidade pela formação de bandas de cisalhamento múltiplas, antes que as bandas individuais se transformem em rachaduras.

As amostras iniciais do novo vidro metálico eram microligas de paládio com silício, fósforo e germânio, que permitiram a fabricação de bastões de vidro de aproximadamente um milímetro de diâmetro.

A adição de prata para o mix permitiu aos pesquisadores expandir a espessura das hastes de vidro para seis milímetros.

As dimensões das peças de vidro metálico são limitadas pela necessidade de esfriar rapidamente os metais líquidos para formar sua estrutura final amorfa, mas os cientistas afirmam que refinamentos na técnica deverão permitir a criação de materiais ainda mais resistentes e fortes.

Bibliografia:

A Damage-Tolerant Glass
Marios D. Demetriou, Maximilien E. Launey, Glenn Garrett, Joseph P. Schramm, Douglas C. Hofmann, William L. Johnson, Robert O. Ritchie
Nature Materials
09 January 2011
Vol.: Published online
DOI: 10.1038/nmat2930

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=vidro-mais-forte-aco&id=010160110113&ebol=sim

Barriga de chope é mito, segundo estudo médico espanhol

Um estudo do Colégio Oficial de Médicos de Astúrias revela que "a barriga de chope é um mito", pois um consumo moderado da bebida, de até meio litro diário, associado a uma dieta como a mediterrânea, não engorda e reduz o risco de diabetes e hipertensão.

O modelo de homens e mulheres com barriga grande é próprio da cultura anglo-saxã, onde se ingere grandes quantidades de cerveja e comida rica em gorduras saturadas com quase nenhuma atividade física, asseguraram nesta quarta-feira os autores do estudo.

O padrão alimentar dos consumidores moderados de cerveja na Espanha é mais próximo ao da dieta mediterrânea, segundo o trabalho elaborado por Hospital Clínic, Universidade de Barcelona e Instituto de Saúde Carlos III, que foi apresentado nesta quarta-feira no Colégio Oficial de Médicos de Astúrias.

Os médicos Ramón Estruch, do Serviço de Medicina Interna do Hospital Clínic, e Rosa Lamuela, do departamento de bromatologia e Nutrição da Universidade de Barcelona, asseguraram que o estudo demonstra que a cerveja bebida com moderação não provoca aumento da massa corporal nem acúmulo de gordura na cintura.

O teste, realizado em 1.249 participantes, homens e mulheres com mais de 57 anos, que pela idade têm um maior risco cardiovascular, confirmou que a cerveja é saudável, segundo os autores.

As pessoas que participaram do estudo se alimentando com uma dieta mediterrânea acompanhada de cerveja em quantidades entre um quarto e meio litro por dia, "não só não engordaram, mas, em alguns casos, perderam peso", indicaram os cientistas.

A dose recomendada pelos médicos é de dois copos diários para as mulheres e de três para os homens, com comidas equilibradas e sempre que as pessoas tiverem uma vida normal, praticando algum exercício.

A cerveja é uma bebida fermentada, que recebe as propriedades alimentares dos cereais com que é produzida, assim como o vinho da uva, ou a cidra da maçã, explicou a doutora Rosa.

A bebida fornece uma quantidade de ácido fólico, vitaminas, ferro e cálcio maior que outras, e provoca um efeito "protetor" sobre o sistema cardiovascular.

As pessoas que bebem quantidades "normais" de cerveja apresentam uma menor incidência de diabetes mellitus e hipertensão, e um índice de massa corporal inferior.

Além disso, estas pessoas "manifestaram consumir uma maior quantidade de verduras, legumes, pescado, cereais e azeite de oliva, e realizar uma maior atividade física", indicou Estruch.

Fonte:http://www1.folha.uol.com.br/equilibrioesaude/859356-barriga-de-chope-e-mito-segundo-estudo-medico-espanhol.shtml

Preços de LCD vão descer a partir de Junho

Está a pensar comprar um LCD? Talvez valha a pena esperar por junho. A Comissão Europeia aceitou eliminar taxas de importação de LCD, set-top boxes e multifunções fabricados em Taiwan, Japão e EUA.

Em 2010, os três países já tinham reivindicado junto da Comissão Europeia o fim das taxas aplicadas à importação de LCD, set-top boxes e multifunções.

O executivo europeu tentou resistir como pôde às reivindicações, mas acabou por aceitar sem objeções a exigência que os representantes dos três países apresentaram, recentemente, junto da Organização Mundial de Comércio, noticia a PC Pro.

Tudo aponta que as taxas que, hoje, oscilam entre os 6 % e os 14 % sejam eliminadas em Junho. O que significa menos barreiras à importação, mas também uma tendência para a descida de preços não só dos produtos provenientes de Taiwan, Japão e EUA mas também, por motivos concorrenciais, dos que são produzidos noutros países.

Fonte:http://aeiou.exameinformatica.pt/precos-de-lcd-vao-descer-a-partir-de-junho=f1008332

Maiores editoras vão pagar 45 milhões de dólares por pirataria

As quatro maiores editoras do mundo vão ter de pagar 45 milhões de dólares de indenizações por comercializarem música produzida sem a devida autorização dos músicos.

O caso remonta aos anos 80, quando editoras como a Warner Music, Sony BMG Music, EMI Music, e a Universal Music decidiram editar trabalhos de vários músicos com quem não tinham assinado contratos - e sem pagarem os devidos direitos de autor.

Segundo refere o DailyTech, todos estas obras que não obtiveram a autorização para a edição de discos, CD ou mesmo MP3 foram sendo colocado numa lista de pendentes.

Um grupo de artistas independentes não se conformou com o não pagamento de direitos e deu início a um processo judicial em 2008 - quando as grandes editoras já andavam em "guerra aberta" contra a pirataria na Net.

O caso pode ter chegado ao fim, com as quatro maiores editoras a anunciarem um acordo para o pagamento de 45 milhões de dólares (cerca de 33 milhões de euros).

Só no Canadá terão sido contabilizadas mais de 300 mil faixas de músicas publicadas pelas quatro grandes editoras, sem a devida autorização de quem as criou.

Apesar de parecer uma contradição para estas editoras de renome que têm vindo a alertar para os efeitos nefastos da crescente pirataria de música, a RIAA (Recording Association of America) e a CRIA (Canadian Recording Industry Association) já trataram de desvalorizar o caso, sublinhando que as indemnizações não podem ser encaradas como meros casos de pirataria, por alegadamente dizerem respeito a obras cujos direitos de autores estavam em disputa.

As editoras esclarecem ainda que nunca terão tido a intenção de escapar às taxas de direitos de autor.

Fonte:http://aeiou.exameinformatica.pt/maiores-editoras-vao-pagar-45-milhoes-de-dolares-por-pirataria=f1008329

Vírus distribuído por sites pornôs bloqueia o micro e pede resgate

IDG News Service
13-01-2011
Worm Rixobot.A vem se espalhando nas últimas semanas usando sites pornográficos, mensagens instantâneas e pendrives infectados.

Um worm russo de rápida propagação que bloqueia os arquivos do micro já extorquiu pelo menos 2.500 vítimas, dizem pesquisadores de segurança. O malware, identificado pela Trend Micro como Worm_Rixobot.A, vem se espalhando nas últimas semanas usando sites pornográficos, mensagens instantâneas e até mesmo drives USB infectados – por isso é designado como um worm e não um trojan (Cavalo de Tróia).

Depois de assumir o PC do usuário, fechando uma série de programas do Windows e de segurança e bloqueando o acesso a sites, o vírus exibe uma tela no desktop exigindo que o usuário pague o equivalente a US$ 12, por meio de um SMS premium, para receber a senha de destravamento.

Leia mais: Hackers podem sequestrar seus dados e exigir resgate; saiba como
http://idgnow.uol.com.br/seguranca/2010/11/30/hackers-podem-sequestrar-seus-dados-e-exigir-resgate-saiba-como/

Quase 10% dos internautas pagaram resgate por dados 'sequestrados'
http://idgnow.uol.com.br/seguranca/2010/07/16/quase-10-dos-internautas-pagaram-resgate-por-dados-sequestrados-do-micro/

O montante relativamente pequeno envolvido e a utilização de um canal de pagamento simples pode explicar por que o golpe parece estar funcionando.

Segundo a Trend, que invadiu os servidores associado ao worm, a mais recente campanha arrecadou 901 000 rublos (cerca de 29,5 mil dólares) em apenas cinco semanas, o equivalente a cerca de 2.500 pessoas terem pago o resgate.

O verdadeiro número de vítimas pode ser muito maior. A empresa também descobriu que o arquivo que começa a infecção foi baixado 137 mil vezes em dezembro, principalmente por usuários na Rússia. Mais de 3.000 downloads foram relatados por usuários no Reino Unido.

Ao contrário de exemplos recentes de ransomware como o Gpcode, o Rixobot.A não recorre a técnicas complexas de bloqueio de arquivos, como a criptografia, a fim de extorquir quantias de até US$ 150. No entanto, justamente por não exigir mais do que alguns dólares, ele não precisa. Muitas vítimas provavelmente só pagam para evitar o inconveniente.

Fonte:http://pcworld.uol.com.br/noticias/2011/01/13/virus-distribuido-por-sites-pornos-bloqueia-o-micro-e-pede-resgate/

quinta-feira, 13 de janeiro de 2011

Lab-on-a-chip: exames de sangue mais rápidos, baratos e eficientes

O sistema possibilita detectar desde o vírus HIV até o mal de Alzheimer, com apenas uma gota de sangue, dando os resultados em 30 minutos.


Criado por engenheiros e estudantes da Universidade de Rhode Island, nos Estados Unidos, o sistema Lab-on-chip (laboratório no chip) fornece resultados em 30 minutos de vários exames, com apenas uma gota de sangue.
O Lab-on-chip foi projetado para detectar doenças cardíacas mas, depois de uma série de estudos, outros biomarcadores foram adicionados ao sistema, possibilitando detectar desde o vírus HIV até o mal de Alzheimer. Basicamente, o sangue coletado é colocado num pequeno cartucho, que vai para um biosensor do tamanho de uma caixa de sapato.
O sistema se destaca pela sua praticidade de manuseio e velocidade na aquisição de resultados: "Este é um grande passo na medicina diagnóstica, sendo que os testes podem ser realizados em uma clínica, ou mesmo em casa", disse Mohammad Faghri, professor de engenharia mecânica da URI.
O preço estipulado é de US$3200 para o Lab-on-chip e de US$1,50 para cada exame. Ainda não existe data oficial de lançamento mas, de acordo com Faghri, não demorará até que o sistema seja comercializado.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/lab-on-a-chip_exames_de_sangue_mais_rapidos_baratos_e_eficientes

Lentes de contato podem produzir imagens direto na retina

Pesquisadores de Washington têm trabalhado para desenvolver lentes de LED, finas e semi-transparentes, para projetar imagens no globo ocular.

Para quem pensou que as televisões 3D sem óculos ou os óculos de realidade virtual eram o máximo da tecnologia, se enganou. De acordo com o site New Scientist, parece que em breve este tipo de dispositivo vai se tornar obsoleto. Nos Estados Unidos já estão sendo testadas lentes de contato com matrizes de LED que podem exibir imagens diretamente na retina.
Pesquisadores da Universidade de Washington têm trabalhado com LEDs extremamente finos e semi-transparentes para serem integrados em lentes de contato. Até agora eles conseguiram criar pixels vermelhos e azuis e, assim que conseguirem desenvolver os verdes, eles serão capazes de produzir telas coloridas.
Apesar de estarem a milímetros de distância da retina, as imagens criadas pelas lentes estarão em foco perfeito, e quanto o LED estiver desligado, tudo ficará transparente. Porém, enquanto as lentes estiverem nos olhos e com o aparelho ligado, não será possível não ver o que esta sendo projetado. E isso é algo que deve ser levado em consideração, uma vez que podem passar conteúdos assustadores, nojentos ou qualquer imagem que, normalmente, as pessoas prefeririam não ver.
Para que as lentes funcionem, a bateria ficará em um cinto que irá transmitir eletricidade sem fio a uma antena, ressonando na própria lente. Dessa forma, os dados serão transmitidos automaticamente sem que precise conectar cabos HDMI.
Recentemente pesquisadores desenvolveram equipamentos com sensores sem fio que podem ser integrados ao globo ocular para detectar níveis de glicose no sangue, por isso pode ser apenas uma questão de tempo para que as lentes de LED se tornem realidade.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/lentes_de_contato_podem_produzir_imagens_direto_na_retina

Google agora traduz sua conversa instantaneamente

Empresa apresentou ontem atualização para o Google Translate que faz traduções em tempo real durante uma conversa.
O Google apresentou nesta terça-feira (11) uma nova função para seu aplicativo Google Translate, que traduz uma conversação entre pessoas de línguas diferentes em tempo real, segundo o jornal britânico Telegraph. O serviço é chamado de "Conversation Mode" e, por enquanto, está na versão Alpha e só dá suporte para as línguas inglesa e espanhola.
Para traduzir sua fala, o interlocutor deve dizer algo no aparelho e apertar a tecla "submit". A fala é então transferida para os servidores do Google, em seguida traduzida, e o áudio novo enviado de volta para o celular. O CEO do Google, Eric Schmidt, afirmou que o serviço traduzirá instantaneamente em cerca de 18 meses.
O suporte para novas línguas deve chegar "em breve", segundo a empresa. Confira o vídeo com a demonstração abaixo, onde um engenheiro do Google traduz uma conversa do inglês para o alemão.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/google_agora_traduz_sua_conversa_instantaneamente

Cientistas criam vasos sanguíneos para colocar em órgãos de laboratório

Rede de veias e artérias é formada em 72 horas. Descoberta ajudará a criar tecidos para transplante

Pesquisadores da Universidade Rice e da Faculdade de Medicina Baylor conseguiram vencer um dos maiores desafios para o cultivo de tecidos de transplante em laboratório. Eles acharam um jeito de fazer veias e artérias crescerem dentro desses órgãos, mantendo o tecido vivo. A pesquisa será divulgada na publicação científica "Acta Biomaterialia".

"A falta de habilidade em conseguir criar rede de veias - ou vascularizar - em tecidos criados em laboratório é hoje o maior problema da medicina regenerativa", diz Jennifer West, um dos pesquisadores que participou do estudo. "Se você não tem irrigação de sangue, não é possível fazer uma estrutura de tecido que seja mais grossa que alguns mícrons [um milímetro dividido por mil]."

O primeiro passo da pesquisa foi achar um tipo de plástico não-tóxico que imitasse a matriz extracelular, uma estrutura que fica entre as células na maioria dos órgãos. Depois, os pesquisadores criaram um gel combinarando esse plástico - o polietilenoglicol - com uma substância que estimula o crescimento celular e com dois tipos de célula necessárias para a criação de veias.

As duas células usadas na mistura foram tingidas com cores fluorescentes e, em 72 horas, os cientistas conseguiram ver a formação de vasos sanguíneos dentro do gel.

Para testar a nova rede vascular, a equipe implantou o gel em córneas de rato, onde naturalmente não há veias ou artérias. Após injetar um corante no sistema circulatório do animal, os pesquisadores conseguiram confirmar que o sangue corria dentro dos recém-criados vasos sanguíneos.
(G1, 12/1)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75841

Artigo sobre percepção extrassensorial promete causar polêmica

Professor da Universidade de Cornell publicará este ano um paper que diz comprovar a existência de vidência e previsão de futuro

Uma das mais respeitadas revistas científicas de psicologia aceitou publicar um artigo apresentando o que seu autor descreve como uma das mais fortes provas da existência de percepção extrassensorial (ESP, na sigla em inglês), a habilidade em conhecer o futuro.

A decisão pode agradar os que acreditam nos chamados eventos paranormais, mas já divide a comunidade científica. Cópias antecipadas do trabalho, a ser publicado este ano no The Journal of Personality and Social Psychology, têm circulado amplamente entre acadêmicos nas últimas semanas, gerando um misto de divertimento e desprezo.

O artigo descreve nove experimentos de laboratório pouco comuns realizados na última década por seu autor, Daryl J. Bem, professor emérito da Universidade de Cornell, testando a capacidade de estudantes universitários perceberem com exatidão eventos ao acaso, como se um programa de computador irá fotografar do lado esquerdo ou direito da tela. Os estudos incluíram mais de mil pessoas.

Alguns cientistas dizem que o estudo merece ser publicado, em nome da investigação aberta; outros insistem que a sua aceitação só reforça falhas fundamentais na avaliação e revisão das pesquisas em ciências sociais.

"É loucura, loucura pura. Não posso acreditar que um periódico importante esteja aceitando este trabalho", disse Ray Hyman, professor emérito de psicologia da Universidade de Oregon e crítico de longa data da pesquisa ESP. "Eu acho que é simplesmente um constrangimento para o campo inteiro da psicologia."

O editor da revista, Charles Judd, psicólogo da Universidade do Colorado, disse que o artigo passou pelo processo regular de revisão da revista. "Quatro revisores fizeram comentários sobre o manuscrito", disse ele, "e eles são pessoas muito confiáveis."

Todos os quatro decidiram que o artigo cumpriu as normas editoriais da revista, acrescentou Dr. Judd, embora "não havia nenhum mecanismo pelo qual pudéssemos entender os resultados."

Mas muitos especialistas dizem que é exatamente esse o problema. Afirmações que desafiam quase todas as leis da ciência são extraordinárias por definição e, portanto, exigem provas extraordinárias. Não levar isso em conta - como fazem as análises convencionais das ciências sociais - torna inúmeras descobertas parecerem muito mais significativas do que elas realmente são, afirmam especialistas.

"Várias revistas importantes publicam resultados apenas quando estes parecem apoiar uma hipótese ou inesperada ou que chama a atenção", escreveu por e-mail Eric-Jan Wagenmakers, psicólogo da Universidade de Amsterdam. "Mas essa hipótese provavelmente constitui uma afirmação extraordinária, e deve passar por mais escrutínio antes que seja permitida a entrada em campo."

Dr. Wagenmakers é co-autor de uma réplica ao trabalho, prevista para aparecer na mesma edição da revista.

Em entrevista, Daryl Bem, autor do artigo original e um dos pesquisadores em psicologia mais proeminentes de sua geração, disse que planejou cada experimento para simular um clássico estudo bem conhecido, "só que invertidos".

Em um experimento clássico de memória, por exemplo, os participantes estudaram 48 palavras e, em seguida, dividiram um subconjunto de 24 delas em categorias, como alimento ou animal. O ato de categorizar reforça a memória, e em testes posteriores as pessoas têm uma chance maior de lembrar as palavras que eles praticaram do que as quais eles não praticaram.

Em sua versão, o doutor Bem aplicou um teste de memória para cem estudantes universitários antes que eles fizessem a categorização - e descobriu que eles eram significativamente mais propensos a lembrar as palavras que praticavam depois. "Os resultados mostram que a prática de um conjunto de palavras após o teste de memória, de fato, volta no tempo para facilitar a lembrança daquelas palavras", conclui o artigo.

Em outro experimento, Bem pediu que indivíduos escolhessem qual das duas cortinas na tela do computador escondia uma fotografia; a outra cortina escondia apenas uma tela em branco.

Um programa de computador postava ao acaso uma imagem por trás de uma cortina ou de outra - mas somente depois que o participante tinha feito sua escolha. Mesmo assim, os participantes derrotaram o acaso, por 53 a 50 por cento, pelo menos quando as fotos postadas eram eróticas. Eles não foram melhor do que o acaso em fotos negativas ou neutras.

"O que mostrei foi que os indivíduos não selecionados podiam sentir as fotos eróticas," disse Bem, "mas o meu palpite é que se você usar mais pessoas talentosas, que são boas nisso, elas podiam encontrar qualquer uma das fotos."

Nas últimas semanas blogueiros de ciência, pesquisadores e variados céticos têm contestado de maneira contundente os métodos e estatísticas utilizados por Bem, levantando questões importantes no tratamento dos números. (Outros questionam suas intenções. "Ele tem um ótimo senso de humor", disse Hyman, de Oregon. "Eu não descartaria que esta é uma brincadeira elaborada.")

O autor do trabalho em geral respondeu na mesma moeda, algumas vezes acusando os críticos de ou não entender seu trabalho, ou de construir um forte viés em suas próprias re-avaliações dos dados.

Em certo sentido, é um padrão historicamente familiar. Por mais de um século, os pesquisadores realizaram centenas de testes para detectar ESP, telecinesia e outros fenômenos semelhantes, e quando tais estudos vieram à tona, os céticos têm sido rápidos em cobri-los de descrédito.

Mas por outro lado, Bem está longe de ser típico. Ele é amplamente respeitado por seu pensamento claro e original em psicologia social, e algumas pessoas familiarizadas com o caso dizem que sua reputação pode ter desempenhado um papel importante na aceitação do artigo.

A revisão por pares é normalmente um processo anônimo, com autores e revisores desconhecidos um do outro. Mas todos os quatro revisores deste trabalho foram psicólogos sociais, e todos saberiam de quem era o trabalho avaliado e teriam sido favoráveis à forma como foi fundamentado.

Talvez mais importante, nenhum era estatístico de primeira linha. "O problema foi que esse trabalho foi tratado como qualquer outro", disse uma editora da revista, Laura King, psicóloga da Universidade de Missouri. "E ele não era."

Muitos estatísticos dizem que as técnicas utilizadas pelas ciências sociais para analisar dados fazem uma suposição que é falsa e, no final, auto-enganadora: a de que os pesquisadores não sabem nada sobre a probabilidade da chamada hipótese nula.

Neste caso, a hipótese nula seria a de que a ESP não existe. Recusar a dar peso a essa hipótese não faz sentido, dizem esses especialistas; se a ESP existe, porque as pessoas não estão ficando ricas predizendo com segurança o movimento do mercado de ações ou o resultado dos jogos de futebol?

Em vez disso, esses estatísticos preferem uma técnica chamada análise bayesiana, que visa determinar se o resultado de um experimento em particular "muda as chances da hipótese ser verdadeira", nas palavras de Jeffrey N. Rouder, psicólogo da Universidade de Missouri, que, com Richard D. Morey, da Universidade de Groningen, na Holanda, submeteu uma crítica ao artigo do Dr. Bem para a revista.

Física e biologia, entre outras disciplinas, esmagadoramente sugerem que os experimentos de Bem não mudaram essas chances, disse Dr. Rouder.

Até agora, pelo menos três tentativas de replicar os experimentos fracassaram. Mas o grupo pretende continuar trabalhando nisso, disse o professor de Cornell.
(The New York Times)
(IG, 11/1)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75832

Google lança concurso para jovens com prêmio de R$ 88 mil

O Google Science Fair vai premiar projetos científicos de adolescentes entre 13 e 18 anos

O site de buscas Google lançou nesta terça-feira um concurso científico para adolescentes de todo o mundo de 13 a 18 anos e oferece como prêmio uma viagem de 10 dias às ilhas Galápagos e uma bolsa de 50.000 dólares (cerca de R$ 88.000) .

"O Google quer que os jovens cientistas mais brilhantes do mundo enviem projetos criativos e interessantes que sejam pertinentes para o mundo de hoje", destacou o grupo.

Os estudantes podem participar sozinhos ou em grupos de dois ou três e devem apresentar seus projetos em inglês antes de 4 de abril.

Os projetos, que devem ser enviados para o site Google Science Fair, precisam incluir "um vídeo de dois minutos ou uma apresentação de 20 páginas que deem uma ideia geral do projeto e anexá-lo na inscrição", acrescentou o Google.

Um júri de professores examinará todas as candidaturas e, no começo de maio, "serão escolhidos 60 semifinalistas".

As propostas serão postadas online e submetidas a votação aberta do público.

No fim de maio, o Google anunciará o nome de 15 finalistas que serão convidados a visitar a sede do grupo, na Califórnia (oeste dos EUA), onde um júri composto de "eminentes cientistas, entre eles prêmios Nobel e visionários tecnológicos", elegerão os projetos ganhadores.

As três melhores propostas serão escolhidas em função da faixa etária dos participantes: 13-14 anos, 15-16 anos e 17-18 anos.
(France Presse)
(IG, 11/1)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75830

USP perde candidatos com novas federais

Para especialistas, abstenção na Fuvest tem ligação com expansão de outras instituições

A ampliação da oferta de vagas em universidades federais no Estado é apontada por especialistas como uma das principais causas das abstenções recordes na segunda fase do vestibular da Fuvest, que seleciona para a Universidade de São Paulo (USP) e a Santa Casa. Na terça-feira, o índice chegou a 9%. Na segunda, 8,33%. O padrão era em torno de 5% a 6%.

Neste ano, as três universidades federais em São Paulo oferecem 5.118 vagas. Em 2005, eram 1.403, já que a Universidade Federal do ABC começou a funcionar em 2007, com 1,5 mil vagas. Há quatro anos, eram duas federais no Estado: Unifesp, com câmpus na capital, e os de São Carlos e Araras da Universidade Federal de São Carlos (UFSCar). A partir de 2008, foram abertos, além da federal do ABC, o câmpus de Sorocaba da UFSCar e outros quatro da Unifesp (Baixada Santista, Diadema, Guarulhos e São José dos Campos).

Os dados do Censo do Ensino Superior de 2007 e 2008, do Ministério da Educação, mostra que a oferta de vagas quase dobrou nas federais naquele período - passou de 4,5 mil em 2007 para 6.776 em 2008. As estaduais perderam 248 cadeiras.

Mas não é só: o Exame Nacional do Ensino Médio (Enem) ampliou a chance de os estudantes ingressarem em boas instituições e a USP mudou o formato de seu vestibular desde o ano passado, tornando-o mais difícil na avaliação de educadores.

"A prova está muito mais difícil e desestimula o candidato, que também têm mais opções", afirma o presidente do cursinho Henfil, Mateus Prado. "Não existem pesquisas de campo precisas sobre isso, mas acredito que, além dos cursos privados, a seleção pelo Enem oferece ao aluno de São Paulo a possibilidade de estudar nas federais de outros Estados fazendo uma única prova", aponta Elizabeth Balbachevsky, especialista em ensino superior da Universidade de São Paulo (USP).

Para a coordenadora do Objetivo, Vera Lúcia Antunes, o Enem descentralizou o interessa na Fuvest. "O exame mostrou que existem mais opções", diz ela, que também destaca a dificuldade da prova da Fuvest como um contribuinte para a grande abstenção.

A coordenadora do Cursinho da Poli, Alessandra Venturi, concorda que a diversidade de vagas oferecida contribua para diminuir o interesse na Fuvest. "Mas temos que considerar fatores como o Programa Universidade para Todos (ProUni), que oferece vagas nas particulares."

Segundo Alberto Nascimento, coordenador de vestibular do Anglo, o aumento da abstenção é preocupante. "Ontem mesmo conversei com responsáveis pela Fuvest para que seja feito um estudo que identifique o porquê desses alunos desistirem."

José Coelho Sobrinho, assessor de comunicação da Fuvest, disse que uma comissão irá estudar os números após o encerramento do processo seletivo. O resultado será apresentado ao Conselho de Graduação da universidade.
(Ísis Brum e Mariana Mandelli)
(O Estado de SP, 12/1)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=75826

Hardware e software do ano

Conheça os produtos de tecnologia mais importantes de 2010 e que devem ter posição dominante em 2011.

2010 foi um ano intenso para a área de tecnologia, quando a ruptura anunciada pelas novas plataformas e modelos de software tomou forma. Grandes nuvens foram inauguradas, mais software foram oferecidos a partir de servidores virtuais e, na outra ponta, os desktops e notebooks perderam espaço como principais dispositivos à medida que smartphones e tablets ganharam poder ao fazer proveito da nuvem.

O movimento pode ser mais facilmente explicado ao observarmos quais foram os hardware e software que mais cresceram em aceitação no ano passado. Confira quem ganhou espaço em 2010 e os que demonstraram poder real de inovação e de transformação.

iPads e Androids
O dispositivo dos usuários está diminuindo de tamanho, mas isso não se traduz em menor poder. O laptop, por si só um dos responsáveis por reduzir a abrangência dos desktops tradicionais, agora está na mira. O ataque vem de smartphones e tablets.

Se alguém duvidava do impacto do iPad, a resposta veio no evento CES 2011, principal feira mundial de gadgets. Fabricantes concorrentes lançaram tablets para concorrer com o dispositivo da Apple para todos os gostos.

O que muitos analistas avaliam é que o movimento só provou a excelência do iPad, que emergiu como ferramenta de negócios popular e versátil, além de ter muito sucesso com consumidores domésticos. Mais pessoal que qualquer PC, o iPad conseguiu, na visão de seus usuários, equacionar muito bem os quesitos utilidade e diversão. É uma escolha fácil para melhor do ano.

Mas não dá para negar também o poder do Android como um alavancador dos tablets. Lançado primeiro como plataforma de smartphones, o Android é a escolha da Infoworld para plataforma do ano. Em parte porque é código aberto, permitindo que desenvolvedores busquem ainda mais inovações relacionadas. E a abordagem fechada da Apple para desenvolvimento e distribuição de aplicações pode começar a acarretar em custos no médio prazo, ao longo da evolução das plataformas.

Os desenvolvedores têm papel de destaque no sucesso ou no fracasso de novas tecnologias. Por essa razão, os ambientes integrados de desenvolvimento (IDE) têm participação fundamental no mercado, ganhando cada vez mais espaço dos tradicionais editores. E o escolhido para IDE do ano foi o Visual Studio 2010, da Microsoft, que percebeu que dar oportunidade aos desenvolvedores é a melhor forma de alavancar adoção de tecnologias.

Explosão dos dados e computação em nuvem
A explosão na quantidade de dados que as empresas precisam armazenar era algo imaginável há alguns anos. Por consequencia, aumentou muito a necessidade de ferramentas de bancos de dados capazes de lidar com dados não-tabulares e não-transacionais, criando novas tendências nesse universo.

Um dos movimentos emergentes é o NoSQL, no qual o SQL é deixado de lado em favor de ferramentas de código aberto, mais flexíveis. O movimento, no entanto, pode ser minado por esforços voltados a SQL, observado em consumidores e clientes. No mercado, quem mais ganha são os fornecedores de sistemas de gerenciamento de bancos de dados relacionais (RDBMS), adeptos da inclusão de novas tecnologias em seus produtos principais e responsáveis por alguns dos melhores projetos de código aberto.

A explosão dos dados não seria possível sem infraestrutura para apoiá-los. Nesse contexto os destaques são armazenamento e computação virtualizados, que formam a computação em nuvem, gerando eficiência, flexibilidade e baixo custo. Os recursos atrativos da nuvem, como backup, sistema redundante, capacidade de expansão instantânea, facilidade de uso, sem dúvida vai ganhar muitos adeptos em 2011.

Virtualização e múltiplos núcleos
A virtualização, porta de entrada para a nuvem, levou a formas mais inteligentes de usar processadores. Entre os que se destacaram no mercado, escolhidos pela InfoWorld como processadores do ano, estão o Opteron Magny-Cours, da AMD, e o Intel Xeon Nehalem-EX, ambos com desempenho superior para rodar múltiplas tarefas. O melhor preço vem do produto da AMD, mas a Intel se destaca nos quesitos confiabilidade e disponibilidade, ajudando a criar produtos com nível de serviço que antes só eram encontrados em mainframes, servidores RISC/Unix e Itanium.

A expectativa é de melhoras na área. Mais processadores com núcleos múltiplos e configurações de RAM mais densas, combinadas à capacidade das redes, são a base para as futuras nuvens privadas.

No universo das soluções de infraestrutura de desktop virtual (VDI), o futuro ainda não está muito claro. Algumas soluções podem acabar saindo caras e complexas demais. Mas algumas para iniciantes são capazes de simplificar a tarefa. O escolhida pela InfoWorld foi a Kaviza VDI-in-a-box, que ajuda a levar a virtualização de desktop ao alcance de todos.

E a Microsoft?
Ao contrário dos que muitos pensam, a empresa de Redmond não vive somente do passado, mas também sabe introduzir inovações. Entre as principais estrelas da companhia, estão plataforma de gestão de conteúdo e colaboração, que permitem a usuários o compartilhamento de fluxos de trabalho, arquivos, além de acesso imediato a dados dos negócios, de acordo com os paradigmas modernos de empresas interconectadas e web 2.0. A InfoWorld elegeu o SharePoint 2010 e o Exchange 2010 como produtos vencedores de suas categorias.

Fonte:http://computerworld.uol.com.br/tecnologia/2011/01/12/os-hardwares-e-softwares-do-ano/

Alternativa para fármaco mais vendido

13/1/2011

Por Fabio Castro

Agência FAPESP – Um grupo de pesquisadores da Universidade Estadual de Campinas (Unicamp) desenvolveu uma nova rota, mais eficiente, para a produção de atorvastatina. A substância é o princípio ativo do medicamento mais vendido no mundo, o Lipitor, utilizado para a redução dos níveis de colesterol no organismo.

A patente do medicamento no Brasil expirou em dezembro de 2010 e a descoberta da nova rota de produção é um passo importante para o desenvolvimento de um genérico brasileiro do Liptor, de acordo com o coordenador da pesquisa, Luiz Carlos Dias, professor do Instituto de Química (IQ) da Unicamp.

O estudo, que teve a participação do pós-doutorando Adriano Siqueira Vieira, foi realizado no âmbito do Instituto Nacional de Ciência e Tecnologia de Fármacos e Medicamentos (INCT-Inofar). Membro do comitê gestor do instituto, Dias é responsável pelos projetos relacionados a medicamentos genéricos.

O INCT-Inofar, que tem apoio da Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj) e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), é sediado no Rio de Janeiro e coordenado pelo professor Eliezer Barreiro, do Laboratório de Avaliação e Síntese de Substâncias Bioativas da Faculdade de Farmácia da Universidade Federal do Rio de Janeiro (UFRJ).

Dias coordena o projeto "Síntese total de produtos naturais com atividade farmacológica destacada. Síntese de análogos, estudos de SAR, modelagem e avaliação bioquímica", apoiado pela FAPESP por meio da modalidade Auxílio à Pesquisa – Regular.

Segundo ele, o trabalho da equipe brasileira consistiu em uma inovação incremental, que melhorou a rota de obtenção da molécula, reduzindo a quantidade de solventes e reagentes em diversas etapas do processo de produção. As reações puderam ser realizadas em condições mais brandas, com insumos mais baratos e com menor impacto ambiental.

“Fizemos várias melhorias, incrementando muito o rendimento intermediário da síntese, que passou de 30%, na rota anterior, para 61%. O mais importante é que introduzimos também inovações a partir desse ponto intermediário e passamos a preparar a atorvastatina por uma rota mais curta, que ainda não havia sido descrita em nenhuma das patentes. É um processo que desenvolvemos e que permitiu que, em poucas etapas, chegássemos ao princípio ativo”, disse Dias à Agência FAPESP.

Dias explicou que a inovação consistiu basicamente em conseguir preparar o princípio ativo de uma maneira diferente. “Chegamos exatamente à mesma molécula, em sua forma mais ativa – já que ela tem quatro polimorfos, com maneiras diferentes de cristalizar. Trata-se de um genérico, produzido a partir de uma rota diferente e mais curta, suprimindo a utilização de diversos insumos caros e tóxicos.”

A nova rota tem etapas que envolvem reações e intermediários que não haviam sido utilizados em nenhuma das patentes anteriores. Dias explica que a molécula da atorvastatina foi escolhida para a síntese por seu valor econômico.

“Apenas em 2009, o Lipitor rendeu para a Pfizer cerca de R$ 400 milhões apenas no Brasil e US$ 13 bilhões em todo o mundo. Trata-se de um medicamento caro, mas que é o mais vendido no mundo. A nova rota para produção de atorvastatina deverá reduzir o preço final do genérico e poderá causar impacto na balança comercial brasileira, em especial para o Sistema Único de Saúde”, disse.

A patente do Lipitor é de 1989 e expirava em 2009. A Pfizer conseguiu uma liminar para estendê-la até dezembro de 2010, de acordo com Dias. “As patentes em vias de expiração podem ser vistas como uma oportunidade, já que temos no país, em várias instituições acadêmicas, a competência instalada para melhorar as rotas de produção ou mesmo partir de rotas inéditas”, afirmou.

A estratégia vale para qualquer medicamento, segundo o cientista. “A estrutura da atorvastatina é uma das mais complexas entre os genéricos que podemos preparar. Se conseguimos preparar essa molécula, isso significa que podemos dar conta de praticamente qualquer princípio ativo. Temos princípios ativos de medicamentos com estruturas muito mais simples e que também têm impacto importante para o SUS”, disse o cientista.

Laboratórios de escalonamento

Segundo Dias, com a nova rota descoberta, a equipe de cientistas preparou um grama de atorvastatina. A partir de agora começa o processo de patenteamento da nova rota de produção da molécula, junto à Agência de Inovação da Unicamp (Inova).

“Dificilmente se consegue preparar mais que isso em escala laboratorial. Agora, vamos passar à fase de conversas com a indústria farmacêutica. Já temos uma empresa interessada, com quem vamos discutir o escalonamento e a preparação em escala industrial”, disse.

A produção em escala industrial segue outra lógica, segundo Dias, difícil de ser levada adiante nos laboratórios de pesquisa. “Só a indústria poderá produzir em grande escala, pois não temos laboratórios de escalonamento no Brasil. Seria importante para o país investir nisso”, disse.

Hoje, segundo Dias, existe apenas um genérico da atorvastatina, mas ele ainda é muito caro: custa entre R$ 70 e R$ 80 por caixa, dependendo do Estado. A caixa de Lipitor custa de R$ 120 a R$ 200. “Eu diria que muito menos de 5% da população brasileira que tem problema de colesterol tem acesso a esse medicamento – mesmo o genérico –, que não faz parte do Farmácia Popular”, disse.

O preço atual do medicamento é tão alto, segundo Dias, porque as farmoquímicas brasileiras importam insumos de outros mercados como Índia, China, Japão e Estados Unidos. No Brasil, apenas pequenas transformações são feitas e o genérico é posto no mercado com o custo desses insumos repassados ao consumidor.

“Assim que passarmos a produzir no Brasil insumos avançados ou esses princípios ativos de genéricos, o preço final dos medicamentos vai ser muito menor. Além disso, poderemos passar a exportar para os países vizinhos. Esse é o cenário ideal para o nosso setor farmacêutico. Para chegar lá precisaremos de muito investimento”, afirmou.

Segundo o professor da Unicamp, há investimentos sendo feitos, mas para alcançar o objetivo será necessária uma maior aproximação entre governo federal, estadual, o setor acadêmico e o setor industrial. “Poucas empresas no Brasil fazem pesquisa, mesmo incremental. Fazem muita cópia, mas não investem na fabricação de insumos e produção de medicamentos”, disse.

No entanto, a competência instalada no setor acadêmico em todo o Brasil já é suficiente para reverter esse quadro, segundo ele. “Acho que um trabalho como essa nova rota para produção da atorvastatina mostra que temos potencial para preparar esses princípios ativos não apenas com inovações incrementais, mas também a partir de rotas inéditas, com tecnologia desenvolvida no país”, destacou.

O principal gargalo atualmente, segundo ele, é a inexistência dos laboratórios de escalonamento nas universidades brasileiras. O laboratório do IQ, por exemplo, precisa preparar um lote de 600 gramas de um composto novo para fazer todos os testes. Mas nenhum laboratório acadêmico tem essa condição.

“As empresas farmacêuticas ficam então com essa responsabilidade, mas eles só vão fazer esse teste se houver praticamente certeza que o composto vá para o mercado. Mas inovação sempre tem algum nível de incerteza e, por isso, não fazemos inovação. Eles não apostam nesse tipo de pesquisa”, afirmou.

A solução, segundo Dias, consistirá em pagar para que um laboratório do exterior prepare os 600 gramas do novo composto. “Temos contato com um laboratório do Uruguai e outro da Espanha. Mas o ideal seria termos nossos próprios laboratórios para escalonamento. Isso traria recursos para as instituições acadêmicas, já que poderíamos preparar compostos em grandes escalas e vendê-los para as farmoquímicas”, disse.

Fonte:http://www.agencia.fapesp.br/materia/13313/alternativa-para-farmaco-mais-vendido.htm

Google Docs agora pode armazenar e reproduzir vídeo

IDG News Service
12-01-2011
(Brennon Slattery)
Usuários podem adicionar, armazenar e assistir vídeos no Docs. Entre os formatos suportados estão AVI, MPEG4 e MOV.

A Google incluiu o recurso de armazenamento e reprodução de vídeo ao Google Docs. É possível enviar arquivos de até 1 GB, na resolução máxima de 1920x1080 pixels (FullHD). .

Desde janeiro de 2010, a companhia permite que os usuários façam upload de qualquer tipo de arquivo para o Docs, mas até recentemente não era possível assistir vídeos pelo próprio navegador.



Vídeo em execução no próprio Google Docs

Os formatos de arquivos suportados são: WebM (codec de vídeo VP8 e codec de áudio Vorbis), MPEG4, 3GPP e MOV (Codecs de vídeo H264 e MPEG4 e de áudio AAC), AVI (muitas câmeras usam este formato - normalmente o codec de vídeo MJPEG e áudio PCM), MPEGPS (codec de vídeo MPEG2 e áudio MP2), WMV e FLV (Codec de vídeo FLV1, da Adobe, e áudio MP3).

Para assistir os vídeos é necessário ter o plugin Flash instalado no navegador. O novo recurso foi divulgado pelo blog oficial do Google Docs na última quinta-feira (6/1).

Fonte:http://pcworld.uol.com.br/noticias/2011/01/12/google-docs-agora-pode-armazenar-e-reproduzir-video/

Da sala de aula para o espaço

12/1/2011

Revista Pesquisa FAPESP – Um grupo de professores e 108 estudantes do quinto ano da Escola Municipal Tancredo Neves, de Ubatuba, litoral norte paulista, em conjunto com empresários e pesquisadores voluntários, estão construindo um satélite artificial que deve ser lançado nos Estados Unidos e entrar em órbita ainda este ano.

A iniciativa partiu do professor de matemática Candido Osvaldo de Moura. Em fevereiro de 2010, ele leu em uma revista de divulgação científica que uma empresa dos Estados Unidos, a Interorbital, vendia kits de satélites chamados TubeSats, que permaneciam em órbita a 300 quilômetros de altitude durante três meses. Ousadamente, Moura pensou em construir e lançar um desses. Os alunos aprovaram seu plano, mesmo sabendo que teriam de enfrentar muitas dificuldades, que Moura está superando, uma a uma.

Para começar, não tinham como pagar os U$ 8 mil do kit do satélite. Moura, porém, conseguiu o patrocínio de empresas locais que cobriram as despesas. Depois, ele descobriu que somente por meio de uma fundação seria possível enviar o dinheiro à empresa nos Estados Unidos. Conversou com os dirigentes da escola, com os políticos da cidade e conseguiu transformar a Associação de Pais e Mestres em uma fundação. O professor de matemática teve de batalhar também uma licença do Instituto Nacional de Pesquisas Espaciais (Inpe), órgão federal sediado em São José dos Campos, interior paulista, que constrói e gerencia satélites no Brasil.

Aos poucos, Moura conseguiu o apoio de outros professores, que mobilizaram os estudantes de todas as classes e promoveram um concurso para selecionar a mensagem que o satélite deve emitir nos três meses em que estiver em órbita.

A equipe coordenada por ele e por Emerson Yaegashi, professor de inglês, trabalha agora nos dispositivos eletrônicos do interior do satélite. Receberam os componentes e as instruções para montar os protótipos e a versão definitiva. Vendo que precisava de ajuda, Souza procurou uma empresa de robótica e desenvolvimento de software sediada na cidade de São Paulo, a Globalcode, e teve uma grata surpresa: os diretores, Vinicius Senger e Yara Mascarenhas Hornos Senger, moravam em Ubatuba.

“Vencidas as etapas financeira e burocrática, agora o grande desafio é construir o recheio do satélite”, diz Yara. Depois de coordenarem o treinamento sobre eletrônica básica para os professores, Vinicius e Yara começaram voluntariamente a ajudar docentes e alunos a desenhar, corroer e soldar as placas dos protótipos do satélite.

“Criamos a placa Ubatubino, que pode ser reutilizada para outras funções e as próprias crianças podem fabricar, usando programas de fonte aberta e material simples, como um ferro de passar roupa”, diz Vinicius. “As crianças estão fazendo pequenos computadores, com capacidade similar aos que os astronautas usaram na década de 1960 quando pousaram na Lua. É totalmente viável construirmos satélites educacionais inteiramente no Brasil, sem depender de importações, e promover, por exemplo, competições entre escolas.”

A edição de janeiro da revista SatMagazine , especializada em satélites, citou o trabalho realizado em Ubatuba: “O TubeSats já é parte do currículo de universidades e escolas ao redor do mundo. Talvez o mais ambicioso projeto esteja no Brasil em um programa coordenado por Candido Osvaldo e Emerson Yaegashi, no qual 120 estudantes criaram 22 maquetes do TubeSats em sala de aula. Os alunos que construírem as melhores maquetes ganharão a honra de montar o TubeSat orbital real”.

Sérgio Mascarenhas, coordenador de projetos do Instituto de Estudos Avançados (IEA) da Universidade de São Paulo (USP) em São Carlos, tem acompanhado com entusiasmo a construção do satélite de Ubatuba: “O apoio à iniciativa do professor é a saída para melhorarmos a educação no Brasil”, comenta. Em férias, o professor Candido Osvaldo de Moura não foi encontrado para comentar o projeto que ele coordena.

Imagens

O vídeo “Mão na massa: aprendendo a soldar, criar placas, corroer e fabricar placas no seu escritório” contém etapas do processo de produção das placas pelos professores e pelas crianças – como a impressão, usando ferro de passar roupa.

Fonte:http://www.agencia.fapesp.br/materia/13307/da-sala-de-aula-para-o-espaco.htm

quarta-feira, 12 de janeiro de 2011

Os 100 melhores novos clássicos do cinema

A revista Entertainment Weekly divulga sua lista dos 100 filmes que considera novos clássicos do cinema. São longas lançados nos últimos 25 anos. Não é para levar a sério, claro. Até porque não tem muita coisa boa que não entrou, e muita coisa ruim que foi incluída.

1. Pulp Fiction (1994)
2. O Senhor dos Anéis (2001-03)
3. Titanic (1997)
4. Veludo Azul (1986)
5. Toy Story (1995)
6. Resgate do Soldado Ryan (1998)
7. Hannah e Suas Irmãs (1986)
8. O Silêncio dos Inocentes (1991)
9. Duro de Matar (1988)
10. Moulin Rouge (2001)
11. Isto É Spinal Tap (1984)
12. Matrix (1999)
13. Os Bons Companheiros (1990)
14. Crumb (1995)
15. Edward Mãos de Tesoura (1990)
16. Boogie Nights (1997)
17. Jerry Maguire (1996)
18. Faça a Coisa Certa (1989)
19. Casino Royale (2006)
20. O Rei Leão (1994)
21. A Lista de Schindler (1993)
22. Três É Demais (1998)
23. Amnésia (2001)
24. Uma Janela para o Amor (1986)
25. Shrek (2001)
26. Hoop Dreams (1994)
27. Aliens (1986)
28. Asas do Desejo (1988)
29. A Supremacia Bourne (2004)
30. Harry e Sally (1989)
31. O Segredo de Brokeback Mountain (2005)
32. Clube da Luta (1999)
33. The Breakfast Club (1985)
34. Fargo (1996)
35. Os Incríveis (2004)
36. Homem-Aranha 2 (2004)
37. Uma Linda Mulher (1990)
38. Brilho Eterno de uma Mente sem Lembrança (2004)
39. O Sexto Sentido (1999)
40. Velocidade Máxima (1994)
41. Jovens, Loucos e Rebeldes (1993)
42. As Patricinhas de Beverly Hills (1995)
43. Gladiador (2000)
44. O Jogador (1992)
45. Rain Man (1988)
46. Filhos da Esperança (2006)
47. Homens de Preto (1997)
48. Scarface (1983)
49. O Tigre e o Dragão (2000)
50. O Piano (1993)
51. Sangue Negro (2007)
52. Corra que a Polícia Vem Aí (1988)
53. O Show de Truman (1998)
54. Atração Fatal (1987)
55. Negócio Arriscado (1983)
56. A Vida dos Outros (2006)
57. Quem Vai Ficar com Mary (1998)
58. Os Caça-Fantasmas (1984)
59. Los Angeles, Cidade Proibida (1997)
60. Pânico (1996)
61. Um Tira da Pesada (1984)
62. sexo, mentiras e videotape (1989)
63. Quero Ser Grande (1988)
64. Onde os Fracos Não Têm Vez (2007)
65. Dirty Dancing (1987)
66. Assassinos por Natureza (1994)
67. Donnie Brasco (1997)
68. A Testemunha (1985)
69. Tudo Sobre Minha Mãe (1999)
70. Nos Bastidores da Notícia (1987)
71. Os Imperdoáveis (1992)
72. Thelma & Louise (1991)
73. Como Enlouquecer seu Chefe (1999)
74. Drugstore Cowboy (1989)
75. Entre Dois Amores (1985)
76. Os Infiltrados (2006)
77. Sid & Nancy (1986)
78. O Exterminador do Futuro 2 (1991)
79. Waiting for Guffman (1996)
80. Michael Clayton (2007)
81. Feitiço da Lua (1987)
82. Encontros e Desencontros (2003)
83. Evil Dead 2: Dead by Dawn (1987)
84. Sideways (2004)
85. O Virgem de 40 Anos (2005)
86. E sua Mãe Também (2002)
87. Swingers (1996)
88. Austin Powers (1997)
89. Ondas do Destino (1996)
90. Napoleon Dynamite (2004)
91. De Volta para o Futuro (1985)
92. Perigo para a Sociedade (1993)
93. Ed Wood (1994)
94. Nascido para Matar (1987)
95. Amor À Flor da Pele (2001)
96. Longe do Paraíso (2002)
97. Tempo de Glória (1989)
98. O Talentoso Mr. Ripley (1999)
99. A Bruxa de Blair (1999)
100. South Park: Maior, Melhor e sem Cortes (1999)

Fonte:http://freakshowbusiness.com/2008/06/21/os-100-melhores-novos-classicos-do-cinema/

Banda larga móvel atingirá 1 bilhão de assinaturas em 2011

Crescimento no tráfego será impulsionado por smartphones, laptops e tablets, diz estudo da Ericsson.
O número de assinaturas ultrapassou meio bilhão em nível global, resultado representativo para a banda larga móvel no ano de 2010, segundo estudo da Ericsson. A empresa estima que esse montante irá dobrar antes do final de 2011, sendo cerca de 400 milhões de assinaturas concentradas na região da Ásia-Pacífico, seguida pela América do Norte e Europa Ocidental, cada uma com mais de 200 milhões de assinaturas.

Essa popularização da banda larga móvel, de acordo com a empresa, foi acelerada pelo forte crescimento no uso de smartphones, laptops e tablets conectados e apoiada pela introdução de redes de alta performance. Os usuários de smartphones estão utilizando cada vez mais aplicações e serviços de internet móveis.

A Ericsson anunciou em 2010 que o tráfego móvel global de dados havia triplicado em apenas um ano, e ele continua a crescer rapidamente.

Fonte:http://computerworld.uol.com.br/telecom/2011/01/11/banda-larga-movel-atingira-1-bilhao-de-assinaturas-em-2011/

Nanotecnologia possibilita o fabrico de lentes líquidas

Esta tecnologia tornará possível criar lentes flexíveis e líquidas para smartphones e câmaras de vídeo.
Segundo a PC Pro um novo avanço na gestão de fluidos poderá levar ao aparecimento de um novo tipo de lentes líquidas e flexíveis. Este avanço foi obtido por engenheiros no Rensselaer Polytechnic Institute, que juntaram nanopartículas de metal a gotas de líquido.

Ao serem manipuladas através de eletroímanes, estas gotas podem ser usadas como lentes de focagem rápida em máquinas digitais, ou como pistões para sistemas lab-on-a-chip (sistemas que executam uma ou várias funções de um laboratório, num único chip).

Ao mudar a forma e espessura do líquido recorrendo a variações da força magnética, podemos focar a luz que. Como as imagens são capturadas eletronicamente, podemos, também usar software para editar quaisquer quadros desfocados.

Esta tecnologia poderá significar lentes mais leves que exigem apenas uma fração da energia usada pelos modelos de hoje.

Fonte:http://aeiou.exameinformatica.pt/nanotecnologia-possibilita-o-fabrico-de-lentes-liquidas=f1008304

TMN lança pré-pago com comunicações (quase) ilimitadas

A TMN lançou hoje o tarifário pré-pago "e", que tem como principais atrativos o envio de SMS e a possibilidade de fazer chamadas sem limites entre utilizadores da rede TMN.


Ao contrário dos pré-pagos que vigoraram até à atualidade, os telemóveis usados no âmbito do novo tarifário não ficam impedidos de fazer chamadas quando o utilizador não faz o carregamento com o valor fixado inicialmente para cada período de 30 dias. Nestes casos, os utilizadores podem continuar a fazer telefonemas, enviar SMS ou navegar na Net, mas com custos superiores aos previstos pelo tarifário "e".

Em conferência de imprensa realizada hoje, os responsáveis da PT informaram que o "e" foi criado após uma análise de mercado junto de milhares de potenciais clientes.

O novo pré-pago tem por objetivo chegar ao utilizador médio de Internet móvel. Os utilizadores que navegam intensivamente na Net móvel deverão procurar outros tarifários, recordam os responsáveis da PT.

Entre os objetivos da PT está, claramente, a possibilidade de capitalizar a liderança no que toca à quota de mercado (cerca de 7,3 milhões de clientes).

O novo tarifário disponibiliza uma modalidade que contempla telefonemas e SMS ilimitados dentro da rede TMN com custos mensais a partir de 10 euros (para quem quer o serviço apenas à noite e ao fim de semana; quem pretende esta modalidade para todas as horas de todos os dias deve pagar 20 euros mensais).

Há ainda uma modalidade que junta 500 MB de tráfego na Net aos telefonemas e SMS ilimitados dentro da rede TMN. Esta alternativa exige o pagamento de uma mensalidade mínima de 15 euros, para quem pretende usar o serviço apenas à noite e aos fins de semana. Quem enveredar por esta modalidade para todas as horas do dia deverá pagar 25 euros mensais.

As chamadas para as redes concorrentes da TMN têm um custo de 20 cêntimos por minuto. Em contrapartida, o envio de SMS para a Optimus ou a Vodafone exigem o pagamento de 10 cêntimos.

Quando não fazem o precarregamento do "e", os utilizadores podem continuar a fazer chamadas telefónicas - mas deverão pagar 30 cêntimos por minuto.

Em contrapartida, o envio de um SMS nestas condições fica orçado em 15 cêntimos. Sempre que excede os 500 MB de tráfego, o utilizador paga mais um euro para continuar a navegar na Net.


Fonte:http://aeiou.exameinformatica.pt/tmn-lanca-pre-pago-com-comunicacoes-quase-ilimitadas=f1008303

Como enfrentar os desafios do gerenciamento de banco de dados

O Oracle Database 11g permite que as empresas adotem novas tecnologias rapidamente, minimizando o risco.


Três áreas continuam a ser os maiores desafios de gerenciamento para os administradores de banco de dados. São elas: •Desempenho: Como manter os bancos de dados de produção em desempenho máximo para manter altos níveis de serviço. •Gerenciamento de alterações: Como reduzir o risco da implantação de alterações, assim como de inovações tecnológicas, nos ambientes de bancos de dados Oracle a baixos custos. •Administração do dia a dia: Como automatizar as tarefas repetitivas do dia-a-dia de forma que a mão-de-obra possa ser liberada para se concentrar em necessidades mais estratégicas, como a segurança e a alta disponibilidade.

Fonte:http://olhardigital.uol.com.br/negocios/digital_news/noticias/como_enfrentar_os_desafios_do_gerenciamento_de_banco_de_dados

Use ferramentas de compressão para segurar a explosão de dados

As empresas estão sofrendo uma explosão no volume de dados necessários para operar seus negócios com eficácia. Essa tendência no crescimento dos dados pode ser atribuída a diversos fatores-chave.


A súbita explosão no volume de dados apresenta um desafio assustador de gerenciamento para os administradores de TI. Antes de tudo, estão os custos de armazenagem crescendo em espiral: mesmo com a queda dramática no custo por MB de armazenamento nos últimos anos, o imenso crescimento no volume de dados que devem ser mantidos on-line torna o armazenamento um dos maiores elementos de custo na maioria dos orçamentos de TI. Além disso, a escalabilidade e o desempenho dos aplicativos devem continuar a atender as demandas dos negócios, mesmo quando os volumes de dados explodem.
O Oracle Database 11g apresenta a opção de Compressão Avançada para ajudar os clientes a enfrentar esses desafios. As inovações nas tecnologias de compressão da Oracle ajudam os clientes a reduzir os recursos e os custos de administrar grandes volumes de dados. A introdução dessas empolgantes novas tecnologias surge em uma época na qual bancos de dados de terabytes, antes considerados uma novidade, estão se tornando prevalentes nos centros de dados das empresas.
Fonte:http://olhardigital.uol.com.br/negocios/digital_news/noticias/use_ferramentas_de_compressao_para_segurar_a_explosao_de_dados

Internet do Plano Nacional de Banda Larga deve custar R$ 35

Em uma reunião com representantes de provedores de Internet, o Ministro das Comunicações Paulo Bernardo afirmou que o preço ainda pode cair.


Em uma reunião nesta terça-feira (11) com representantes de pequenos provedores de Internet, o novo Ministro das Comunicações Paulo Bernardo divulgou qual deverá ser o custo da Internet fornecida pelo Plano Nacional de Banda Larga (PNBL), que será fornecido pelo Governo Federal. "Trabalhamos com o valor de referência do acesso à Internet a R$35 mensais, mas podemos reduzir esse preço", afirmou. O preço seria referente à velocidade mínima de 512kbps.
Uma das ideias para o plano é criar uma linha de crédito especial no BNDES (Banco Nacional de Desenvolvimento Econômico e Social) para facilitar empréstimos para companhias regionais de Internet. Segundo Bernardo, o preço médio do país hoje é de R$60, principalmente devido aos impostos, burocracia e altos preços para o tráfego de dados. O Ministro também falou de seus planos para a criação do Plano de Aceleração da Banda Larga.

A meta do PNBL é levar Internet rápida a preços populares para mais de mil municípios até o fim de 2011. Para tanto, o plano deverá disponibilizar 30 mil quilômetros de fibra ótica da Telebrás e outras estatais e negociar isenções de impostos com os estados para baixar mais o preço.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/internet_do_plano_nacional_de_banda_larga_deve_custar_r_35

O alfabeto ordenado pela popularidade no Google

Equipe da agência de publicidade Smäll organizou todo o abecedário e numerais conforme a quantidade de resultados em uma busca no Google.


A equipe da agência de publicidade espanhola Smäll fez uma pesquisa no Google para organizar todas as letras do alfabeto e numerais em um ranking conforme a quantidade de vezes que eles aparecem no buscador - ou a "popularidade" deles, como afirmaram. Os resultados mostraram a influência da lingua inglesa que, apesar de não se a mais falada do mundo, é a "língua franca" dentro da Internet.
A vencedora é a letra "A", com cerca de 25 bilhões de resultados em uma busca - "a" é o artigo indefinido "uma" e "um" em inglês. Em segundo lugar, com 140 milhões de resultados a menos que a primeira, vem o "I", que, de novo, em inglês é o pronome pessoal "eu".

As próximas letras têm uma queda considerável no número de resultados, com "S" e "T" em terceiro e quarto lugares, respectivamente. A explicação para isso é que as duas letras juntas ("st") são a abreviação de "rua" (street) e "santo" (saint), também em inglês.

Nos numerais, o primeiro lugar ficou, incrivelmente, com o "6". A explicação da equipe do site é que isso se deve ao famoso número da besta, o 666. Será?

fonte:http://olhardigital.uol.com.br/produtos/digital_news/noticias/o_alfabeto_ordenado_pela_popularidade_no_google