René Ribeiro, da PC WORLD
09-09-2010
Modelo MPro 150 cabe no bolso, produz imagens de até 50 polegadas e tem aplicativo para ler documentos do Office, fotos e vídeos
A 3M melhorou sua linha de pico-projetores e lançou o Mpro 150. Trata-se de um projetor que pode ser levado no bolso e, além de um notebook ou desktop, também pode ser ligado a um iPhone e iPod (com cabo vendido separadamente).
O Mpro 150 tem 13 centímetros de comprimento, 6 cm de largura e 2,4 cm de espessura. Utiliza tecnologia LED como fonte de luz, e tem luminosidade de 15 lúmens. O modelo anterior, chamado Mpro 120, chegava a 12 lúmens. O LED em questão não é substituível pelo usuário, e segundo a 3M sua vida útil é de 20 mil horas.
Mas a principal melhoria do Mpro 150 é a capacidade para armazenar arquivos. Ele vem com 1 GB de memória interna e possui slot para um cartões microSD. O produto ainda vem com um cartão de 2 GB. Além de armazenar arquivos, o Mpro 150 vem com software para ler documentos nos formatos do Microsoft Office (DOC, PPT, XLS e PPS), texto puro (.TXT) e PDF.
Pico-projetor MPro 150: Memória e aplicativos internos dispensam uso do PC
Mas o MPro 150 não se restringe apenas aos documentos. Esse pico-projetor ainda exibe imagens (JPG, GIF e BMP), vídeos (AVI, MOV, MP4 3GP e 3GP2) e reproduz áudio (MP3, AMP, AWB e WAV).
Testes
A primeira coisa que fizemos foi verificar a facilidade de uso. Sem conectar o aparelho a um computador, inserimos um cartão micro SD com apresentações em PowerPoint, planilhas, textos (DOC) e documentos PDF. Escolhemos o aplicativo para ler apresentações e logo foram exibidos os arquivos em PPT do cartão e o arquivo exemplo que está armazenado na memória interna. Os documentos do Word, Excel e PDF também foram lidos corretamente.
O Mpro 150 tem também quatro níveis de zoom, o que foi muito útil para ler com clareza as planinhas grandes e documentos PDFs que continham letras pequenas.
Leia também:
>> MPro110 é um projetor portátil que dá para carregar no bolso
>> Projetor MPro120, da 3M, pesa apenas 154 gramas
>> Projetor M109S, da Dell, é perfeito para quem exige mobilidade
Apesar da luminosidade do Mpro150 ter melhorado em relação ao modelo anterior, ainda assim é necessário uma sala bem escura para exibir uma tela de 50 polegadas (diagonal) com nitidez. O resultado é muito bom no contraste, mas ainda sente-se a falta de brilho na exibição de filmes.
Obtém-se melhor resultado com tamanhos de 40 polegadas, e para ajustar o tamanho basta afastar ou aproximar o projetor da parede. O projetor aceita resoluções de 640 x 480 (VGA) até 1280 x 768.
Menu do MPro 150: acesso fácil a arquivos do Office, PDF, vídeos e fotos
A aplicação para exibir imagens é interessante, pois possui slide show com efeitos de transição e é possível inserir uma música de fundo. O tempo de transição entre as fotos é ajustado facilmente pelo menu. O sistema de amplificação de som do Mpro 150 melhorou bastante: apesar dos alto-falantes terem a potência de 0,5 watt, o som obtido foi bastante nítido.
Projetor MPro e acessórios que acompanham o produto
A bateria tem capacidade de 2200 mAh, 3,7 volts e 8,1 Wh. É um pouco maior do que a de um smartphone. Em nosso teste deixamos um álbum de fotos sendo exibido continuamente, com brilho máximo e a autonomia foi de uma hora e 52 minutos.
Mas se for necessário fazer apresentações com mais tempo do que isso, o Mpro 150 acompanha carregador e pode ser utilizado na tomada sem restrições. Outro ponto interessante é o cabo RCA. Com ele é possível conectar ao projetor qualquer dispositivo que tenha saída RCA (o popular "cabo de áudio e vídeo" com plugues branco, vermelho e amarelo). Com cabos opcionais, é possível conectar câmeras fotográficas e filmadoras também.
O MPro 150 é ideal para quem viaja muito fazendo apresentações, mas serve apenas para salas pequenas. Em auditórios, a luminosidade do MPro 150 não é suficiente. O recurso para exibir fotos com música de fundo é interessante. Quanto a exibição de vídeos, o ideal é se restringir aos vídeos curtos, para ilustrar alguma apresentação. Vídeos longos tornam-se cansativos devido à baixa luminosidade.
Pico-Projetor MPro 150
Fabricante: 3M
Pontos fortes:
Mobilidade
3 GB para armazenar documentos e imagens (1 GB de memória interna e 2 GB em cartão microSD que acompanha o produto)
Aplicaçoes internas para ler vários tipos de arquivo dispensa o uso de um PC
Pontos fracos:
Luminisosidade ainda deixa a desejar para exibição de filmes.
Preço: R$ 1.499,00 (Sugerido)
Onde encontrar:
www.compre3m.com.br
Fonte:http://pcworld.uol.com.br/reviews/2010/09/09/pico-projetor-da-3m-tem-tamanho-de-celular-e-dispensa-conexao-ao-pc/
Translate
sexta-feira, 10 de setembro de 2010
Entenda como funciona o Google Instant Search
Klaus Junginger e William Marchiori
09-09-2010
Em apresentação no canal de vídeos do Google no YouTube, executivos da empresa falam das vantagens deste novo recurso.
Depois de meses de especulação e de testes, o Google anunciou a estréia do Instant Search, recurso de busca que apresenta ao internauta os potenciais resultados enquanto os termos procurados são digitados no campo de buscas do site.
Antecipação
Conforme mencionado em duas notas (um blog post e uma nota) de ontem, era previsto que o Instant viesse a funcionar esse mês, mas a extensão de potenciais benefícios e de mudanças na dinâmica das buscas na web ainda está por vir.
Negócios
Com um tempo de buscas previsivelmente menor, os anúncios pagos são expostos por poucos segundos, links patrocinados normalmente expostos nas três primeiras posições dos resultados de busca orgânica ou em uma barra lateral do lado direito da página de mudam de acordo com a busca. O uso do Instant Search é facultativo, isto é, ao lado da janela de buscas há uma opção de desativar o recurso.
Como usar
Para usá-lo, é necessário estar logado na conta do Gmail. Como o Google Instant Search ainda não está ativo no canal google.com.br, é preciso acessar a página .com do buscador.
Testamos o Googe Instant Search:
SEO
Segundo afirmações feitas pelos apresentadores, as técnicas de ranqueamento, ou seja, os dados analisados na hora de compor a lista de links sugeridos pelo Google, não deverão mudar em nada. Mas a estratégia de links patrocinados deve sentir os efeitos com menores taxas de click, afirmam outras vozes do segmento de SM, de search marketing.
User behavior
Também depende do usuário se acostumar com esse novo jeito de apresentar resultados. Como mencionado pela especialista em SEO Ana Martins, no Twitter: quantas pessoas vocês conhecem que digitam olhando para a tela e quantas para o teclado? Ela acredita que o número de pessoas que digitam olhando para o teclado é muito maior.
Também vale lembrar aos usuários que os resultados são ranquedaos exatamente da mesma forma que o Suggest, recurso que demonstra termos ligados a palavra que o internauta digita em uma caixa ordenada hierarquicamente.
O recurso irá consultar o banco de dados que salva o histórico de buscas no Google na hora de devolver SERPs (páginas de resultados) nas buscas.
Requisitos
Quem quiser navegar no Google Instant Search, deve rodar uma versão estável do Chrome (beta, aqui na redação não funcionou). Segundo o Google, os navegadores FireFox, Safari e IE 8 também suportam esse recurso.
Fonte:http://pcworld.uol.com.br/noticias/2010/09/09/entenda-como-funciona-o-google-instant-search/
09-09-2010
Em apresentação no canal de vídeos do Google no YouTube, executivos da empresa falam das vantagens deste novo recurso.
Depois de meses de especulação e de testes, o Google anunciou a estréia do Instant Search, recurso de busca que apresenta ao internauta os potenciais resultados enquanto os termos procurados são digitados no campo de buscas do site.
Antecipação
Conforme mencionado em duas notas (um blog post e uma nota) de ontem, era previsto que o Instant viesse a funcionar esse mês, mas a extensão de potenciais benefícios e de mudanças na dinâmica das buscas na web ainda está por vir.
Negócios
Com um tempo de buscas previsivelmente menor, os anúncios pagos são expostos por poucos segundos, links patrocinados normalmente expostos nas três primeiras posições dos resultados de busca orgânica ou em uma barra lateral do lado direito da página de mudam de acordo com a busca. O uso do Instant Search é facultativo, isto é, ao lado da janela de buscas há uma opção de desativar o recurso.
Como usar
Para usá-lo, é necessário estar logado na conta do Gmail. Como o Google Instant Search ainda não está ativo no canal google.com.br, é preciso acessar a página .com do buscador.
Testamos o Googe Instant Search:
SEO
Segundo afirmações feitas pelos apresentadores, as técnicas de ranqueamento, ou seja, os dados analisados na hora de compor a lista de links sugeridos pelo Google, não deverão mudar em nada. Mas a estratégia de links patrocinados deve sentir os efeitos com menores taxas de click, afirmam outras vozes do segmento de SM, de search marketing.
User behavior
Também depende do usuário se acostumar com esse novo jeito de apresentar resultados. Como mencionado pela especialista em SEO Ana Martins, no Twitter: quantas pessoas vocês conhecem que digitam olhando para a tela e quantas para o teclado? Ela acredita que o número de pessoas que digitam olhando para o teclado é muito maior.
Também vale lembrar aos usuários que os resultados são ranquedaos exatamente da mesma forma que o Suggest, recurso que demonstra termos ligados a palavra que o internauta digita em uma caixa ordenada hierarquicamente.
O recurso irá consultar o banco de dados que salva o histórico de buscas no Google na hora de devolver SERPs (páginas de resultados) nas buscas.
Requisitos
Quem quiser navegar no Google Instant Search, deve rodar uma versão estável do Chrome (beta, aqui na redação não funcionou). Segundo o Google, os navegadores FireFox, Safari e IE 8 também suportam esse recurso.
Fonte:http://pcworld.uol.com.br/noticias/2010/09/09/entenda-como-funciona-o-google-instant-search/
Cinco medidas de segurança para proteger aplicações na nuvem
Segundo prestadores de serviços, algumas diretrizes garantem privacidade dos dados processados na infraestrutura de cloud computing.
Por CIO/EUA
10 de setembro de 2010 - 07h05
As redes criminosas de ataques, que incluem botnets e outras formas de ameaças dependentes de computadores escravos, nada mais são do que um tipo de nuvem formada para o crime. As nuvens legítimas, no entanto, devem ter em vista que podem acabar sendo usadas para ataques ilícitos. Os bandidos virtuais sabem muito bem o poder dessas redes.
O problema ganha mais gravidade quando se leva em consideração a facilidade de se contratar tais serviços. Mas, segundo a Amazon, a nuvem é uma evolução no sentido da segurança, pois é muito mais fácil pegar os maus elementos nesse tipo de infraestrutura.
A empresa afirma que “as atividades ilegais na rede existem muito antes de cloud computing existir". Criminosos que escolhem a nuvem da Amazon podem ser barrados mais facilmente, pois a empresa pode acessar e desabilitar seus softwares. Uma melhoria significativa em relação aos velhos tempos da internet, quando hosts criminosos ficavam inacessíveis por longos períodos de tempo.
Fornecedores de serviços em cloud computing elencam cinco medidas que devem ser tomadas pelos hosts para melhorar a segurança na nuvem.
1 – Analise o comportamento dos usuários
De acordo com o responsável por segurança em nuvem da HP, Archie Reed, a facilidade que os clientes têm para usar a nuvem é boa para os negócios, mas o mesmo benefício se estende para quem quer usar as redes para o mal. “Eles também têm acesso a baixo custo, provisão instantânea e habilidade de acessar a infraestrutura a qualquer hora, de qualquer lugar. Todos esses benefícios podem ser aproveitados por quem tem conhecimento para fazê-lo e serão”, disse.
Em vez de tomar a decisão de fechar um cliente sem saber exatamente se a atividade é criminosa ou não, a HP opta por remover capacidade de banda dos usuário supostamente malicioso. “Estamos trabalhando para detectar comportamentos estranhos e deixamos as coisas mais lentas para o cliente suspeito de forma que ele possa reagir rápido caso seja legítimo. Não podemos simplesmente bloquear esses clientes nem deixar de tomar atitudes com hosts que tenham comportamento inadequado”, completa.
2 – Reforçe a segurança
Segundo a Amazon, o princípio de uma nuvem segura começa em seu projeto inicial, que deve avançar continuamente com engenheiros dedicados especificamente a essa tarefa.
A empresa diz que não há nada conflito no fornecimento de infraestrutura sob demanda, ao mesmo tempo em que busca o isolamento de segurança que as empresas se acostumaram quando tinham ambientes próprios.
3 – Monitore os blogs
Uma tecnologia ainda pouco valorizada pelas empresas é a que realiza gerenciamento de registros de atividades, os famosos logs. Um recente estudo da Verizon Business sobre vazamento de dados concluiu que os ataques criminosos refletem nos logs em mais de 90% das vezes, mas menos de 5% das empresas os monitoram para detectar ataques.
A Loggly é uma das empresas focadas nesse tipo de atividade. Segundo seu fundador, Raffael Marty, soluções para monitorar logs costumam ser encaradas como uma forma de garantir SLA, mas também podem ser seriamente aplicadas em segurança. “Fornecedores de cloud, como a Amazon, deveriam desenvolver rapidamente esse tipo de tecnologia na infraestrutura”, afirma.
4 – Aprimore a proteção dos recursos
Um grande benefício da computação em nuvem é a economia de escala, proporcionando os baixos custos nos serviços. Para a Amazon, a vantagem da escala reflete também na melhor proteção dos recursos.
Em outras palavras, companhias grandes, com muitos clientes, podem investir muito mais dinheiro em um sistema de segurança abrangente. Com o uso de APIs, um gestor de operações pode identificar cada instância de cada máquina que roda na nuvem.
5 – Senhas com autenticação forte
Um dos ataques mais comuns da nuvem é o sequestro de contas, de acordo com o organismo internacional para segurança de cloud computing Cloud Security Alliance. Em março de 2010, uma pesquisa do instituto identificou que esse era o principal perigo, embora ainda seja uma das menos utilizadas pelos criminosos.
Archie Reed recomenda que todos os fornecedores de nuvem usem um método de autenticação mais forte, buscando proteger até mesmo o cliente de erros que ele possa cometer. “É também uma questão de reputação para o fornecedor. E os criminosos vão querer usar mais esse método de ataque, agora que sabem quanto do ambiente de um cliente pode estar na infraestrutura de nuvem”, completa.
Fonte:http://computerworld.uol.com.br/seguranca/2010/09/09/fornecedores-de-cloud-revelam-5-diretrizes-de-seguranca/
Por CIO/EUA
10 de setembro de 2010 - 07h05
As redes criminosas de ataques, que incluem botnets e outras formas de ameaças dependentes de computadores escravos, nada mais são do que um tipo de nuvem formada para o crime. As nuvens legítimas, no entanto, devem ter em vista que podem acabar sendo usadas para ataques ilícitos. Os bandidos virtuais sabem muito bem o poder dessas redes.
O problema ganha mais gravidade quando se leva em consideração a facilidade de se contratar tais serviços. Mas, segundo a Amazon, a nuvem é uma evolução no sentido da segurança, pois é muito mais fácil pegar os maus elementos nesse tipo de infraestrutura.
A empresa afirma que “as atividades ilegais na rede existem muito antes de cloud computing existir". Criminosos que escolhem a nuvem da Amazon podem ser barrados mais facilmente, pois a empresa pode acessar e desabilitar seus softwares. Uma melhoria significativa em relação aos velhos tempos da internet, quando hosts criminosos ficavam inacessíveis por longos períodos de tempo.
Fornecedores de serviços em cloud computing elencam cinco medidas que devem ser tomadas pelos hosts para melhorar a segurança na nuvem.
1 – Analise o comportamento dos usuários
De acordo com o responsável por segurança em nuvem da HP, Archie Reed, a facilidade que os clientes têm para usar a nuvem é boa para os negócios, mas o mesmo benefício se estende para quem quer usar as redes para o mal. “Eles também têm acesso a baixo custo, provisão instantânea e habilidade de acessar a infraestrutura a qualquer hora, de qualquer lugar. Todos esses benefícios podem ser aproveitados por quem tem conhecimento para fazê-lo e serão”, disse.
Em vez de tomar a decisão de fechar um cliente sem saber exatamente se a atividade é criminosa ou não, a HP opta por remover capacidade de banda dos usuário supostamente malicioso. “Estamos trabalhando para detectar comportamentos estranhos e deixamos as coisas mais lentas para o cliente suspeito de forma que ele possa reagir rápido caso seja legítimo. Não podemos simplesmente bloquear esses clientes nem deixar de tomar atitudes com hosts que tenham comportamento inadequado”, completa.
2 – Reforçe a segurança
Segundo a Amazon, o princípio de uma nuvem segura começa em seu projeto inicial, que deve avançar continuamente com engenheiros dedicados especificamente a essa tarefa.
A empresa diz que não há nada conflito no fornecimento de infraestrutura sob demanda, ao mesmo tempo em que busca o isolamento de segurança que as empresas se acostumaram quando tinham ambientes próprios.
3 – Monitore os blogs
Uma tecnologia ainda pouco valorizada pelas empresas é a que realiza gerenciamento de registros de atividades, os famosos logs. Um recente estudo da Verizon Business sobre vazamento de dados concluiu que os ataques criminosos refletem nos logs em mais de 90% das vezes, mas menos de 5% das empresas os monitoram para detectar ataques.
A Loggly é uma das empresas focadas nesse tipo de atividade. Segundo seu fundador, Raffael Marty, soluções para monitorar logs costumam ser encaradas como uma forma de garantir SLA, mas também podem ser seriamente aplicadas em segurança. “Fornecedores de cloud, como a Amazon, deveriam desenvolver rapidamente esse tipo de tecnologia na infraestrutura”, afirma.
4 – Aprimore a proteção dos recursos
Um grande benefício da computação em nuvem é a economia de escala, proporcionando os baixos custos nos serviços. Para a Amazon, a vantagem da escala reflete também na melhor proteção dos recursos.
Em outras palavras, companhias grandes, com muitos clientes, podem investir muito mais dinheiro em um sistema de segurança abrangente. Com o uso de APIs, um gestor de operações pode identificar cada instância de cada máquina que roda na nuvem.
5 – Senhas com autenticação forte
Um dos ataques mais comuns da nuvem é o sequestro de contas, de acordo com o organismo internacional para segurança de cloud computing Cloud Security Alliance. Em março de 2010, uma pesquisa do instituto identificou que esse era o principal perigo, embora ainda seja uma das menos utilizadas pelos criminosos.
Archie Reed recomenda que todos os fornecedores de nuvem usem um método de autenticação mais forte, buscando proteger até mesmo o cliente de erros que ele possa cometer. “É também uma questão de reputação para o fornecedor. E os criminosos vão querer usar mais esse método de ataque, agora que sabem quanto do ambiente de um cliente pode estar na infraestrutura de nuvem”, completa.
Fonte:http://computerworld.uol.com.br/seguranca/2010/09/09/fornecedores-de-cloud-revelam-5-diretrizes-de-seguranca/
Gartner identifica 10 tendências no mercado futuro de TI
Forças emergentes vão influenciar diretamente a forma de consumir e fazer negócios no universo da tecnologia.
Por REDAÇÃO DA COMPUTERWORLD
09 de setembro de 2010 - 15h37
Em uma prévia do que será discutido em simpósios de gestão de TI pelo mundo, a consultoria Gartner divulgou uma lista com as 10 principais forças que mais vão impactar o futuro do mercado de terceirização e serviços de TI.
Segundo o vice-presidente de pesquisa da Gartner, Benjamin Pring, “compradores, provedores e investidores do mercado de serviços de TI enfrentam as mesmas forças tecnológicas e lidam com o mesmo comportamento do mercado, mesmo tendo serviços bastante diferentes”. Segundo ele, "essas forças remodelam os fundamentos de como os provedores realizam a entrega e a vendade serviços de TI, ao mesmo tempo em que modifica a maneira de consumo".
Confira a lista com 10 elementos chaves que vão causar impacto no futuro da tecnologia:
Hiperdigitalização
É a manifestação acelerada do impacto gerado por técnicas digitais. Esse termo serve para descrever as partes da economia em que os “produtos” ou os “serviços” são de natureza parcial ou integralmente digitais. A participação desse segmento na economia cresce mais que os aspectos físicos da economia. Esse impacto causa conseqüências nas esferas pessoal e social, ao passo que acelera as atividades econômica, comercial e política. As projeções são de que , em 2020, um quarto de todo o PIB seja gerado por atividades digitais.
Globalização
A globalização é a força fundamental que altera a dinâmica de entrega e da competição em praticamente todos os mercados verticais. Ela altera a perspectiva de todos os aspectos do negócio, de parceiros passando por fornecedores, por clientes, atravessa cadeias produtivas e culmina na produção. Todas as organizações deveriam abraçar o conceito de globalização. De maneira similar, as estratégias de TI deve ser globais, o que significa lançar mão das vantagens da TI e derrubar as limitações físicas e passar a usufruir de um contingente de potenciais funcionários munidos do conhecimento tecnológico e inovador.
Consumerization
O termo em inglês se refere não apenas à aceleração das tecnologias orientadas ao consumo e ao comportamento do consumidor, mas trata também da inclusão e da expansão dessas tecnologias nas estratégias de TI das empresas. O comportamento dos consumidores irá decidir sobre a dinâmica de empresas; deverão surgir novas demandas e necessidades que devem, em um ambiente organizacional, ser reconhecidas e assimiladas. O poder de aquisição crescente e o uso da TI no processo de compra irão forçar os setores verticais a adotar novas tecnologias e a criar produtos novos que vão de encontro às expectativas dos consumidores. Cabe aos gestores de empresas avaliar se o modelo antigo vai comprometer o andamento dos trabalhos da empresa neste novo ambiente em que o consumidor faz as vezes de gestor.
Computação em nuvem
Segundo a Gartner, a computação em nuvem é “um estilo de computação em que o TI apresenta características de escalabilidade e de flexibilidade e passa para o consumidor em forma de serviços usando a internet como via”. Em função do nível de interação entre a comercialização e a padronização de tecnologias, entre a virtualização e as arquiteturas de software voltadas para serviços e, o mais importante, a interatividade entre o aumento no uso da web e a própria internet, surgiu uma descontinuidade que gera várias novas maneiras de relacionamento entre quem comercializa e quem consome tecnologias de TI. Face esse fenômeno de descontinuidade, a capacidade de fornecer serviços especializados de TI de maneira industrializada e persuasivo.
Tecnologia de inteligência
Depois de décadas de investimentos em TI, muitas organizações ainda partem do princípio de que a habilidade de gerar novas perspectivas de negócios não tem trazido resultados concretos na medida em que gostariam. No vocabulário da TI forma introduzidas novas palavras, como “analytics”, “reconhecimento de padrões” e soluções “espertas”. Iniciativas novas e relacionadas ao segmento de TI que não sejam adaptáveis a essa realidade passarão a ser cada vez menos atraentes para as empresas. O foco mudou de “soluções em TI para ajudar ao TI” para “soluções de TI que possam impulsionar o negócio”.
Segurança e privacidade
À medida que o ativismo migra para a web e para a nuvem e o segmento de hiperdigitalização acelera, a necessidade de incrementar a segurança e de esclarecer os direitos de privacidade do indivíduo e da corporação crescem juntos. A exploração de falhas de segurança e de privacidade tem efeitos que se estendem por ramificações profundas. Elas se espelham nas finanças e na queda do nível de confiança dos clientes. Ao passo que muitos argumentam sobre o fato de hackers atormentarem a vida na internet há 15 anos e, nem por isso, ela deixou de existir, o contra-argumento de que foram realizados investimentos enormes para dar conta desses ataques se impõe junto com a demanda por regulamentações que freiem uma nova onda de ataques.
Fragmentação
Cada vez mais componentes podem ser chamados de fragmentos de uma aplicação maior ou de maior abrangência. A noção de componentes “usados” se torna cada vez mais real à medida que a internet se transforma em uma plataforma, sobre a qual os usuários podem configurar suas soluções da maneira que lhes convier, em vez de ter de começar tudo a partir da estaca zero, cada vez que inicia um novo projeto de TI.
Hipercompetição
Essencialmente, esse termo se refere ao mercado disponível para consumidores de TI. Nele há uma combinação de fatores que influenciam de maneira muito abrangente todo o processo de tomada de decisão que normalmente é orientado à economia de recursos. A hipercompetição fomenta a existência de barganhas. O real perigo desse tipo de transação é que a estabilidade desse tipo de negócio é, normalmente, fraca, o que ocasiona um problema para o consumidor e para os fornecedores.
Valor agregado
Deve ser o fator decisivo do modelo de consumo e de pagamento por serviços de TI. O futuro, no que se refere ao mercado, será regido pela máxima “tudo é melhor que partes”. Cabe às organizações serem mais proficientes na avaliação das necessidades de seus parceiros e da cadeia produtiva relacionada. Na nuvem, a cadeia de estende em vários vetores, ela deixa de ser unidimensional. Um pool de fornecedores será avaliado de acordo com sua especialização nessa nova realidade, em que as cadeias produtivas irão ensaiar práticas visionárias herdadas de outras empresas.
Hiperverticalilzação
Especializações profundas em dinâmicas de processos subverticais serão imprescindíveis nessa arena em que é travada a batalha por serviços de TI alternativos. Conhecimento detalhado acerca de processos industriais serão aplicados em segmentos subverticais. A fórmula para o sucesso futuro – as soluções microverticalizadas – deverão encaminhar o mercado rumo à fragmentação. Contudo essa fragmentação pode levar à inovações e aumentar a variedade para o consumidor e criar valores diferenciados em soluções prontas.
Fonte:http://computerworld.uol.com.br/gestao/2010/09/09/gartner-identifica-10-tendencias-no-mercado-futuro-de-ti/
Por REDAÇÃO DA COMPUTERWORLD
09 de setembro de 2010 - 15h37
Em uma prévia do que será discutido em simpósios de gestão de TI pelo mundo, a consultoria Gartner divulgou uma lista com as 10 principais forças que mais vão impactar o futuro do mercado de terceirização e serviços de TI.
Segundo o vice-presidente de pesquisa da Gartner, Benjamin Pring, “compradores, provedores e investidores do mercado de serviços de TI enfrentam as mesmas forças tecnológicas e lidam com o mesmo comportamento do mercado, mesmo tendo serviços bastante diferentes”. Segundo ele, "essas forças remodelam os fundamentos de como os provedores realizam a entrega e a vendade serviços de TI, ao mesmo tempo em que modifica a maneira de consumo".
Confira a lista com 10 elementos chaves que vão causar impacto no futuro da tecnologia:
Hiperdigitalização
É a manifestação acelerada do impacto gerado por técnicas digitais. Esse termo serve para descrever as partes da economia em que os “produtos” ou os “serviços” são de natureza parcial ou integralmente digitais. A participação desse segmento na economia cresce mais que os aspectos físicos da economia. Esse impacto causa conseqüências nas esferas pessoal e social, ao passo que acelera as atividades econômica, comercial e política. As projeções são de que , em 2020, um quarto de todo o PIB seja gerado por atividades digitais.
Globalização
A globalização é a força fundamental que altera a dinâmica de entrega e da competição em praticamente todos os mercados verticais. Ela altera a perspectiva de todos os aspectos do negócio, de parceiros passando por fornecedores, por clientes, atravessa cadeias produtivas e culmina na produção. Todas as organizações deveriam abraçar o conceito de globalização. De maneira similar, as estratégias de TI deve ser globais, o que significa lançar mão das vantagens da TI e derrubar as limitações físicas e passar a usufruir de um contingente de potenciais funcionários munidos do conhecimento tecnológico e inovador.
Consumerization
O termo em inglês se refere não apenas à aceleração das tecnologias orientadas ao consumo e ao comportamento do consumidor, mas trata também da inclusão e da expansão dessas tecnologias nas estratégias de TI das empresas. O comportamento dos consumidores irá decidir sobre a dinâmica de empresas; deverão surgir novas demandas e necessidades que devem, em um ambiente organizacional, ser reconhecidas e assimiladas. O poder de aquisição crescente e o uso da TI no processo de compra irão forçar os setores verticais a adotar novas tecnologias e a criar produtos novos que vão de encontro às expectativas dos consumidores. Cabe aos gestores de empresas avaliar se o modelo antigo vai comprometer o andamento dos trabalhos da empresa neste novo ambiente em que o consumidor faz as vezes de gestor.
Computação em nuvem
Segundo a Gartner, a computação em nuvem é “um estilo de computação em que o TI apresenta características de escalabilidade e de flexibilidade e passa para o consumidor em forma de serviços usando a internet como via”. Em função do nível de interação entre a comercialização e a padronização de tecnologias, entre a virtualização e as arquiteturas de software voltadas para serviços e, o mais importante, a interatividade entre o aumento no uso da web e a própria internet, surgiu uma descontinuidade que gera várias novas maneiras de relacionamento entre quem comercializa e quem consome tecnologias de TI. Face esse fenômeno de descontinuidade, a capacidade de fornecer serviços especializados de TI de maneira industrializada e persuasivo.
Tecnologia de inteligência
Depois de décadas de investimentos em TI, muitas organizações ainda partem do princípio de que a habilidade de gerar novas perspectivas de negócios não tem trazido resultados concretos na medida em que gostariam. No vocabulário da TI forma introduzidas novas palavras, como “analytics”, “reconhecimento de padrões” e soluções “espertas”. Iniciativas novas e relacionadas ao segmento de TI que não sejam adaptáveis a essa realidade passarão a ser cada vez menos atraentes para as empresas. O foco mudou de “soluções em TI para ajudar ao TI” para “soluções de TI que possam impulsionar o negócio”.
Segurança e privacidade
À medida que o ativismo migra para a web e para a nuvem e o segmento de hiperdigitalização acelera, a necessidade de incrementar a segurança e de esclarecer os direitos de privacidade do indivíduo e da corporação crescem juntos. A exploração de falhas de segurança e de privacidade tem efeitos que se estendem por ramificações profundas. Elas se espelham nas finanças e na queda do nível de confiança dos clientes. Ao passo que muitos argumentam sobre o fato de hackers atormentarem a vida na internet há 15 anos e, nem por isso, ela deixou de existir, o contra-argumento de que foram realizados investimentos enormes para dar conta desses ataques se impõe junto com a demanda por regulamentações que freiem uma nova onda de ataques.
Fragmentação
Cada vez mais componentes podem ser chamados de fragmentos de uma aplicação maior ou de maior abrangência. A noção de componentes “usados” se torna cada vez mais real à medida que a internet se transforma em uma plataforma, sobre a qual os usuários podem configurar suas soluções da maneira que lhes convier, em vez de ter de começar tudo a partir da estaca zero, cada vez que inicia um novo projeto de TI.
Hipercompetição
Essencialmente, esse termo se refere ao mercado disponível para consumidores de TI. Nele há uma combinação de fatores que influenciam de maneira muito abrangente todo o processo de tomada de decisão que normalmente é orientado à economia de recursos. A hipercompetição fomenta a existência de barganhas. O real perigo desse tipo de transação é que a estabilidade desse tipo de negócio é, normalmente, fraca, o que ocasiona um problema para o consumidor e para os fornecedores.
Valor agregado
Deve ser o fator decisivo do modelo de consumo e de pagamento por serviços de TI. O futuro, no que se refere ao mercado, será regido pela máxima “tudo é melhor que partes”. Cabe às organizações serem mais proficientes na avaliação das necessidades de seus parceiros e da cadeia produtiva relacionada. Na nuvem, a cadeia de estende em vários vetores, ela deixa de ser unidimensional. Um pool de fornecedores será avaliado de acordo com sua especialização nessa nova realidade, em que as cadeias produtivas irão ensaiar práticas visionárias herdadas de outras empresas.
Hiperverticalilzação
Especializações profundas em dinâmicas de processos subverticais serão imprescindíveis nessa arena em que é travada a batalha por serviços de TI alternativos. Conhecimento detalhado acerca de processos industriais serão aplicados em segmentos subverticais. A fórmula para o sucesso futuro – as soluções microverticalizadas – deverão encaminhar o mercado rumo à fragmentação. Contudo essa fragmentação pode levar à inovações e aumentar a variedade para o consumidor e criar valores diferenciados em soluções prontas.
Fonte:http://computerworld.uol.com.br/gestao/2010/09/09/gartner-identifica-10-tendencias-no-mercado-futuro-de-ti/
Número de residências com Internet cresce 72% em 4 anos
Números da Pesquisa Nacional por Amostra de Domicílios (PNAD) indicam que a rede está presente em 27,4% dos lares.
Por ROBINSON DOS SANTOS, DO IDG NOW!
09 de setembro de 2010 - 11h27
A quantidade de residências com acesso à Internet no Brasil cresceu 71% entre 2005 e 2009, revelam os números da Pesquisa Nacional por Amostra de Domicílios (PNAD) divulgada na quarta-feira (8/9) pelo Instituto Brasileiro de Geografia e Estatística (IBGE).
Em 2005, pelos dados divulgados em 2006 pelo PNAD, o Brasil tinha 16% de seus domicílios com acesso à rede mundial. Em 2009, esse número saltou para 27,4% (16 milhões).
Na comparação entre 2008 e 2009, o País viu o número de domicílios com acesso à Internet crescer 15%, em média. As regiões que registraram aumento acima da média foram a Norte (25%), a Nordeste (24%) e a Centro-Oeste (20%).
Pelos dados da PNAD, em 2009 27,54% dos 58,6 milhões de domicílios brasileiros tinham computador com acesso à Internet. Considerando-se a média de 3,3 moradores por domicílio, teríamos potencialmente 53,3 milhões de pessoas com acesso à Internet em casa.
Levando em conta o acesso no trabalho e em outros locais, como lan houses e telecentros, o número de internautas pode chegar perto da estimativa de 2009 feita pela International Telecommunication Union (ITU), de 75,9 milhões de usuários com acesso à rede.
Mas a ITU estima também que o Brasil tenha 8,34 assinaturas de Internet para cada grupo de cem habitantes – um número mais baixo até que o de vizinhos como Chile (9,85), Argentina (9,37) e Uruguai (8,59). Nos Estados Unidos, essa relação é de 26,04.
Micro em casa
A presença de microcomputador nos domicílios também teve um salto. De 2005 a 2009, o número de casas com pelo menos um PC cresceu 27%, na média nacional. Neste caso, a região líder em crescimento foi a Centro-Oeste (45%).
As regiões Norte e Nordeste também ficaram acima da média, com crescimentos de 32% e 37%, respectivamente, bem como a região Sudeste (34%). A região Sul apresentou crescimento de 23%.
O período a partir de 2005 corresponde à vigência do Programa Computador para Todos, criado naquele ano pelo governo federal para estimular a produção e a venda de PCs fabricados no País.
À época, o Banco Nacional de Desenvolvimento Econômico e Social (BNDES) chegou a oferecer uma linha de crédito para que varejistas pudessem comprar máquinas e revendê-las mediante parcelamento.
Entre 2008 e 2009, o número de domicílios com PC cresceu 11%. As regiões líderes em crescimento no período foram a Norte (17%), Nordeste (18%) e Centro-Oeste (16%). Sudeste e Sul cresceram 12% 15%, respectivamente.
Expansão mais rápida
Outro fato revelado pelos números do PNAD é que o acesso à Internet cresce mais rapidamente que a expansão da base de computadores em domicílios a uma taxa nacional de 4%.
Considerando a comparação entre os crescimentos dos números de PCs domiciliares e os de linhas telefônicas (fixas ou celular), os números mostram que a base de computadores aumentou de forma mais acelerada, a uma taxa de 8%.
As regiões onde o crescimento da adoção de PCs domésticos mais supera o de linhas telefônicas são Nordeste (37%), Sudeste (34%) e Norte (32%). Vale destacar que 90,3% dos domicílios do Sudeste já tem telefone, ao passo que a presença do serviço no Nordeste é de 70,6%.
Fonte:http://computerworld.uol.com.br/telecom/2010/09/09/numero-de-residencias-com-internet-cresce-72-em-4-anos/
Por ROBINSON DOS SANTOS, DO IDG NOW!
09 de setembro de 2010 - 11h27
A quantidade de residências com acesso à Internet no Brasil cresceu 71% entre 2005 e 2009, revelam os números da Pesquisa Nacional por Amostra de Domicílios (PNAD) divulgada na quarta-feira (8/9) pelo Instituto Brasileiro de Geografia e Estatística (IBGE).
Em 2005, pelos dados divulgados em 2006 pelo PNAD, o Brasil tinha 16% de seus domicílios com acesso à rede mundial. Em 2009, esse número saltou para 27,4% (16 milhões).
Na comparação entre 2008 e 2009, o País viu o número de domicílios com acesso à Internet crescer 15%, em média. As regiões que registraram aumento acima da média foram a Norte (25%), a Nordeste (24%) e a Centro-Oeste (20%).
Pelos dados da PNAD, em 2009 27,54% dos 58,6 milhões de domicílios brasileiros tinham computador com acesso à Internet. Considerando-se a média de 3,3 moradores por domicílio, teríamos potencialmente 53,3 milhões de pessoas com acesso à Internet em casa.
Levando em conta o acesso no trabalho e em outros locais, como lan houses e telecentros, o número de internautas pode chegar perto da estimativa de 2009 feita pela International Telecommunication Union (ITU), de 75,9 milhões de usuários com acesso à rede.
Mas a ITU estima também que o Brasil tenha 8,34 assinaturas de Internet para cada grupo de cem habitantes – um número mais baixo até que o de vizinhos como Chile (9,85), Argentina (9,37) e Uruguai (8,59). Nos Estados Unidos, essa relação é de 26,04.
Micro em casa
A presença de microcomputador nos domicílios também teve um salto. De 2005 a 2009, o número de casas com pelo menos um PC cresceu 27%, na média nacional. Neste caso, a região líder em crescimento foi a Centro-Oeste (45%).
As regiões Norte e Nordeste também ficaram acima da média, com crescimentos de 32% e 37%, respectivamente, bem como a região Sudeste (34%). A região Sul apresentou crescimento de 23%.
O período a partir de 2005 corresponde à vigência do Programa Computador para Todos, criado naquele ano pelo governo federal para estimular a produção e a venda de PCs fabricados no País.
À época, o Banco Nacional de Desenvolvimento Econômico e Social (BNDES) chegou a oferecer uma linha de crédito para que varejistas pudessem comprar máquinas e revendê-las mediante parcelamento.
Entre 2008 e 2009, o número de domicílios com PC cresceu 11%. As regiões líderes em crescimento no período foram a Norte (17%), Nordeste (18%) e Centro-Oeste (16%). Sudeste e Sul cresceram 12% 15%, respectivamente.
Expansão mais rápida
Outro fato revelado pelos números do PNAD é que o acesso à Internet cresce mais rapidamente que a expansão da base de computadores em domicílios a uma taxa nacional de 4%.
Considerando a comparação entre os crescimentos dos números de PCs domiciliares e os de linhas telefônicas (fixas ou celular), os números mostram que a base de computadores aumentou de forma mais acelerada, a uma taxa de 8%.
As regiões onde o crescimento da adoção de PCs domésticos mais supera o de linhas telefônicas são Nordeste (37%), Sudeste (34%) e Norte (32%). Vale destacar que 90,3% dos domicílios do Sudeste já tem telefone, ao passo que a presença do serviço no Nordeste é de 70,6%.
Fonte:http://computerworld.uol.com.br/telecom/2010/09/09/numero-de-residencias-com-internet-cresce-72-em-4-anos/
Algas marinhas multiuso
10/9/2010
Por Fábio Reynol
Agência FAPESP – O Brasil guarda debaixo d’água um reservatório valioso para o fornecimento de produtos como medicamentos, combustíveis e até mesmo um filtro solar natural de ótimo desempenho.
São as algas marinhas, cujo potencial muito além dos sushis foi destacado pelo professor Pio Colepicolo Neto, do Departamento de Bioquímica do Instituto de Química da Universidade de São Paulo (IQ-USP), no Workshop sobre biodiversidade marinha: avanços recentes em bioprospecção, biogeografia e filogeografia, realizado pelo Programa Biota-FAPESP e que termina nesta sexta-feira (10/9), na sede da Fundação.
Colepicolo coordena o Projeto Temático “Estudos de bioprospecção de macroalgas marinhas, uso da biomassa algal como fonte de novos fármacos e bioativos economicamente viáveis e sua aplicação na remediação de áreas impactadas (biodiversidade marinha)”, que também integra o Biota-FAPESP.
“Por estarem expostas a ambientes e situações adversas, as algas desenvolvem, como metabólitos secundários, moléculas químicas extremamente sofisticadas e diferentes das estruturas produzidas por plantas terrestres”, disse à Agência FAPESP.
Segundo o cientista, já se sabe que as algas marinhas desempenham uma função fundamental no ambiente: elas respondem por cerca da metade do oxigênio liberado na atmosfera; delas saem o dimetil sulfeto, principal gás responsável pela formação de nuvens; são biorremediadoras de águas poluídas; e podem ser utilizadas como um biomarcador de poluição. Colepicolo também mostrou que as algas podem ser fornecedoras de compostos únicos e extremamente complexos.
“Essas moléculas encontram vasta aplicação na indústria farmacêutica ao servir de base para a fabricação de antiinflamatórios, antifúngicos, antivirais, bactericidas, antioxidantes e mais uma enorme gama de produtos que podem ser desenvolvidos de forma inovadora, estratégica e economicamente importante para o Brasil”, destacou.
As aplicações dessas substâncias vão além da medicina. Na agricultura, por exemplo, antifúngicos extraídos de macroalgas podem ser aplicados sobre frutas como mamão, morango e figo e, com isso, pode-se aumentar o tempo de vida útil da fruta na prateleira de três a quatro semanas.
“Podemos ganhar até um mês de viabilidade em produtos agrícolas que são exportados”, disse o professor da USP, ressaltando a importância econômica de aplicações como essa.
Outro grande potencial das micro e macroalgas marinhas é fornecer o princípio ativo para protetores solares naturais. Há cinco anos, em um outro projeto apoiado pela FAPESP sob a coordenação de Colepicolo, o grupo de pesquisa isolou de macroalgas da costa brasileira as micosporinas (MAA), substâncias químicas de baixo peso molecular, com alta capacidade de absorver radiação ultravioleta (UV).
Algumas micosporinas são também antioxidantes. Essas substâncias têm a finalidade de protegê-las contra os efeitos danosos de UV, função exercida pelos flavonoides nas plantas terrestres.
Por ficarem mais expostas ao sol, as algas tropicais são as que mais apresentam substâncias resistentes aos raios UV. Esses protetores solares naturais das algas são particularmente importantes para os biomas marinhos, pois também fornecem proteção solar a outros organismos como peixes, moluscos, zooplâncton e corais.
“As algas marinhas produzem essas substâncias e muitos peixes adquirem proteção solar ao se alimentar desses organismos fotossintetizantes”, explicou o pesquisador.
O fenômeno do branqueamento de corais é causado pela ausência desses protetores naturais fornecidos pelas algas. A ausência das algas que vivem em simbiose com os corais os deixam expostos à radiação. Com isso, eles acabam sofrendo a ação direta dos raios UV, perdem coloração e morrem. Ambientalmente, esse efeito é extremamente danoso, pois perdem-se componentes importantes do equilíbrio ecológico marinho.
O desempenho do protetor natural também chamou a atenção dos pesquisadores. Em testes, o absorvedor de UV das algas apresentou um espectro de absorção muito próximo ao mais eficiente produto sintético vendido no mercado.
“A indústria cosmética poderá se beneficiar de dois efeitos do produto – sua ação antioxidante e de proteção contra UV – e, com isso, oferecer produtos com ação sinérgica contra o estresse oxidativo, câncer de pele e envelhecimento precoce”, afirmou.
Colepicolo estima que, além de protetores para a pele, as micosporinas poderão ser usadas na base de tintas e vernizes para proteger materiais que ficam expostos à luz solar, como prédios e barcos.
Biocombustíveis
O pesquisador também abordou no workshop as perspectivas de produção de algas marinhas em regiões próximas à costa brasileira, um subprojeto integrante do Projeto Temático. “As fazendas de cultivo de macroalgas ajudariam a preservar as espécies, uma vez que evitam a extração e eventual predação dessas plantas em seu ambiente natural”, disse.
Em parceria com a professora Eliane Marinho-Soriano, do Departamento de Oceanografia e Limnologia da Universidade Federal do Rio Grande do Norte (UFRN), Colepicolo espera desenvolver sustentabilidade em cultivos integrados que envolvam a criação de organismos diferentes.
A primeira experiência é o cultivo de macroalgas e a criação de camarões em um único tanque do tamanho de um campo de futebol, em média, a 1,5 metro de profundidade.
A cada três meses, mesmo tempo de crescimento ideal das macroalgas, os camarões são coletados e as águas eutrofizadas dos tanques são devolvidas aos mangues da região. Com os cultivos integrados, as macroalgas colaboram para a purificação da água absorvendo o excesso de nitrogênio, fosfato e outros resíduos para seu desenvolvimento, servindo assim de biorremediadoras ambientais.
“A parceria com a professora Eliane da UFRN é muito importante. No Rio Grande do Norte há alta incidência de radiação solar, o que aumenta a produtividade das algas”, disse Colepicolo, explicando que a luz solar aumenta a velocidade de desenvolvimento e de reprodução das plantas aquáticas.
Para o professor da USP, as algas podem ainda ser uma boa fonte de biocombustíveis e suprir a demanda por biodiesel que não consegue ser atendida somente pelas fontes animais e vegetais terrestres atuais. Esse também é um dos braços de pesquisa contemplados pelo Projeto Temático.
Para esse objetivo, o pesquisador defende o melhoramento de cultivos e a aplicação de engenharia molecular, além de pesquisas em extração e refino do óleo de alga. Esses esforços poderiam tornar o combustível de alga competitivo em relação ao similar obtido do petróleo.
“A bioenergia de algas tem duas frentes diferentes de pesquisa. Primeiramente, as microalgas, ricas em lipídios, ou gorduras, são ideais para a fabricação de biodiesel”, disse Colepicolo, ressaltando que, diferentemente dos vegetais terrestres, o cultivo de algas não necessita de fertilizantes nem de pesticidas.
“Já as macroalgas possuem um alto teor de açúcar. Algumas espécies apresentam entre 50% e 60% de seu peso seco em polissacarídeos. São açúcares que, ao serem degradados por enzimas específicas, transformam-se em monômeros fermentáveis que dão origem ao etanol”, completou.
As macroalgas podem participar das pesquisas do etanol de terceira geração provenientes de carboidratos. “Trata-se de uma alternativa sustentável e ecologicamente correta, pois só usa água salgada e luz solar para crescer e não é necessária a utilização de agrotóxicos e fertilizantes”, disse.
Mais informações: www2.iq.usp.br/docente/piocolep
Fonte:http://www.agencia.fapesp.br/materia/12748/algas-marinhas-multiuso.htm
Por Fábio Reynol
Agência FAPESP – O Brasil guarda debaixo d’água um reservatório valioso para o fornecimento de produtos como medicamentos, combustíveis e até mesmo um filtro solar natural de ótimo desempenho.
São as algas marinhas, cujo potencial muito além dos sushis foi destacado pelo professor Pio Colepicolo Neto, do Departamento de Bioquímica do Instituto de Química da Universidade de São Paulo (IQ-USP), no Workshop sobre biodiversidade marinha: avanços recentes em bioprospecção, biogeografia e filogeografia, realizado pelo Programa Biota-FAPESP e que termina nesta sexta-feira (10/9), na sede da Fundação.
Colepicolo coordena o Projeto Temático “Estudos de bioprospecção de macroalgas marinhas, uso da biomassa algal como fonte de novos fármacos e bioativos economicamente viáveis e sua aplicação na remediação de áreas impactadas (biodiversidade marinha)”, que também integra o Biota-FAPESP.
“Por estarem expostas a ambientes e situações adversas, as algas desenvolvem, como metabólitos secundários, moléculas químicas extremamente sofisticadas e diferentes das estruturas produzidas por plantas terrestres”, disse à Agência FAPESP.
Segundo o cientista, já se sabe que as algas marinhas desempenham uma função fundamental no ambiente: elas respondem por cerca da metade do oxigênio liberado na atmosfera; delas saem o dimetil sulfeto, principal gás responsável pela formação de nuvens; são biorremediadoras de águas poluídas; e podem ser utilizadas como um biomarcador de poluição. Colepicolo também mostrou que as algas podem ser fornecedoras de compostos únicos e extremamente complexos.
“Essas moléculas encontram vasta aplicação na indústria farmacêutica ao servir de base para a fabricação de antiinflamatórios, antifúngicos, antivirais, bactericidas, antioxidantes e mais uma enorme gama de produtos que podem ser desenvolvidos de forma inovadora, estratégica e economicamente importante para o Brasil”, destacou.
As aplicações dessas substâncias vão além da medicina. Na agricultura, por exemplo, antifúngicos extraídos de macroalgas podem ser aplicados sobre frutas como mamão, morango e figo e, com isso, pode-se aumentar o tempo de vida útil da fruta na prateleira de três a quatro semanas.
“Podemos ganhar até um mês de viabilidade em produtos agrícolas que são exportados”, disse o professor da USP, ressaltando a importância econômica de aplicações como essa.
Outro grande potencial das micro e macroalgas marinhas é fornecer o princípio ativo para protetores solares naturais. Há cinco anos, em um outro projeto apoiado pela FAPESP sob a coordenação de Colepicolo, o grupo de pesquisa isolou de macroalgas da costa brasileira as micosporinas (MAA), substâncias químicas de baixo peso molecular, com alta capacidade de absorver radiação ultravioleta (UV).
Algumas micosporinas são também antioxidantes. Essas substâncias têm a finalidade de protegê-las contra os efeitos danosos de UV, função exercida pelos flavonoides nas plantas terrestres.
Por ficarem mais expostas ao sol, as algas tropicais são as que mais apresentam substâncias resistentes aos raios UV. Esses protetores solares naturais das algas são particularmente importantes para os biomas marinhos, pois também fornecem proteção solar a outros organismos como peixes, moluscos, zooplâncton e corais.
“As algas marinhas produzem essas substâncias e muitos peixes adquirem proteção solar ao se alimentar desses organismos fotossintetizantes”, explicou o pesquisador.
O fenômeno do branqueamento de corais é causado pela ausência desses protetores naturais fornecidos pelas algas. A ausência das algas que vivem em simbiose com os corais os deixam expostos à radiação. Com isso, eles acabam sofrendo a ação direta dos raios UV, perdem coloração e morrem. Ambientalmente, esse efeito é extremamente danoso, pois perdem-se componentes importantes do equilíbrio ecológico marinho.
O desempenho do protetor natural também chamou a atenção dos pesquisadores. Em testes, o absorvedor de UV das algas apresentou um espectro de absorção muito próximo ao mais eficiente produto sintético vendido no mercado.
“A indústria cosmética poderá se beneficiar de dois efeitos do produto – sua ação antioxidante e de proteção contra UV – e, com isso, oferecer produtos com ação sinérgica contra o estresse oxidativo, câncer de pele e envelhecimento precoce”, afirmou.
Colepicolo estima que, além de protetores para a pele, as micosporinas poderão ser usadas na base de tintas e vernizes para proteger materiais que ficam expostos à luz solar, como prédios e barcos.
Biocombustíveis
O pesquisador também abordou no workshop as perspectivas de produção de algas marinhas em regiões próximas à costa brasileira, um subprojeto integrante do Projeto Temático. “As fazendas de cultivo de macroalgas ajudariam a preservar as espécies, uma vez que evitam a extração e eventual predação dessas plantas em seu ambiente natural”, disse.
Em parceria com a professora Eliane Marinho-Soriano, do Departamento de Oceanografia e Limnologia da Universidade Federal do Rio Grande do Norte (UFRN), Colepicolo espera desenvolver sustentabilidade em cultivos integrados que envolvam a criação de organismos diferentes.
A primeira experiência é o cultivo de macroalgas e a criação de camarões em um único tanque do tamanho de um campo de futebol, em média, a 1,5 metro de profundidade.
A cada três meses, mesmo tempo de crescimento ideal das macroalgas, os camarões são coletados e as águas eutrofizadas dos tanques são devolvidas aos mangues da região. Com os cultivos integrados, as macroalgas colaboram para a purificação da água absorvendo o excesso de nitrogênio, fosfato e outros resíduos para seu desenvolvimento, servindo assim de biorremediadoras ambientais.
“A parceria com a professora Eliane da UFRN é muito importante. No Rio Grande do Norte há alta incidência de radiação solar, o que aumenta a produtividade das algas”, disse Colepicolo, explicando que a luz solar aumenta a velocidade de desenvolvimento e de reprodução das plantas aquáticas.
Para o professor da USP, as algas podem ainda ser uma boa fonte de biocombustíveis e suprir a demanda por biodiesel que não consegue ser atendida somente pelas fontes animais e vegetais terrestres atuais. Esse também é um dos braços de pesquisa contemplados pelo Projeto Temático.
Para esse objetivo, o pesquisador defende o melhoramento de cultivos e a aplicação de engenharia molecular, além de pesquisas em extração e refino do óleo de alga. Esses esforços poderiam tornar o combustível de alga competitivo em relação ao similar obtido do petróleo.
“A bioenergia de algas tem duas frentes diferentes de pesquisa. Primeiramente, as microalgas, ricas em lipídios, ou gorduras, são ideais para a fabricação de biodiesel”, disse Colepicolo, ressaltando que, diferentemente dos vegetais terrestres, o cultivo de algas não necessita de fertilizantes nem de pesticidas.
“Já as macroalgas possuem um alto teor de açúcar. Algumas espécies apresentam entre 50% e 60% de seu peso seco em polissacarídeos. São açúcares que, ao serem degradados por enzimas específicas, transformam-se em monômeros fermentáveis que dão origem ao etanol”, completou.
As macroalgas podem participar das pesquisas do etanol de terceira geração provenientes de carboidratos. “Trata-se de uma alternativa sustentável e ecologicamente correta, pois só usa água salgada e luz solar para crescer e não é necessária a utilização de agrotóxicos e fertilizantes”, disse.
Mais informações: www2.iq.usp.br/docente/piocolep
Fonte:http://www.agencia.fapesp.br/materia/12748/algas-marinhas-multiuso.htm
Esponjas contra o câncer
10/9/2010
Por Fábio de Castro
Agência FAPESP – A diversidade de compostos químicos presente nas esponjas coloca esses animais marinhos entre as mais promissoras fontes para a obtenção de produtos naturais bioativos visando à produção de novas drogas, de acordo com Raymond Andersen, professor do Departamento de Química e Ciências da Terra e do Oceano da Universidade da Colúmbia Britânica, no Canadá.
Andersen, cujo laboratório se dedica à prospecção, isolamento, análise estrutural e síntese de compostos extraídos de organismos marinhos, participou, nesta quinta-feira (9/9), do Workshop sobre biodiversidade marinha: avanços recentes em bioprospecção, biogeografia e filogeografia, realizado pelo programa Biota-FAPESP.
O cientista apresentou, durante o evento na sede da FAPESP, trabalhos realizados por seu grupo sobre compostos isolados a partir de esponjas coletadas em Papua-Nova Guiné e na costa canadense. Os compostos têm ação antimitótica – ou seja, são capazes de deter o processo de divisão celular, o que permitiria sua utilização no desenvolvimento de drogas contra o câncer, por exemplo.
Segundo Andersen, as esponjas marinhas são especialmente interessantes para a prospecção de compostos bioativos, pois raramente se encontra uma diversidade química tão notável em um só organismo.
“Um dos fatores que explicam essa espantosa diversidade química é que as esponjas não têm defesas físicas, mas têm cores vivas, ficam expostas e não se movem, não podendo fugir de predadores. Por isso, elas têm necessidade de defesas químicas. Acreditamos que, por serem animais muito primitivos, elas sejam capazes de tolerar e produzir compostos químicos especialmente exóticos”, disse à Agência FAPESP.
A necessidade de defesa ligada à evolução, no entanto, não é a única explicação para a variedade de compostos químicos presentes nas esponjas, segundo o pesquisador. Boa parte dessa diversidade pode ser fruto da simbiose – outra característica marcante das esponjas.
“Cada vez mais começamos a acreditar que muitos desses compostos encontrados em esponjas são provenientes de relações simbióticas com microrganismos dos quais elas se alimentam”, disse.
Fotos microscópicas dos tecidos das esponjas mostram a presença – no interior dos próprios tecidos, ou em suas adjacências – de uma quantidade imensa de microrganismos. “Achamos que a alta tolerância das esponjas às relações simbióticas, desenvolvida ao longo da evolução, possa ser uma das explicações para que esses organismos sejam uma fonte tão rica de novos compostos químicos”, disse.
Segundo Andersen, em comparação com outros organismos marinhos, apenas os corais moles – da ordem Alcyonacea, que não possuem esqueleto de carbonato de cálcio – aproximam-se das esponjas com relação à riqueza de compostos químicos e metabólitos secundários.
“Mesmo assim, a química dos corais moles não tem tanta diversidade. O mais notável, no caso das esponjas, é que as classes de compostos são todas provenientes de biossintéticos diferentes. Mais uma vez, acreditamos que essa característica possa ser reflexo do fato de que boa parte desses compostos é feita por meio de simbiose, contando com a imensa diversidade de micróbios que vivem dentro das esponjas e são responsáveis pela incrível diversidade química que encontramos nelas”, explicou.
Dependendo do local onde uma mesma espécie de esponja é coletada, pode-se encontar compostos químicos muito diferentes. Para Andersen, isso é mais uma evidência de que a diversidade química é proveniente da simbiose.
“Provavelmente, as esponjas que vivem em diferentes locais têm simbiose com microrganismos diferentes. De certo modo, trata-se de uma maravilhosa amplificação da biodiversidade. Se a química estivesse ligada apenas às células da esponja, provavelmente a mesma esponja em todos os lugares teria a mesma composição. Mas, como a química está relacionada à simbiose, a mesma espécie de esponja pode ter composições químicas distintas em diferentes partes do mundo, multiplicando as possibilidades de prospecção de produtos bioativos”, afirmou.
O procedimento de prospecção consiste em coletar o maior número possível de esponjas e analisar, em uma fase posterior, o potencial bioativo dos compostos químicos presentes nelas.
“Em geral, já sabemos que as esponjas são uma rica fonte de compostos químicos. Então, não orientamos a busca para compostos específicos. Coletamos muitas esponjas de modo que possamos montar uma grande biblioteca de extratos, com grande diversidade química. Aí, usando ensaios biológicos, procuramos por compostos que tenham tipos específicos de atividade biológica, como a atividade antimitótica, ou a ação em um receptor específico”, explicou.
Gargalo da produção
Depois de coletar esponjas e obter uma grande diversidade biológica, os cientistas sabem que têm à disposição uma grande diversidade química de compostos. “Usamos então testes químicos para descobrir, na nossa imensa coleção de compostos, aqueles dois ou três que realmente queremos e que possuem as atividades biológicas que precisamos”, disse Andersen.
O segredo para uma boa bioprospecção, segundo ele, é possuir uma biblioteca química muito rica e, ao mesmo tempo, ter à disposição ensaios de atividade biológica que sejam muito eficientes e seletivos para os diversos tipos de compostos.
“As moléculas que procuramos devem cumprir os seguintes critérios: ter interesse teórico devido à novidade de sua biogênese – como moléculas que possuem novos esqueletos de carbono –, devem mostrar atividade biológica in vitro, o que faz delas potenciais alvos para o desenvolvimento de agentes farmacêuticos e, por último, devem mostrar atividades biológicas que lhes permitam ter um papel central na biologia do organismo que as produz”, explicou.
Uma vez encontrada a molécula, segundo o professor da Universidade da Colúmbia Britânica, surge o principal gargalo para a produção de novos fármacos: a produção em escala.
“Quando se trata de esponjas, não podemos ir à natureza coletá-las e usá-las como fonte para o desenvolvimento de drogas. Nenhuma indústria farmacêutica investiria em um composto que fosse desenvolvido exclusivamente a partir de um recurso natural desse tipo. É preciso ter uma fonte renovável. Por isso, depois de encontrar um composto que pareça realmente promissor, é preciso sintetizar a molécula e produzi-la em escala. Esse é um ponto crítico do processo, antes de partir para testes clínicos”, afirmou.
Fonte:http://www.agencia.fapesp.br/materia/12749/especiais/esponjas-contra-o-cancer.htm
Por Fábio de Castro
Agência FAPESP – A diversidade de compostos químicos presente nas esponjas coloca esses animais marinhos entre as mais promissoras fontes para a obtenção de produtos naturais bioativos visando à produção de novas drogas, de acordo com Raymond Andersen, professor do Departamento de Química e Ciências da Terra e do Oceano da Universidade da Colúmbia Britânica, no Canadá.
Andersen, cujo laboratório se dedica à prospecção, isolamento, análise estrutural e síntese de compostos extraídos de organismos marinhos, participou, nesta quinta-feira (9/9), do Workshop sobre biodiversidade marinha: avanços recentes em bioprospecção, biogeografia e filogeografia, realizado pelo programa Biota-FAPESP.
O cientista apresentou, durante o evento na sede da FAPESP, trabalhos realizados por seu grupo sobre compostos isolados a partir de esponjas coletadas em Papua-Nova Guiné e na costa canadense. Os compostos têm ação antimitótica – ou seja, são capazes de deter o processo de divisão celular, o que permitiria sua utilização no desenvolvimento de drogas contra o câncer, por exemplo.
Segundo Andersen, as esponjas marinhas são especialmente interessantes para a prospecção de compostos bioativos, pois raramente se encontra uma diversidade química tão notável em um só organismo.
“Um dos fatores que explicam essa espantosa diversidade química é que as esponjas não têm defesas físicas, mas têm cores vivas, ficam expostas e não se movem, não podendo fugir de predadores. Por isso, elas têm necessidade de defesas químicas. Acreditamos que, por serem animais muito primitivos, elas sejam capazes de tolerar e produzir compostos químicos especialmente exóticos”, disse à Agência FAPESP.
A necessidade de defesa ligada à evolução, no entanto, não é a única explicação para a variedade de compostos químicos presentes nas esponjas, segundo o pesquisador. Boa parte dessa diversidade pode ser fruto da simbiose – outra característica marcante das esponjas.
“Cada vez mais começamos a acreditar que muitos desses compostos encontrados em esponjas são provenientes de relações simbióticas com microrganismos dos quais elas se alimentam”, disse.
Fotos microscópicas dos tecidos das esponjas mostram a presença – no interior dos próprios tecidos, ou em suas adjacências – de uma quantidade imensa de microrganismos. “Achamos que a alta tolerância das esponjas às relações simbióticas, desenvolvida ao longo da evolução, possa ser uma das explicações para que esses organismos sejam uma fonte tão rica de novos compostos químicos”, disse.
Segundo Andersen, em comparação com outros organismos marinhos, apenas os corais moles – da ordem Alcyonacea, que não possuem esqueleto de carbonato de cálcio – aproximam-se das esponjas com relação à riqueza de compostos químicos e metabólitos secundários.
“Mesmo assim, a química dos corais moles não tem tanta diversidade. O mais notável, no caso das esponjas, é que as classes de compostos são todas provenientes de biossintéticos diferentes. Mais uma vez, acreditamos que essa característica possa ser reflexo do fato de que boa parte desses compostos é feita por meio de simbiose, contando com a imensa diversidade de micróbios que vivem dentro das esponjas e são responsáveis pela incrível diversidade química que encontramos nelas”, explicou.
Dependendo do local onde uma mesma espécie de esponja é coletada, pode-se encontar compostos químicos muito diferentes. Para Andersen, isso é mais uma evidência de que a diversidade química é proveniente da simbiose.
“Provavelmente, as esponjas que vivem em diferentes locais têm simbiose com microrganismos diferentes. De certo modo, trata-se de uma maravilhosa amplificação da biodiversidade. Se a química estivesse ligada apenas às células da esponja, provavelmente a mesma esponja em todos os lugares teria a mesma composição. Mas, como a química está relacionada à simbiose, a mesma espécie de esponja pode ter composições químicas distintas em diferentes partes do mundo, multiplicando as possibilidades de prospecção de produtos bioativos”, afirmou.
O procedimento de prospecção consiste em coletar o maior número possível de esponjas e analisar, em uma fase posterior, o potencial bioativo dos compostos químicos presentes nelas.
“Em geral, já sabemos que as esponjas são uma rica fonte de compostos químicos. Então, não orientamos a busca para compostos específicos. Coletamos muitas esponjas de modo que possamos montar uma grande biblioteca de extratos, com grande diversidade química. Aí, usando ensaios biológicos, procuramos por compostos que tenham tipos específicos de atividade biológica, como a atividade antimitótica, ou a ação em um receptor específico”, explicou.
Gargalo da produção
Depois de coletar esponjas e obter uma grande diversidade biológica, os cientistas sabem que têm à disposição uma grande diversidade química de compostos. “Usamos então testes químicos para descobrir, na nossa imensa coleção de compostos, aqueles dois ou três que realmente queremos e que possuem as atividades biológicas que precisamos”, disse Andersen.
O segredo para uma boa bioprospecção, segundo ele, é possuir uma biblioteca química muito rica e, ao mesmo tempo, ter à disposição ensaios de atividade biológica que sejam muito eficientes e seletivos para os diversos tipos de compostos.
“As moléculas que procuramos devem cumprir os seguintes critérios: ter interesse teórico devido à novidade de sua biogênese – como moléculas que possuem novos esqueletos de carbono –, devem mostrar atividade biológica in vitro, o que faz delas potenciais alvos para o desenvolvimento de agentes farmacêuticos e, por último, devem mostrar atividades biológicas que lhes permitam ter um papel central na biologia do organismo que as produz”, explicou.
Uma vez encontrada a molécula, segundo o professor da Universidade da Colúmbia Britânica, surge o principal gargalo para a produção de novos fármacos: a produção em escala.
“Quando se trata de esponjas, não podemos ir à natureza coletá-las e usá-las como fonte para o desenvolvimento de drogas. Nenhuma indústria farmacêutica investiria em um composto que fosse desenvolvido exclusivamente a partir de um recurso natural desse tipo. É preciso ter uma fonte renovável. Por isso, depois de encontrar um composto que pareça realmente promissor, é preciso sintetizar a molécula e produzi-la em escala. Esse é um ponto crítico do processo, antes de partir para testes clínicos”, afirmou.
Fonte:http://www.agencia.fapesp.br/materia/12749/especiais/esponjas-contra-o-cancer.htm
Ei, Google, que tal uma Google Universal Instant Search?
Por PC World/EUA
Publicada em 10 de setembro de 2010 às 09h20
Recurso que revela os resultados de busca na velocidade da digitação poderia ser combinado ao Google Desktop na criação da ferramenta ideal.
O novo Google Instant Search revela os resultados da busca web na velocidade que você digita. Embora seja tão incrível quanto possa parecer, os resultados são confinados à web.
A Google tem os elementos – combinando o Google Instant com o Google Desktop – para desenvolver um recurso de busca universal que pode aumentar drasticamente a produtividade.
Marissa Mayer, vice-presidente de Produtos de Busca e Experiência do Usuário da Google, descreve as vantagens do Google Instant, em um blog.
“Os benefícios de um Google Instant são muitos – mas o principal é o tempo economizado. Nosso teste mostrou que o Google Instant economiza de dois a cinco minutos por busca, para um usuário médio. Com o Google Instant, estimamos que poderemos fazer nossos usuários economizarem 11 horas por ano, segundo a segundo!”
Isso soa impressionante, mas quantas buscas web um usuário médio faz por dia? Eu poderia pesquisar a web cinco ou dez vezes por dia, mas a Internet é meu ganha-pão, assim eu posso não ser um caso válido. Mesmo assim, assumindo que o Google Instant pode economizar três segundos por busca, eu economizaria 30 segundos por dia, ou 2,5 minutos por semana de trabalho, o que daria um total de mais de duas horas por ano de tempo ganho.
Certamente não é nada desprezível – especialmente para grandes organizações com milhares de empregados, cada um economizando duas horas por ano. No entanto, a busca web já é bastante rápida, e entre o Google e o Bing eu posso geralmente encontrar o que procuro de forma bastante rápida. Encontrar dados locais já é uma história totalmente diferente.
O conceito de busca na velocidade da digitação não é novo. É novo para a busca na web da Google. O X1 oferece resultados instantâneos de busca para e-mails, anexos de arquivos, arquivos locais, eventos de agenda, contatos, e-mails arquivados, e dados remotos como servidores de arquivos e dados Microsoft SharePoint.
A Microsoft tem um recurso de busca parecido embutido no Windows 7. O problema com essas buscas no desktop é que elas não incluem os resultados de busca na web.
O Google Desktop oferece busca local comparável de e-mails, arquivos, música, fotos, chats, Gmail, e páginas web já vistas, mas não na web. Basicamente, se um usuário quer encontrar um bom exemplo para criar uma planilha de acompanhamento de gastos de projetos, ele terá de fazer buscas separadas em dados locais e na web, e comparar os resultados para encontrar a melhor opção.
E se a Google combinasse o Google Instant com o Google Desktop, para criar o Google Universal? Eis uma aplicação que realmente pode dar impulso à produtividade.
O Google Instante e o Google Desktop são excelentes ferramentas, mas uma barra de buscas que mostrasse preditivamente os resultados instantâneos dos dois ambientes – web e desktop – em um única interface seria a ferramenta definitiva para que os usuários trabalhassem de forma mais eficiente e eficaz.
(Tony Bradley)
Fonte:http://idgnow.uol.com.br/internet/2010/09/10/ei-google-que-tal-uma-google-universal-instant-search
Publicada em 10 de setembro de 2010 às 09h20
Recurso que revela os resultados de busca na velocidade da digitação poderia ser combinado ao Google Desktop na criação da ferramenta ideal.
O novo Google Instant Search revela os resultados da busca web na velocidade que você digita. Embora seja tão incrível quanto possa parecer, os resultados são confinados à web.
A Google tem os elementos – combinando o Google Instant com o Google Desktop – para desenvolver um recurso de busca universal que pode aumentar drasticamente a produtividade.
Marissa Mayer, vice-presidente de Produtos de Busca e Experiência do Usuário da Google, descreve as vantagens do Google Instant, em um blog.
“Os benefícios de um Google Instant são muitos – mas o principal é o tempo economizado. Nosso teste mostrou que o Google Instant economiza de dois a cinco minutos por busca, para um usuário médio. Com o Google Instant, estimamos que poderemos fazer nossos usuários economizarem 11 horas por ano, segundo a segundo!”
Isso soa impressionante, mas quantas buscas web um usuário médio faz por dia? Eu poderia pesquisar a web cinco ou dez vezes por dia, mas a Internet é meu ganha-pão, assim eu posso não ser um caso válido. Mesmo assim, assumindo que o Google Instant pode economizar três segundos por busca, eu economizaria 30 segundos por dia, ou 2,5 minutos por semana de trabalho, o que daria um total de mais de duas horas por ano de tempo ganho.
Certamente não é nada desprezível – especialmente para grandes organizações com milhares de empregados, cada um economizando duas horas por ano. No entanto, a busca web já é bastante rápida, e entre o Google e o Bing eu posso geralmente encontrar o que procuro de forma bastante rápida. Encontrar dados locais já é uma história totalmente diferente.
O conceito de busca na velocidade da digitação não é novo. É novo para a busca na web da Google. O X1 oferece resultados instantâneos de busca para e-mails, anexos de arquivos, arquivos locais, eventos de agenda, contatos, e-mails arquivados, e dados remotos como servidores de arquivos e dados Microsoft SharePoint.
A Microsoft tem um recurso de busca parecido embutido no Windows 7. O problema com essas buscas no desktop é que elas não incluem os resultados de busca na web.
O Google Desktop oferece busca local comparável de e-mails, arquivos, música, fotos, chats, Gmail, e páginas web já vistas, mas não na web. Basicamente, se um usuário quer encontrar um bom exemplo para criar uma planilha de acompanhamento de gastos de projetos, ele terá de fazer buscas separadas em dados locais e na web, e comparar os resultados para encontrar a melhor opção.
E se a Google combinasse o Google Instant com o Google Desktop, para criar o Google Universal? Eis uma aplicação que realmente pode dar impulso à produtividade.
O Google Instante e o Google Desktop são excelentes ferramentas, mas uma barra de buscas que mostrasse preditivamente os resultados instantâneos dos dois ambientes – web e desktop – em um única interface seria a ferramenta definitiva para que os usuários trabalhassem de forma mais eficiente e eficaz.
(Tony Bradley)
Fonte:http://idgnow.uol.com.br/internet/2010/09/10/ei-google-que-tal-uma-google-universal-instant-search
Acervo do Última Hora na web é passeio pela história do Brasil no século XX
“O jornal cumpriu o seu papel inicial que foi o de provocar a competição pela notícia. Nós tínhamos um repórter ao lado do presidente o dia inteiro, mas para humanizar as notícias dele, porque as notícias vinham oficiais, era um resto de censura, era o hábito da censura.
A coluna se tornou tão importante que deu um editorial no ‘Correio da Manhã’, o que na época era uma consagração, chamava-se ‘O Dia do Presidente’. Essa Nova Instituição da Imprensa Brasileira. Os jornais estrangeiros preferiam tirar a notícia do ‘Dia do Presidente’ e não da Agência Nacional.”
Publicadas na Folha de S.Paulo em 14 de janeiro de 1979, as palavras acima são do jornalista Samuel Wainer. Ele se referia ao jornal Última Hora (UH), fundado por ele em 1951 no Rio de Janeiro. Um dos periódicos brasileiros mais importantes em meados do século passado, o Última Hora entrou para a história pelas polêmicas nas quais se envolveu e por ter ajudado a renovar o modo de fazer jornalismo no Brasil.
Jornal Última Hora tinha forte apelo popular e representou uma inovação para a imprensa nacional
Você, leitor, agora pode viajar mais nessa história – e, por consequência, na da imprensa nacional e do próprio País – consultando um acervo de 54.600 fotos e 1.200 ilustrações do jornal que o Arquivo Público do Estado de São Paulo colocou na internet.
As imagens compreendem um período de cerca de 20 anos da edição carioca do Última Hora – de 1951 a 1970. O jornal também teve edições em outros estados, como São Paulo.
Vem mais por aí
O trabalho de digitalização ainda está em andamento. Segundo o Arquivo Público, o objetivo é chegar a um total de 600 mil imagens digitalizadas nos próximos anos – não há previsão de quando o projeto estará concluído.
Estreia de Roberto Carlos na TV Tupi, 1968
As imagens agora colocadas para acesso gratuito na web se somam às edições digitais do Última Hora. As versões digitalizadas estão no site desde 2008 e foram patrocinadas pela AMD. Foram digitalizadas 36.000 páginas, o que abrange 60 meses de jornal.
Já o tratamento de conservação preventiva e a digitalização das imagens, para usar o jargão dos técnicos, resulta do Projeto Última Hora – Acervo fotográfico, do Centro Iconográfico e Cartográfico do Arquivo Público. Essa iniciativa começou em 2007.
No total, o Fundo Última Hora, que é administrado pelo Arquivo Público do Estado de Paulo, contém 166 mil fotografias, 500 mil negativos, 2.223 ilustrações e uma coleção de edições da Ultima Hora do Rio de Janeiro entre os anos de 1951 e 1970, em papel ou microfilme.
Ao lado Getúlio Vargas e contra Carlos Lacerda
O Última Hora inovou tanto nos temas destacados na cobertura como pela forma como o fazia. O jornal trazia assuntos tradicionais (política, economia, internacional) no primeiro caderno, enquanto no segundo caderno o espaço era para esportes, divertimento e reivindicações populares. Cobertura policial também recebia atenção. Essa combinação foi um dos segredos para o sucesso de público do UH.
Foto de cobertura policial, tema bastante abordado pelo jornal, que destacava assuntos populares
“Considerado assunto menor em outros jornais, justamente por ser um tema por demais ligado às classes populares, o futebol foi alçado a assunto de primeira grandeza na UH justamente por promover o diálogo e estabelecer uma proximidade com o povo. Um dos momentos em que essa escolha foi levada ao extremo foi exatamente a Copa do Mundo”, consta no site do Arquivo Público.
Renovação estética
A questão gráfica também não ficava atrás. Samuel Wainer investiu na diagramação, no uso da cor, da fotografia e ilustrações. Como parte do projeto de valorização estética, as ilustrações não se restringiam apenas à política, algo já comum na época, mas também à arte, cultura e comportamento.
Pelé e outros esportistas eram personagens frequentes das ilustrações
“Eu trouxe o diagramador, criei a valorização do repórter, individualizei a função do fotógrafo, estruturei a cobertura de massa, enfim, uma série de coisas – que representam toda a criação de uma equipe, porque ninguém cria nada sozinho em jornal”, disse Samuel Wainer na já citada entrevista à Folha.
Amigo de Vargas, Samuel Wainer recebeu apoio do governo para montar o jornal
A criação do jornal foi estimulada pelo então presidente Getúlio Vargas, de quem Samuel Wainer era aliado de primeira hora. Carlos Lacerda, rival político feroz de Getúlio e Wainer, promoveu campanha contra o Última Hora sob a alegação de que o jornal foi fundado com empréstimo fraudulento do Banco do Brasil. Disso resultou uma CPI no Congresso, uma boa dose de polêmica e um dos capítulos mais movimentados da imprensa brasileira.
Acesse
http://www.arquivoestado.sp.gov.br/
para ver o acervo do Última Hora.
Fonte:http://idgnow.uol.com.br/blog/navedigital/2010/09/09/acervo-do-ultima-hora-na-web-e-passeio-pela-historia-do-brasil-no-seculo-xx/
A coluna se tornou tão importante que deu um editorial no ‘Correio da Manhã’, o que na época era uma consagração, chamava-se ‘O Dia do Presidente’. Essa Nova Instituição da Imprensa Brasileira. Os jornais estrangeiros preferiam tirar a notícia do ‘Dia do Presidente’ e não da Agência Nacional.”
Publicadas na Folha de S.Paulo em 14 de janeiro de 1979, as palavras acima são do jornalista Samuel Wainer. Ele se referia ao jornal Última Hora (UH), fundado por ele em 1951 no Rio de Janeiro. Um dos periódicos brasileiros mais importantes em meados do século passado, o Última Hora entrou para a história pelas polêmicas nas quais se envolveu e por ter ajudado a renovar o modo de fazer jornalismo no Brasil.
Jornal Última Hora tinha forte apelo popular e representou uma inovação para a imprensa nacional
Você, leitor, agora pode viajar mais nessa história – e, por consequência, na da imprensa nacional e do próprio País – consultando um acervo de 54.600 fotos e 1.200 ilustrações do jornal que o Arquivo Público do Estado de São Paulo colocou na internet.
As imagens compreendem um período de cerca de 20 anos da edição carioca do Última Hora – de 1951 a 1970. O jornal também teve edições em outros estados, como São Paulo.
Vem mais por aí
O trabalho de digitalização ainda está em andamento. Segundo o Arquivo Público, o objetivo é chegar a um total de 600 mil imagens digitalizadas nos próximos anos – não há previsão de quando o projeto estará concluído.
Estreia de Roberto Carlos na TV Tupi, 1968
As imagens agora colocadas para acesso gratuito na web se somam às edições digitais do Última Hora. As versões digitalizadas estão no site desde 2008 e foram patrocinadas pela AMD. Foram digitalizadas 36.000 páginas, o que abrange 60 meses de jornal.
Já o tratamento de conservação preventiva e a digitalização das imagens, para usar o jargão dos técnicos, resulta do Projeto Última Hora – Acervo fotográfico, do Centro Iconográfico e Cartográfico do Arquivo Público. Essa iniciativa começou em 2007.
No total, o Fundo Última Hora, que é administrado pelo Arquivo Público do Estado de Paulo, contém 166 mil fotografias, 500 mil negativos, 2.223 ilustrações e uma coleção de edições da Ultima Hora do Rio de Janeiro entre os anos de 1951 e 1970, em papel ou microfilme.
Ao lado Getúlio Vargas e contra Carlos Lacerda
O Última Hora inovou tanto nos temas destacados na cobertura como pela forma como o fazia. O jornal trazia assuntos tradicionais (política, economia, internacional) no primeiro caderno, enquanto no segundo caderno o espaço era para esportes, divertimento e reivindicações populares. Cobertura policial também recebia atenção. Essa combinação foi um dos segredos para o sucesso de público do UH.
Foto de cobertura policial, tema bastante abordado pelo jornal, que destacava assuntos populares
“Considerado assunto menor em outros jornais, justamente por ser um tema por demais ligado às classes populares, o futebol foi alçado a assunto de primeira grandeza na UH justamente por promover o diálogo e estabelecer uma proximidade com o povo. Um dos momentos em que essa escolha foi levada ao extremo foi exatamente a Copa do Mundo”, consta no site do Arquivo Público.
Renovação estética
A questão gráfica também não ficava atrás. Samuel Wainer investiu na diagramação, no uso da cor, da fotografia e ilustrações. Como parte do projeto de valorização estética, as ilustrações não se restringiam apenas à política, algo já comum na época, mas também à arte, cultura e comportamento.
Pelé e outros esportistas eram personagens frequentes das ilustrações
“Eu trouxe o diagramador, criei a valorização do repórter, individualizei a função do fotógrafo, estruturei a cobertura de massa, enfim, uma série de coisas – que representam toda a criação de uma equipe, porque ninguém cria nada sozinho em jornal”, disse Samuel Wainer na já citada entrevista à Folha.
Amigo de Vargas, Samuel Wainer recebeu apoio do governo para montar o jornal
A criação do jornal foi estimulada pelo então presidente Getúlio Vargas, de quem Samuel Wainer era aliado de primeira hora. Carlos Lacerda, rival político feroz de Getúlio e Wainer, promoveu campanha contra o Última Hora sob a alegação de que o jornal foi fundado com empréstimo fraudulento do Banco do Brasil. Disso resultou uma CPI no Congresso, uma boa dose de polêmica e um dos capítulos mais movimentados da imprensa brasileira.
Acesse
http://www.arquivoestado.sp.gov.br/
para ver o acervo do Última Hora.
Fonte:http://idgnow.uol.com.br/blog/navedigital/2010/09/09/acervo-do-ultima-hora-na-web-e-passeio-pela-historia-do-brasil-no-seculo-xx/
Navegando sem usar o mouse: sim, é possível!
Confira atalhos para tornar a navegação mais fácil, além de um software que te ajuda a usar internet, Twitter e até mesmo acessar sites de notícias utilizando apenas as setinhas do seu teclado
Link da matéria:http://www.mousefighter.com/
Mouse Fighter
O mouse ainda é um dos artigos imprescindíveis para quem usa computador. Alguns fabricantes têm lançado máquinas sensíveis ao toque, mas ainda é uma solução distante da maioria do público. Então, o ratinho é quem continua mandando! Mas e se algum dia você ficar sem mouse, ou ele começar a falhar, e ainda assim precisar fazer algo urgente na internet? Bom, é melhor estar preparado. Então veja algumas dicas de como navegar pela web com o Firefox ou o Internet Explorer usando apenas o seu teclado.
Se você precisa selecionar o trecho de algum texto dentro da página de navegação, basta aperta a tecla F7. Em seguida o cursor aparecerá no texto da página, assim como aparece no Word, quando você escreve alguma coisa. Aí você pode circular pelo conteúdo usando apenas as setinhas do seu teclado. Para desabilitar a função basta selecionar F7 novamente. Agora você quer entrar em um novo site? Basta apertar as teclas ALT + D. Dessa forma você conseguirá digitar o nome do portal na barra de endereços.
Tá precisando voltar à pagina incial do seu navegador? Nesse caso é só selecionar Alt + HOME e pronto! CTRL + N você abre uma nova janela do browser e ao apertar CTRL + T uma nova aba aparece para sua navegação. O botão F5 ou a junção de CTRL + R fazem com que a página aberta seja atualizada. Para localizar uma palavra específica na página que você está, basta aplicar o comando F3.
A tecla TAB pode ser bastante útil. Com ela, você consegue passar pelos links que estão na página, ou então pelos campos de formulários e barra de endereços. Mas é chato quando você quer deixar o cursor em um campo e ele acaba ultrapassando o destino.. pra resolver isso é só apertar SHIFT + TAB. Com esse comando o cursor percorre o caminho contrário. Simples, não é?
Bom, mas se você cansou de navegar usando apenas as teclas do computador, aperte CTRL+W e todas as suas abas serão encerradas... e aí você corre para comprar logo um mouse novo...
Mas você sabia que é perfeitamente possível navegar pela internet, publicar mensagens no twitter, no orkut, acessar sites de notícias sem precisar usar o mouse, e sem ter que usar teclas de atalho? Bom, quem te ajuda a fazer tudo isso é esse programinha aqui. Veja como ele funciona.
Ao instalar o software no seu computador, ele vai exibir essa telinha de instruções mostrando a função de cada tecla. Para movimentar a setinha do mouse, você precisa apenas mexer nas setinhas do seu teclado para cima, para baixo e para os lados... a letra A substitui o botão esquerdo do mouse. E a letra S faz a vez do botão direito. Então, para abrir algum arquivo, basta apertar duas vezes o A. Bem simples, não é?!
Para você acionar a função de substituir o mouse pelo teclado, é preciso entrar nessa telinha, selecionar esta segunda opção e, em seguida, pressionar o botão CAPS LOCK. A partir daí você vai perceber que o cursor do mouse até vai ganhar um formato diferente. Para desativar o comando, basta apertar novamente o CAPS LOCK. Nesta abinha de Settings, é possível alterar a velocidade que os comandos são dados.
Quer fazer o download de mais essa dica? Então acesse agora olhardigital.com.br e clique nesta matéria em destaque na home. Lá você vai encontrar o caminho para baixar o software e também uma lista com outros atalhos para você se dar bem na internet, mesmo com o mouse pedindo, por favor, pra se aposentar. Corre lá!
Fonte:http://olhardigital.uol.com.br/produtos/central_de_videos/navegando-sem-usar-o-mouse-sim-e-possivel/13759/integra
Link da matéria:http://www.mousefighter.com/
Mouse Fighter
O mouse ainda é um dos artigos imprescindíveis para quem usa computador. Alguns fabricantes têm lançado máquinas sensíveis ao toque, mas ainda é uma solução distante da maioria do público. Então, o ratinho é quem continua mandando! Mas e se algum dia você ficar sem mouse, ou ele começar a falhar, e ainda assim precisar fazer algo urgente na internet? Bom, é melhor estar preparado. Então veja algumas dicas de como navegar pela web com o Firefox ou o Internet Explorer usando apenas o seu teclado.
Se você precisa selecionar o trecho de algum texto dentro da página de navegação, basta aperta a tecla F7. Em seguida o cursor aparecerá no texto da página, assim como aparece no Word, quando você escreve alguma coisa. Aí você pode circular pelo conteúdo usando apenas as setinhas do seu teclado. Para desabilitar a função basta selecionar F7 novamente. Agora você quer entrar em um novo site? Basta apertar as teclas ALT + D. Dessa forma você conseguirá digitar o nome do portal na barra de endereços.
Tá precisando voltar à pagina incial do seu navegador? Nesse caso é só selecionar Alt + HOME e pronto! CTRL + N você abre uma nova janela do browser e ao apertar CTRL + T uma nova aba aparece para sua navegação. O botão F5 ou a junção de CTRL + R fazem com que a página aberta seja atualizada. Para localizar uma palavra específica na página que você está, basta aplicar o comando F3.
A tecla TAB pode ser bastante útil. Com ela, você consegue passar pelos links que estão na página, ou então pelos campos de formulários e barra de endereços. Mas é chato quando você quer deixar o cursor em um campo e ele acaba ultrapassando o destino.. pra resolver isso é só apertar SHIFT + TAB. Com esse comando o cursor percorre o caminho contrário. Simples, não é?
Bom, mas se você cansou de navegar usando apenas as teclas do computador, aperte CTRL+W e todas as suas abas serão encerradas... e aí você corre para comprar logo um mouse novo...
Mas você sabia que é perfeitamente possível navegar pela internet, publicar mensagens no twitter, no orkut, acessar sites de notícias sem precisar usar o mouse, e sem ter que usar teclas de atalho? Bom, quem te ajuda a fazer tudo isso é esse programinha aqui. Veja como ele funciona.
Ao instalar o software no seu computador, ele vai exibir essa telinha de instruções mostrando a função de cada tecla. Para movimentar a setinha do mouse, você precisa apenas mexer nas setinhas do seu teclado para cima, para baixo e para os lados... a letra A substitui o botão esquerdo do mouse. E a letra S faz a vez do botão direito. Então, para abrir algum arquivo, basta apertar duas vezes o A. Bem simples, não é?!
Para você acionar a função de substituir o mouse pelo teclado, é preciso entrar nessa telinha, selecionar esta segunda opção e, em seguida, pressionar o botão CAPS LOCK. A partir daí você vai perceber que o cursor do mouse até vai ganhar um formato diferente. Para desativar o comando, basta apertar novamente o CAPS LOCK. Nesta abinha de Settings, é possível alterar a velocidade que os comandos são dados.
Quer fazer o download de mais essa dica? Então acesse agora olhardigital.com.br e clique nesta matéria em destaque na home. Lá você vai encontrar o caminho para baixar o software e também uma lista com outros atalhos para você se dar bem na internet, mesmo com o mouse pedindo, por favor, pra se aposentar. Corre lá!
Fonte:http://olhardigital.uol.com.br/produtos/central_de_videos/navegando-sem-usar-o-mouse-sim-e-possivel/13759/integra
Atalhos com movimentos do mouse: nova maneira de controlar seu PC
Com este software, você pode criar caminhos a partir de movimentos desenhados com o mouse
GMote
Usar atalhos no teclado para comandar operações no Windows pode agilizar a vida no PC, mas memorizar as combinações de teclas não é tão prático assim, não é mesmo? Para criar atalhos mais simples dá uma olhada nesse programa aqui. Com ele você pode criar caminhos a partir de movimentos desenhados com o mouse.
Depois de instalar você já pode usar as configurações prontas de atalho, que ficam aqui na lateral da janela. Mas o mais interessante é a possibilidade de criar um comando personalizado. Para isso, basta clicar em "Create Gesture" e desenhar nessa tela ao lado a forma que gostaria de ter como atalho. Depois de fazer o movimento, o desenho vai aparecer na lateral esquerda. Agora é só clicar onde está escrito "Do Nothing" e atribuir uma função ao movimento nessa janela que irá abrir.
Enquanto o programa estiver ativo, os atalhos vão funcionar normalmente. Esteja você na internet ou até mesmo digitando um texto no Word. Quer abandonar os atalhos no teclado? Então clique no link abaixo e faça o download!
http://www.handform.net/gmote.php
Fonte:http://olhardigital.uol.com.br/produtos/central_de_videos/atalhos-com-movimentos-do-mouse-nova-maneira-de-controlar-seu-pc/13815/integra
GMote
Usar atalhos no teclado para comandar operações no Windows pode agilizar a vida no PC, mas memorizar as combinações de teclas não é tão prático assim, não é mesmo? Para criar atalhos mais simples dá uma olhada nesse programa aqui. Com ele você pode criar caminhos a partir de movimentos desenhados com o mouse.
Depois de instalar você já pode usar as configurações prontas de atalho, que ficam aqui na lateral da janela. Mas o mais interessante é a possibilidade de criar um comando personalizado. Para isso, basta clicar em "Create Gesture" e desenhar nessa tela ao lado a forma que gostaria de ter como atalho. Depois de fazer o movimento, o desenho vai aparecer na lateral esquerda. Agora é só clicar onde está escrito "Do Nothing" e atribuir uma função ao movimento nessa janela que irá abrir.
Enquanto o programa estiver ativo, os atalhos vão funcionar normalmente. Esteja você na internet ou até mesmo digitando um texto no Word. Quer abandonar os atalhos no teclado? Então clique no link abaixo e faça o download!
http://www.handform.net/gmote.php
Fonte:http://olhardigital.uol.com.br/produtos/central_de_videos/atalhos-com-movimentos-do-mouse-nova-maneira-de-controlar-seu-pc/13815/integra
Prêmio Jovem Cientista bate recorde de inscritos
JC e-mail 4092, de 09 de Setembro de 2010.
A 24ª edição de uma das principais premiações científicas da América Latina reúne mais de dois mil inscritos. Vencedores serão conhecidos em outubro
O Prêmio Jovem Cientista bateu o recorde no número de inscritos em sua 24ª edição: 2.158 estudantes participarão da disputa, que tem como tema "Energia e Meio Ambiente - Soluções para o Futuro".
O maior número de inscritos vem do ensino médio, 1.925, e 233 são graduados e estudantes de graduação.
Os vencedores serão conhecidos em outubro e as premiações serão entregues pelo presidente Luiz Inácio Lula da Silva, em novembro, no Palácio do Planalto, em Brasília.
O prêmio é dividido em quatro categorias: graduado e estudante do ensino superior, estudante do ensino médio, mérito institucional (que premia escolas e universidades com maior número de trabalhos inscritos com mérito científico) e menção honrosa (que premiará o pesquisador com título de doutor que se destacou por sua trajetória na área relacionada ao tema do prêmio).
Os trabalhos serão julgados por 14 especialistas da comunidade científica indicados pelo presidente do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), Carlos Alberto Aragão, sendo sete deles para o ensino médio e outros sete para as categorias graduado e estudantes do ensino superior, mérito institucional e menção honrosa.
O Prêmio é uma parceria entre o CNPq, a Gerdau e a Fundação Roberto Marinho (FRM) e tem como objetivo estimular a pesquisa, revelar talentos e investir em estudantes e profissionais que procuram alternativas para os problemas brasileiros. Sua primeira edição ocorreu em 1981, e desde então, premia trabalhos inovadores em diferentes áreas do conhecimento.
Um dos principais resultados desta iniciativa é a constatação de que a grande maioria dos agraciados com o Prêmio Jovem Cientista segue carreira de pesquisa nas universidades e centros de pesquisa.
Mais informações pela página do prêmio na internet: www.jovemcientista.org.br/
(Assessoria de Comunicação do CNPq)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73354
A 24ª edição de uma das principais premiações científicas da América Latina reúne mais de dois mil inscritos. Vencedores serão conhecidos em outubro
O Prêmio Jovem Cientista bateu o recorde no número de inscritos em sua 24ª edição: 2.158 estudantes participarão da disputa, que tem como tema "Energia e Meio Ambiente - Soluções para o Futuro".
O maior número de inscritos vem do ensino médio, 1.925, e 233 são graduados e estudantes de graduação.
Os vencedores serão conhecidos em outubro e as premiações serão entregues pelo presidente Luiz Inácio Lula da Silva, em novembro, no Palácio do Planalto, em Brasília.
O prêmio é dividido em quatro categorias: graduado e estudante do ensino superior, estudante do ensino médio, mérito institucional (que premia escolas e universidades com maior número de trabalhos inscritos com mérito científico) e menção honrosa (que premiará o pesquisador com título de doutor que se destacou por sua trajetória na área relacionada ao tema do prêmio).
Os trabalhos serão julgados por 14 especialistas da comunidade científica indicados pelo presidente do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), Carlos Alberto Aragão, sendo sete deles para o ensino médio e outros sete para as categorias graduado e estudantes do ensino superior, mérito institucional e menção honrosa.
O Prêmio é uma parceria entre o CNPq, a Gerdau e a Fundação Roberto Marinho (FRM) e tem como objetivo estimular a pesquisa, revelar talentos e investir em estudantes e profissionais que procuram alternativas para os problemas brasileiros. Sua primeira edição ocorreu em 1981, e desde então, premia trabalhos inovadores em diferentes áreas do conhecimento.
Um dos principais resultados desta iniciativa é a constatação de que a grande maioria dos agraciados com o Prêmio Jovem Cientista segue carreira de pesquisa nas universidades e centros de pesquisa.
Mais informações pela página do prêmio na internet: www.jovemcientista.org.br/
(Assessoria de Comunicação do CNPq)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73354
Obesidade cerebral
JC e-mail 4092, de 09 de Setembro de 2010.
Falha em neurônios seria a principal causa de ganho de peso induzido por dieta
A força de vontade está menos implicada na propensão à obesidade do que se pensa. Um novo estudo multicêntrico, liderado por cientistas australianos, descobriu que uma falha na conexão entre neurônios pode ser a responsável pelos quilos a mais, especialmente em pessoas submetidas à dieta rica em gorduras. Segundo os autores, o defeito leva células do cérebro a não reconhecerem sinais vitais que informam quando o organismo está satisfeito.
Na pesquisa internacional coordenada por Michael Cowley, do Instituto de Diabetes e Obesidade da Universidade Monash (publicada na edição on line da revista "Proceedings of National Academy of Sciences"), os cientistas observaram que células de apoio no cérebro de roedores desenvolveram um crescimento anormal quando eles receberam alimentos ricos em gordura por quatro meses. Isso impediu que células cerebrais regulares (o sistema melanocortina ou neurônios POMC) se conectassem com outros mecanismos neurais, que determinam a saciedade e o gasto de energia.
Nessa experiência, os animais com uma predisposição neural à obesidade ganharam 30% mais peso em comparação com 6% do grupo de camundongos e ratos com células resistentes à obesidade.
- Esses circuitos neurais regulam os comportamentos alimentares, o gasto energético e fazem parte de um processo que ocorre naturalmente no cérebro - explica Cowley - E eles começam a se formar no início da nossa vida. Acreditamos que as pessoas podem apresentar a tendência para a obesidade mesmo antes de comerem a sua primeira refeição.
No estudo, foi visto que consumir alimentos gordurosos provocou ainda mais o isolamento das células nervosas, tornando mais difícil para o cérebro auxiliar a perda de peso.
- As pessoas obesas não têm, necessariamente, falta de força de vontade para deixar de comer. Os seus cérebros não sabem quão cheio o corpo está ou quanta gordura foi armazenada, então o cérebro não avisa ao organismo para interromper o abastecimento - comenta Cowley. - Em razão disso, a habilidade de o corpo perder peso é significativamente reduzida.
Tamas Horvath, professor de neurobiologia, obstetrícia e ginecologia na Universidade Yale, também participou da experiência e explica que os animais que se tornaram obesos já apresentavam uma diferença importante na área do cérebro dedicada ao controle da saciedade.
Um risco maior de inflamação
Em animais resistentes à obesidade, os neurônios indicadores da saciedade são muito mais ativos e, portanto, sempre estão prontos para enviar os sinais de satisfação ao resto do cérebro e aos tecidos periféricos quando uma pessoa ingere a quantidade de comida suficiente para se manter.
- Esse circuito é um fator determinante na predisposição de cada indivíduo ao ganho de peso - acrescenta Horvath.
E há outras consequências dos mecanismos cerebrais alterados. Os indivíduos vulneráveis à obesidade induzida pela dieta também desenvolvem inflamação cerebral. Algo que não acontece com as pessoas resistentes.
Mas os médicos dizem que a genética por si só não é a causa da epidemia de obesidade no mundo. Os maus hábitos alimentares contribuem muito. No Brasil, quase metade da população adulta, com 20 anos de idade ou mais, está acima do peso, sendo que cerca de 15% desses são obesos, segundo o IBGE. Na Europa, o excesso de peso é associado a 8% de diversos tipos de cânceres, como o de mama.
(O Globo, 9/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73362
Falha em neurônios seria a principal causa de ganho de peso induzido por dieta
A força de vontade está menos implicada na propensão à obesidade do que se pensa. Um novo estudo multicêntrico, liderado por cientistas australianos, descobriu que uma falha na conexão entre neurônios pode ser a responsável pelos quilos a mais, especialmente em pessoas submetidas à dieta rica em gorduras. Segundo os autores, o defeito leva células do cérebro a não reconhecerem sinais vitais que informam quando o organismo está satisfeito.
Na pesquisa internacional coordenada por Michael Cowley, do Instituto de Diabetes e Obesidade da Universidade Monash (publicada na edição on line da revista "Proceedings of National Academy of Sciences"), os cientistas observaram que células de apoio no cérebro de roedores desenvolveram um crescimento anormal quando eles receberam alimentos ricos em gordura por quatro meses. Isso impediu que células cerebrais regulares (o sistema melanocortina ou neurônios POMC) se conectassem com outros mecanismos neurais, que determinam a saciedade e o gasto de energia.
Nessa experiência, os animais com uma predisposição neural à obesidade ganharam 30% mais peso em comparação com 6% do grupo de camundongos e ratos com células resistentes à obesidade.
- Esses circuitos neurais regulam os comportamentos alimentares, o gasto energético e fazem parte de um processo que ocorre naturalmente no cérebro - explica Cowley - E eles começam a se formar no início da nossa vida. Acreditamos que as pessoas podem apresentar a tendência para a obesidade mesmo antes de comerem a sua primeira refeição.
No estudo, foi visto que consumir alimentos gordurosos provocou ainda mais o isolamento das células nervosas, tornando mais difícil para o cérebro auxiliar a perda de peso.
- As pessoas obesas não têm, necessariamente, falta de força de vontade para deixar de comer. Os seus cérebros não sabem quão cheio o corpo está ou quanta gordura foi armazenada, então o cérebro não avisa ao organismo para interromper o abastecimento - comenta Cowley. - Em razão disso, a habilidade de o corpo perder peso é significativamente reduzida.
Tamas Horvath, professor de neurobiologia, obstetrícia e ginecologia na Universidade Yale, também participou da experiência e explica que os animais que se tornaram obesos já apresentavam uma diferença importante na área do cérebro dedicada ao controle da saciedade.
Um risco maior de inflamação
Em animais resistentes à obesidade, os neurônios indicadores da saciedade são muito mais ativos e, portanto, sempre estão prontos para enviar os sinais de satisfação ao resto do cérebro e aos tecidos periféricos quando uma pessoa ingere a quantidade de comida suficiente para se manter.
- Esse circuito é um fator determinante na predisposição de cada indivíduo ao ganho de peso - acrescenta Horvath.
E há outras consequências dos mecanismos cerebrais alterados. Os indivíduos vulneráveis à obesidade induzida pela dieta também desenvolvem inflamação cerebral. Algo que não acontece com as pessoas resistentes.
Mas os médicos dizem que a genética por si só não é a causa da epidemia de obesidade no mundo. Os maus hábitos alimentares contribuem muito. No Brasil, quase metade da população adulta, com 20 anos de idade ou mais, está acima do peso, sendo que cerca de 15% desses são obesos, segundo o IBGE. Na Europa, o excesso de peso é associado a 8% de diversos tipos de cânceres, como o de mama.
(O Globo, 9/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73362
quinta-feira, 9 de setembro de 2010
Menos sono, menos sexo
9/9/2010
Por Fabio Reynol
Agência FAPESP – Disfunção erétil, obesidade, diabetes, estresse e maior suscetibilidade para contrair doenças são alguns dos problemas que podem ser causados por distúrbios de sono. Estima-se que um terço da população da cidade de São Paulo tenha algum problema para dormir adequadamente.
Estudar os efeitos da privação de sono tem sido, desde 1995, o foco da pesquisa de Monica Andersen, professora do Departamento de Psicobiologia da Universidade Federal de São Paulo (Unifesp). Ela coordena um trabalho de investigação dos efeitos da privação e da restrição de sono na função reprodutiva de ratos machos, que conta com o apoio FAPESP por meio da modalidade Auxílio à Pesquisa – Regular.
Integrante do Centro de Estudos do Sono/Instituto do Sono, um dos Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP, Monica apresentou resultados de seu trabalho com animais durante a 25ª Reunião da Federação de Sociedades de Biologia Experimental (FeSBE), realizada de 25 a 28 de agosto na cidade paulista de Águas de Lindoia.
Na ocasião, ela concedeu à Agência FAPESP a entrevista a seguir, na qual resume resultados do laboratório que coordena e de outras pesquisas voltadas aos problemas do sono.
Agência FAPESP – De quantas horas de sono precisamos?
Monica Andersen – Não há uma resposta única. A média são oito horas diárias, mas uma pessoa pode ficar bem com quatro horas, enquanto outra precisará de dez. Chamamos os extremos de “pequenos dormidores” e “grandes dormidores”. Agora, se me perguntar de quantas horas você precisa, temos que ver primeiro como você acorda.
Agência FAPESP – Pela manhã, quais são os sinais de uma noite bem dormida?
Monica Andersen – Quem acorda abrindo a janela, de bom humor, dormiu a quantidade de que precisava. Quem acorda já cansado, com a sensação de que um caminhão passou por cima, ainda que tenha ficado na cama mais de nove horas, não teve um sono suficiente ou reparador.
Agência FAPESP – A quantidade de sono por noite pode ser modificada ao longo do tempo?
Monica Andersen – Sim, essa mudança ocorre ao longo da vida. Ao nascer, costumamos dormir 16 horas por dia. No fim da vida, precisamos de poucas horas. O problema é que a sociedade está forçando essa redução, tentando se adaptar à falta de sono.
Agência FAPESP – Estamos dormindo menos do que as gerações anteriores?
Monica Andersen – Nossa sociedade é cronicamente privada de sono. Há uma denominação nos Estados Unidos que é sintomática, da “sociedade 24 por 7”, isto é, que funciona 24 horas por dia, sete dias por semana. Que não para jamais. E isso traduz muito bem o que vivemos atualmente. Nós queremos a sociedade 24 por 7, principalmente nas grandes cidades. Nós participamos dessa autoprivação de sono. Queremos fazer mais um curso, terminar mais um trabalho e tudo o mais que conseguirmos encaixar em nosso dia e quem paga por tudo isso é o sono. Por que simplesmente não vamos dormir e deixamos as tarefas para o dia seguinte? Isso é cada vez mais impensável.
Agência FAPESP – Que problemas essa privação pode causar?
Monica Andersen – Um deles é o acúmulo de gordura em nosso corpo. A privação de sono aumenta o apetite por comidas calóricas, estimula o hormônio da fome (grelina) e reduz o hormônio da saciedade (leptina). Pouco sono também afeta o desempenho no trabalho ou estudo e provoca pequenos deslizes que afetam nosso rendimento. Há algumas profissões em que deslizes são particularmente perigosos, como aquelas ligadas à segurança ou à saúde pública.
Agência FAPESP – Não é paradoxal que justamente as profissões que envolvem grande responsabilidade e não podem ter tais deslizes sejam justamente aquelas que têm jornadas extenuantes, como médicos, policiais, pilotos de avião ou caminhoneiros?
Monica Andersen – De fato. Uma das consequências mais sérias da falta de sono atualmente é o aumento no número de acidentes. Em fevereiro de 2009, por exemplo, na cidade de Buffalo, nos Estados Unidos, a queda de um avião em uma área residencial matou 50 pessoas. A investigação concluiu que a causa mais provável do acidente foi a fadiga dos pilotos e os registros da jornada de trabalho realmente mostraram que eles haviam trabalhado horas excessivas. Também nos Estados Unidos, houve outro caso em que um avião simplesmente passou do aeroporto de destino e isso só foi notado uma hora depois. A causa do erro foi que os dois pilotos haviam dormido. Na medicina é a mesma coisa, há estudos mostrando que, no fim de um plantão, o número de erros médicos é bem maior.
Agência FAPESP – Essa situação tem piorado?
Monica Andersen – Isso está piorando porque a nossa sociedade está piorando. Muitos jovens, por exemplo, costumam inverter o ciclo circadiano [período sobre o qual se baseia o ciclo biológico do corpo, influenciado pela luz solar]. Eles vão para uma balada da 1 às 6 horas da manhã de sexta para sábado. Na noite seguinte, há uma balada ainda maior, até às 7 ou 8 horas do domingo. Ao voltar para casa, tomam café e vão dormir, para acordar no meio da tarde. De noite, eles não conseguem dormir e, na segunda-feira, começam uma nova semana às seis da manhã, para ir à escola ou ao trabalho. Eles iniciam a semana já privados de sono.
Agência FAPESP – Que consequências essa rotina pode trazer?
Monica Andersen – Tenho muita preocupação com os jovens de hoje. É uma faixa etária que terá dificuldade de aprendizagem, porque o sono é fundamental ao aprendizado e à memória. Muitos acabam dormindo na escola ou nas universidades, em plena sala de aula. Esse é um problema muito importante.
Agência FAPESP – É um problema que atinge outras faixas etárias?
Monica Andersen – Infelizmente, sim. Acima dos 30 anos está a faixa que chega em casa pensando em relaxar mas que resolve ligar o computador “só para checar os e-mails”. Só que acaba se envolvendo em outras atividades on-line e ficando bastante tempo conectado. Muitos trabalham o dia inteiro em frente a um computador e passam as madrugadas em frente a outro, em casa, jogando ou batendo papo. Tem também a televisão, que antigamente tinha poucos canais e uma programação que terminava na madrugada. Hoje, são dezenas de canais, que funcionam sem parar.
Agência FAPESP – Quais são os principais distúrbios de sono que essas rotinas causam?
Monica Andersen – Temos visto muita insônia em mulheres. Em São Paulo, cerca de um terço delas tem problemas para dormir adequadamente. Mas os homens também sofrem de insônia. E 32,9% da cidade de São Paulo tem a síndrome da apneia do sono, que pode levar à sonolência excessiva diurna.
Agência FAPESP – O que caracteriza a apneia do sono?
Monica Andersen – São paradas respiratórias durante o sono. Essas paradas podem ocorrer até 80 vezes por hora, ou mais de uma vez por minuto. Com isso, o coração tem que bater muito mais forte para levar o oxigênio para o cérebro. Imagine a pressão arterial dessa pessoa, uma vez que isso ocorre todas as noites. A apneia do sono é mais prevalente em homens e, entre seus principais fatores de risco, está a obesidade.
Agência FAPESP – A quantidade de sono também afeta a reprodução e o desempenho sexual?
Monica Andersen – Essa é a minha principal linha de pesquisa. O que observamos até agora em ratos é que uma privação de sono pontual provoca uma excitação sexual nos machos. Isso ocorre na privação de sono REM [sigla em inglês para “movimentos oculares rápidos”], quando ocorrem os sonhos. No entanto, apesar de apresentarem desejo, pois os ratos chegam a montar a fêmea, eles não conseguem fazer a penetração. Em outras palavras, eles têm desejo, mas não têm a função erétil adequada.
Agência FAPESP – Isso pode ser extrapolado para seres humanos?
Monica Andersen – Em 2007, fizemos o Episono, um grande levantamento epidemiológico no qual foram analisados 1.042 voluntários refletindo uma amostra representativa da população da cidade de São Paulo. Foi nesse estudo que levantamos que cerca de um terço dos moradores da capital paulista sofre de apneia do sono. Não estamos falando de gente que acha que tem a doença, são pessoas que foram diagnosticadas em laboratório de sono por médicos especialistas em sono com a síndrome. É um número enorme. Isso explica por que existem mais de 400 laboratórios de sono espalhados pelo Brasil e por que todos ficam lotados.
Agência FAPESP – O estudo encontrou problemas sexuais nas pessoas com a síndrome da apneia do sono?
Monica Andersen – O questionário respondido durante o Episono revelou que 17% dos homens da cidade de São Paulo se queixaram de disfunção erétil. Na faixa etária entre 20 e 29 anos, 7% dos homens disseram ter o problema. Acima de 60 anos, a reclamação de disfunção erétil subiu para 60%. O levantamento mostrou que quem tinha menos sono REM tinha maior probabilidade de ter queixas de disfunção erétil. E os homens que acordavam muito durante a noite eram os que mais reclamavam do problema.
Agência FAPESP – E quanto aos que dormiam bem?
Monica Andersen – Normalmente, os homens com bom padrão de sono não apresentaram queixa. Uma das conclusões é que quem dorme mal tem risco três vezes maior de apresentar disfunção erétil. Uma das causas é que a privação de sono reduz a testosterona, o hormônio sexual masculino. Praticar atividades físicas regularmente também se mostrou um fator protetor contra a disfunção erétil. Ou seja, para ter uma vida sexual normal é fundamental ter boas noites de sono e praticar atividade física.
Agência FAPESP – Em mulheres essa relação também é encontrada?
Monica Andersen – Fizemos testes de privação de sono com ratas e observamos que, quando elas são privadas de sono REM em fases nas quais estão receptivas para o sexo, o desejo sexual aumenta muito. Por outro lado, quando a privação de sono REM foi imposta em fases nas quais a fêmea não estava disposta ao acasalamento, equivalentes à tensão pré-menstrual da mulher, a rejeição ao macho aumentou bastante. Registramos ratas agredindo os machos para evitar a relação. Mas não dá para extrapolar para as mulheres comportamentos como esse, porque, além do ciclo menstrual, a mulher também recebe influências de uma série de alterações psicológicas. Nessa linha, estou fazendo uma pesquisa com a ginecologista Helena Hachul, também da Unifesp, para averiguar se a privação de sono pode afetar a reprodução nas mulheres. Para isso, estamos investigando a relação entre qualidade de sono e gestação.
Agência FAPESP – A falta de sono pode acelerar o envelhecimento?
Monica Andersen – Esse foi o resultado de uma pesquisa feita por Eve Van Cauter, da Universidade de Chicago, uma das maiores especialistas em sono no mundo. Ela mostrou que a privação de sono em uma idade jovem simula um quadro de envelhecimento precoce. Seria como se essas pessoas de repente tivessem 60 anos. Há indícios de que a falta de sono pode provocar estresse oxidativo, alterações cardiovasculares, maior risco ao diabetes e outros problemas que veríamos em uma pessoa mais velha. Conheço uma mulher jovem, de 23 anos, que dorme muito pouco e tem um colesterol altíssimo, por volta de 300. Essa foi inclusive parte de um trabalho meu, de 2004, que mostrou, em ratos, que a privação de sono provoca o aumento do colesterol ruim, o LDL.
Agência FAPESP – Qual é o papel do sono no sistema imunológico?
Monica Andersen – Há exemplos muito interessantes em relação a isso. Muitos idosos que tomam a vacina contra a gripe voltam ao médico doentes dizendo que a vacina “não pegou”. Isso pode estar relacionado ao fato de o sono deles não estar bem consolidado. Um trabalho de 2003 na Alemanha acompanhou jovens que tomaram a vacina contra a hepatite e não dormiram na noite seguinte. Eles simplesmente não apresentaram anticorpos para a doença. Em uma segunda fase do mesmo estudo, outros jovens foram privados de sono antes de receber a vacina e eles também não formaram anticorpos.
Fonte:http://www.agencia.fapesp.br/materia/12741/menos-sono-menos-sexo.htm
Por Fabio Reynol
Agência FAPESP – Disfunção erétil, obesidade, diabetes, estresse e maior suscetibilidade para contrair doenças são alguns dos problemas que podem ser causados por distúrbios de sono. Estima-se que um terço da população da cidade de São Paulo tenha algum problema para dormir adequadamente.
Estudar os efeitos da privação de sono tem sido, desde 1995, o foco da pesquisa de Monica Andersen, professora do Departamento de Psicobiologia da Universidade Federal de São Paulo (Unifesp). Ela coordena um trabalho de investigação dos efeitos da privação e da restrição de sono na função reprodutiva de ratos machos, que conta com o apoio FAPESP por meio da modalidade Auxílio à Pesquisa – Regular.
Integrante do Centro de Estudos do Sono/Instituto do Sono, um dos Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP, Monica apresentou resultados de seu trabalho com animais durante a 25ª Reunião da Federação de Sociedades de Biologia Experimental (FeSBE), realizada de 25 a 28 de agosto na cidade paulista de Águas de Lindoia.
Na ocasião, ela concedeu à Agência FAPESP a entrevista a seguir, na qual resume resultados do laboratório que coordena e de outras pesquisas voltadas aos problemas do sono.
Agência FAPESP – De quantas horas de sono precisamos?
Monica Andersen – Não há uma resposta única. A média são oito horas diárias, mas uma pessoa pode ficar bem com quatro horas, enquanto outra precisará de dez. Chamamos os extremos de “pequenos dormidores” e “grandes dormidores”. Agora, se me perguntar de quantas horas você precisa, temos que ver primeiro como você acorda.
Agência FAPESP – Pela manhã, quais são os sinais de uma noite bem dormida?
Monica Andersen – Quem acorda abrindo a janela, de bom humor, dormiu a quantidade de que precisava. Quem acorda já cansado, com a sensação de que um caminhão passou por cima, ainda que tenha ficado na cama mais de nove horas, não teve um sono suficiente ou reparador.
Agência FAPESP – A quantidade de sono por noite pode ser modificada ao longo do tempo?
Monica Andersen – Sim, essa mudança ocorre ao longo da vida. Ao nascer, costumamos dormir 16 horas por dia. No fim da vida, precisamos de poucas horas. O problema é que a sociedade está forçando essa redução, tentando se adaptar à falta de sono.
Agência FAPESP – Estamos dormindo menos do que as gerações anteriores?
Monica Andersen – Nossa sociedade é cronicamente privada de sono. Há uma denominação nos Estados Unidos que é sintomática, da “sociedade 24 por 7”, isto é, que funciona 24 horas por dia, sete dias por semana. Que não para jamais. E isso traduz muito bem o que vivemos atualmente. Nós queremos a sociedade 24 por 7, principalmente nas grandes cidades. Nós participamos dessa autoprivação de sono. Queremos fazer mais um curso, terminar mais um trabalho e tudo o mais que conseguirmos encaixar em nosso dia e quem paga por tudo isso é o sono. Por que simplesmente não vamos dormir e deixamos as tarefas para o dia seguinte? Isso é cada vez mais impensável.
Agência FAPESP – Que problemas essa privação pode causar?
Monica Andersen – Um deles é o acúmulo de gordura em nosso corpo. A privação de sono aumenta o apetite por comidas calóricas, estimula o hormônio da fome (grelina) e reduz o hormônio da saciedade (leptina). Pouco sono também afeta o desempenho no trabalho ou estudo e provoca pequenos deslizes que afetam nosso rendimento. Há algumas profissões em que deslizes são particularmente perigosos, como aquelas ligadas à segurança ou à saúde pública.
Agência FAPESP – Não é paradoxal que justamente as profissões que envolvem grande responsabilidade e não podem ter tais deslizes sejam justamente aquelas que têm jornadas extenuantes, como médicos, policiais, pilotos de avião ou caminhoneiros?
Monica Andersen – De fato. Uma das consequências mais sérias da falta de sono atualmente é o aumento no número de acidentes. Em fevereiro de 2009, por exemplo, na cidade de Buffalo, nos Estados Unidos, a queda de um avião em uma área residencial matou 50 pessoas. A investigação concluiu que a causa mais provável do acidente foi a fadiga dos pilotos e os registros da jornada de trabalho realmente mostraram que eles haviam trabalhado horas excessivas. Também nos Estados Unidos, houve outro caso em que um avião simplesmente passou do aeroporto de destino e isso só foi notado uma hora depois. A causa do erro foi que os dois pilotos haviam dormido. Na medicina é a mesma coisa, há estudos mostrando que, no fim de um plantão, o número de erros médicos é bem maior.
Agência FAPESP – Essa situação tem piorado?
Monica Andersen – Isso está piorando porque a nossa sociedade está piorando. Muitos jovens, por exemplo, costumam inverter o ciclo circadiano [período sobre o qual se baseia o ciclo biológico do corpo, influenciado pela luz solar]. Eles vão para uma balada da 1 às 6 horas da manhã de sexta para sábado. Na noite seguinte, há uma balada ainda maior, até às 7 ou 8 horas do domingo. Ao voltar para casa, tomam café e vão dormir, para acordar no meio da tarde. De noite, eles não conseguem dormir e, na segunda-feira, começam uma nova semana às seis da manhã, para ir à escola ou ao trabalho. Eles iniciam a semana já privados de sono.
Agência FAPESP – Que consequências essa rotina pode trazer?
Monica Andersen – Tenho muita preocupação com os jovens de hoje. É uma faixa etária que terá dificuldade de aprendizagem, porque o sono é fundamental ao aprendizado e à memória. Muitos acabam dormindo na escola ou nas universidades, em plena sala de aula. Esse é um problema muito importante.
Agência FAPESP – É um problema que atinge outras faixas etárias?
Monica Andersen – Infelizmente, sim. Acima dos 30 anos está a faixa que chega em casa pensando em relaxar mas que resolve ligar o computador “só para checar os e-mails”. Só que acaba se envolvendo em outras atividades on-line e ficando bastante tempo conectado. Muitos trabalham o dia inteiro em frente a um computador e passam as madrugadas em frente a outro, em casa, jogando ou batendo papo. Tem também a televisão, que antigamente tinha poucos canais e uma programação que terminava na madrugada. Hoje, são dezenas de canais, que funcionam sem parar.
Agência FAPESP – Quais são os principais distúrbios de sono que essas rotinas causam?
Monica Andersen – Temos visto muita insônia em mulheres. Em São Paulo, cerca de um terço delas tem problemas para dormir adequadamente. Mas os homens também sofrem de insônia. E 32,9% da cidade de São Paulo tem a síndrome da apneia do sono, que pode levar à sonolência excessiva diurna.
Agência FAPESP – O que caracteriza a apneia do sono?
Monica Andersen – São paradas respiratórias durante o sono. Essas paradas podem ocorrer até 80 vezes por hora, ou mais de uma vez por minuto. Com isso, o coração tem que bater muito mais forte para levar o oxigênio para o cérebro. Imagine a pressão arterial dessa pessoa, uma vez que isso ocorre todas as noites. A apneia do sono é mais prevalente em homens e, entre seus principais fatores de risco, está a obesidade.
Agência FAPESP – A quantidade de sono também afeta a reprodução e o desempenho sexual?
Monica Andersen – Essa é a minha principal linha de pesquisa. O que observamos até agora em ratos é que uma privação de sono pontual provoca uma excitação sexual nos machos. Isso ocorre na privação de sono REM [sigla em inglês para “movimentos oculares rápidos”], quando ocorrem os sonhos. No entanto, apesar de apresentarem desejo, pois os ratos chegam a montar a fêmea, eles não conseguem fazer a penetração. Em outras palavras, eles têm desejo, mas não têm a função erétil adequada.
Agência FAPESP – Isso pode ser extrapolado para seres humanos?
Monica Andersen – Em 2007, fizemos o Episono, um grande levantamento epidemiológico no qual foram analisados 1.042 voluntários refletindo uma amostra representativa da população da cidade de São Paulo. Foi nesse estudo que levantamos que cerca de um terço dos moradores da capital paulista sofre de apneia do sono. Não estamos falando de gente que acha que tem a doença, são pessoas que foram diagnosticadas em laboratório de sono por médicos especialistas em sono com a síndrome. É um número enorme. Isso explica por que existem mais de 400 laboratórios de sono espalhados pelo Brasil e por que todos ficam lotados.
Agência FAPESP – O estudo encontrou problemas sexuais nas pessoas com a síndrome da apneia do sono?
Monica Andersen – O questionário respondido durante o Episono revelou que 17% dos homens da cidade de São Paulo se queixaram de disfunção erétil. Na faixa etária entre 20 e 29 anos, 7% dos homens disseram ter o problema. Acima de 60 anos, a reclamação de disfunção erétil subiu para 60%. O levantamento mostrou que quem tinha menos sono REM tinha maior probabilidade de ter queixas de disfunção erétil. E os homens que acordavam muito durante a noite eram os que mais reclamavam do problema.
Agência FAPESP – E quanto aos que dormiam bem?
Monica Andersen – Normalmente, os homens com bom padrão de sono não apresentaram queixa. Uma das conclusões é que quem dorme mal tem risco três vezes maior de apresentar disfunção erétil. Uma das causas é que a privação de sono reduz a testosterona, o hormônio sexual masculino. Praticar atividades físicas regularmente também se mostrou um fator protetor contra a disfunção erétil. Ou seja, para ter uma vida sexual normal é fundamental ter boas noites de sono e praticar atividade física.
Agência FAPESP – Em mulheres essa relação também é encontrada?
Monica Andersen – Fizemos testes de privação de sono com ratas e observamos que, quando elas são privadas de sono REM em fases nas quais estão receptivas para o sexo, o desejo sexual aumenta muito. Por outro lado, quando a privação de sono REM foi imposta em fases nas quais a fêmea não estava disposta ao acasalamento, equivalentes à tensão pré-menstrual da mulher, a rejeição ao macho aumentou bastante. Registramos ratas agredindo os machos para evitar a relação. Mas não dá para extrapolar para as mulheres comportamentos como esse, porque, além do ciclo menstrual, a mulher também recebe influências de uma série de alterações psicológicas. Nessa linha, estou fazendo uma pesquisa com a ginecologista Helena Hachul, também da Unifesp, para averiguar se a privação de sono pode afetar a reprodução nas mulheres. Para isso, estamos investigando a relação entre qualidade de sono e gestação.
Agência FAPESP – A falta de sono pode acelerar o envelhecimento?
Monica Andersen – Esse foi o resultado de uma pesquisa feita por Eve Van Cauter, da Universidade de Chicago, uma das maiores especialistas em sono no mundo. Ela mostrou que a privação de sono em uma idade jovem simula um quadro de envelhecimento precoce. Seria como se essas pessoas de repente tivessem 60 anos. Há indícios de que a falta de sono pode provocar estresse oxidativo, alterações cardiovasculares, maior risco ao diabetes e outros problemas que veríamos em uma pessoa mais velha. Conheço uma mulher jovem, de 23 anos, que dorme muito pouco e tem um colesterol altíssimo, por volta de 300. Essa foi inclusive parte de um trabalho meu, de 2004, que mostrou, em ratos, que a privação de sono provoca o aumento do colesterol ruim, o LDL.
Agência FAPESP – Qual é o papel do sono no sistema imunológico?
Monica Andersen – Há exemplos muito interessantes em relação a isso. Muitos idosos que tomam a vacina contra a gripe voltam ao médico doentes dizendo que a vacina “não pegou”. Isso pode estar relacionado ao fato de o sono deles não estar bem consolidado. Um trabalho de 2003 na Alemanha acompanhou jovens que tomaram a vacina contra a hepatite e não dormiram na noite seguinte. Eles simplesmente não apresentaram anticorpos para a doença. Em uma segunda fase do mesmo estudo, outros jovens foram privados de sono antes de receber a vacina e eles também não formaram anticorpos.
Fonte:http://www.agencia.fapesp.br/materia/12741/menos-sono-menos-sexo.htm
O nascimento das superbactérias
JC e-mail 4091, de 08 de Setembro de 2010.
Cientistas descobrem que, ao contrário do que se imaginava, esses micro-organismos unicelulares ganham resistência contra medicamentos não por mutações genéticas, mas por uma espécie de "suicídio altruísta"
Inimigas letais dos seres humanos, as bactérias são de um altruísmo invejável entre si. Levando a sério o termo trabalho em grupo, esses micro-organismos são capazes de se autodestruir em prol da sobrevivência de uma colônia.
A descoberta, feita por pesquisadores do Howard Hughes Medical Institute (HHMI), na Inglaterra, surpreendeu os cientistas e pode ajudar a desenvolver novas drogas que combatam uma das características mais desafiadoras desses seres unicelulares: a resistência que criam contra os medicamentos.
A pesquisa, que foi publicada pela revista especializada "Nature", mostra que, quando o grupo está ameaçado, as bactérias mais fortes se sacrificam em prol das outras, ao contrário do que se imaginava previamente. Até agora, os cientistas pensavam que a resistência aos antibióticos acontecia quando uma bactéria sofria mutações genéticas, tornando-se indiferente à ação do remédio. Como esses micro-organismos se dividem para criar novos exemplares, achava-se que a superbactéria disseminava a mutação para suas descendentes.
O novo estudo, porém, provou que as bactérias trabalham de uma forma diferente. Quando defrontadas com um ataque violento de antibióticos, a mais resistente Escherichia coli produz - ao custo da própria energia - uma proteína que desencadeia um mecanismo de proteção às vizinhas mais fracas.
Nos últimos anos, o crescimento alarmante das superbugs, como são chamadas as cepas hiper-resistentes, têm despertado a preocupação de hospitais, que temem uma onda de contaminações. Uma das mais temidas é o estafilococo áureo resistente à meticilina (MRSA, sigla em inglês), que provocou um surto de infecções nos Estados Unidos, em 2005, matando 19 mil pessoas.
Para estudar a resistência das bactérias, o pesquisador James J. Collins e seus colegas da Universidade de Boston, nos Estados Unidos, cultivaram um micro-organismo em um biorreator - equipamento que permite controlar o ambiente ao qual os bugs estão expostos.
Ainda acreditando que o que fazia os patógenos se tornarem super-resistentes eram as supostas mutações, eles adicionaram no biorreator doses do antibiótico norfloxacina. A ideia era medir, periodicamente, a concentração inibitória mínima (CIM), método que permite verificar o nível de crescimento de uma colônia. Quanto maior o CIM, mais resistente é o micro-organismo.
"Foi quando ficamos completamente paralisados", conta Collins. Para a surpresa dos cientistas, o CIM de algumas amostras era muito mais baixo do que o da população como um todo. Além disso, a quantidade desses patógenos na colônia era muito pequena - representavam menos de 1% do total.
A equipe, então, analisou as proteínas produzidas pelas bactérias com alto CIM em contato com o antibiótico. Eles descobriram que a triptofanase era abundante. Essa enzima tem como função quebrar o aminoácido tripnofano em pequenos pedaços, sendo que um dos produtos da degradação é o indol, um composto orgânico que fortalece as bactérias vizinhas, à custa de muito gasto energético da superbactéria que o produz.
O indol atua de duas maneiras. Uma delas é estimular as células a expulsar o antibiótico de dentro delas, como se estivessem expelindo um veneno. Como se não bastasse, ele protege as bactérias contra os radicais livres, que levam à oxidação. Há alguns anos, a equipe de Collins já havia descoberto que os antibióticos funcionavam justamente bombardeando as bactérias com radicais livres. "Agora, nós vimos que o indol bloqueia esse efeito", diz.
Todo esse mecanismo custa a energia e a vida da superbactéria. Ao comparar o crescimento dos micro-organismos, os cientistas notaram que a produção do indol "suga as forças" da bactéria generosa. "Ela não cresce tanto quanto podia, porque passa a produzir indol para todas as outras", explica o pesquisador.
De acordo com ele, esse comportamento "altruísta" - que ocorre em diversas espécies do mundo animal, incluindo os humanos - representa um já conhecido paradoxo para os biólogos evolucionistas: se a evolução favorece o mais forte, porque um indivíduo iria sacrificar sua própria força pelo restante do grupo?
Herança
A descoberta de Collin reforça a teoria da seleção de parentesco, formulada na década de 1969 pelo cientista britânico W.D. Hamilton. De acordo com ele, os organismos precisam se comportar de maneira altruísta com aqueles que compartilham seus genes. Mesmo que esse indivíduo "especial" não sobreviva, ele está passando suas características às futuras gerações, que vão desempenhar o papel evolutivo.
No caso da pesquisa de Collins, as bactérias estudadas pertenciam a uma mesma colônia. Então, ao produzir o indol, os bugs mutantes estavam protegendo sua própria herança genética.
Apesar de as descobertas flutuarem pelo ramo da biologia evolutiva, Collins acredita que as principais implicações do estudo referem-se à saúde pública. De acordo com ele, novas pesquisas sobre antibióticos devem se focar no padrão de produção do indol, de forma a bloquear a habilidade da superbactéria de compartilhar com as outras sua resistência.
"Acredito que nosso trabalho demonstra a necessidade premente de se investir no desenvolvimento de novos medicamentos", diz. "A chance de termos novos e perigosos superbugs emergindo são bastante grandes, e estou preocupado que nosso arsenal de antibióticos não dê conta deles. Ainda temos tempo de oferecer uma resposta, mas, para isso, precisamos nos empenhar para expandir as pesquisas e a fabricação de novas drogas", afirma o cientista.
O antibiótico dos núbios
Dois mil anos antes que Alexandre Fleming descobrisse a penicilina, os núbios, povo que habitou uma região próxima ao Egito, já se protegiam contra bactérias consumindo, regularmente, a tetraciclina, substância utilizada no tratamento de infecções. Porém, em vez de tomá-la em forma de pílulas ou injeções, tinham um modo bem mais palatável de se proteger: bebendo cerveja.
Uma análise química de ossos de antigos núbios mostrou que eles já dominavam a arte de fabricar antibióticos. A descoberta foi descrita no "Jornal Americano de Antropologia Física" e é fruto de uma pesquisa feita pelo bioarqueólogo e especialista em dietas ancestrais e pré-históricas George Armelagos, ao lado do químico Mark Nelson.
Na década de 1980, Armelagos descobriu traços de tetraciclina em ossos de núbios datados entre 350 a.C. e 550 a.C. Uma das dificuldades em estudar o antigo Reino da Núbia, onde se localiza hoje o atual Sudão, é que essa civilização não deixou registros históricos escritos.
Mais tarde, Armelagos conseguiu desvendar como o antibiótico aparecia na cerveja dos núbios. O grão usado por eles para fermentar a cevada era contaminado pela bactéria Streptomyces scabies, micro-organismo que costuma atacar plantas. Ao ser fermentada, a cevada produz a tetraciclina. O que eles ainda não haviam descoberto era se apenas alguns lotes da antiga cerveja núbia continham a substância antibiótica, o que poderia indicar uma contaminação acidental.
Especialista em tetraciclina e outros antibióticos, Mark Nelson se interessou pela pesquisa depois de ouvir uma palestra de Armelagos. "Pedi que ele me mandasse alguns ossos mumificados, porque eu tinha as ferramentas e a técnica para extrair deles a tetraciclina", contou ao Correio. "É um processo repugnante e perigoso. Tive de dissolver os ossos no fluoreto de hidrogênio, o mais perigoso ácido do planeta."
Saturação
O resultado valeu o risco corrido. "Os ossos dos indivíduos dessa população ancestral estavam saturados de tetraciclina, mostrando que eles tomavam a substância por um longo período. Estou convencido de que eles tinham o conhecimento científico de que a fermentação produzia o antibiótico e o fabricavam propositadamente", afirma.
No estudo, Armelagos lembra: "Temos a tendência de associar drogas que curam doenças à medicina moderna. Mas está ficando cada vez mais claro que a população pré-histórica usava provas empíricas para desenvolver agentes terapêuticos. Não tenho dúvidas de que os núbios sabiam o que estavam fazendo".
A tetraciclina foi encontrada até mesmo na tíbia de um garoto de 4 anos, sugerindo que os núbios prescreviam grandes doses da substância para as crianças, na tentativa de curá-los de doenças.
A confirmação química de que a tetraciclina estava mesmo presente em ossos ancestrais não põe fim ao projeto de pesquisa de Armelagos. Ele continua entusiasmado, depois de mais de três décadas investigando o assunto. "Isso abre uma nova área de pesquisa. Agora, vamos comparar a quantidade de tetraciclina nos ossos e a formação dos ossos com o passar dos tempos, para determinar a dosagem que os antigos núbios conseguiam obter."
(Paloma Oliveto)
(Correio Braziliense, 8/9)
Fonte:
Cientistas descobrem que, ao contrário do que se imaginava, esses micro-organismos unicelulares ganham resistência contra medicamentos não por mutações genéticas, mas por uma espécie de "suicídio altruísta"
Inimigas letais dos seres humanos, as bactérias são de um altruísmo invejável entre si. Levando a sério o termo trabalho em grupo, esses micro-organismos são capazes de se autodestruir em prol da sobrevivência de uma colônia.
A descoberta, feita por pesquisadores do Howard Hughes Medical Institute (HHMI), na Inglaterra, surpreendeu os cientistas e pode ajudar a desenvolver novas drogas que combatam uma das características mais desafiadoras desses seres unicelulares: a resistência que criam contra os medicamentos.
A pesquisa, que foi publicada pela revista especializada "Nature", mostra que, quando o grupo está ameaçado, as bactérias mais fortes se sacrificam em prol das outras, ao contrário do que se imaginava previamente. Até agora, os cientistas pensavam que a resistência aos antibióticos acontecia quando uma bactéria sofria mutações genéticas, tornando-se indiferente à ação do remédio. Como esses micro-organismos se dividem para criar novos exemplares, achava-se que a superbactéria disseminava a mutação para suas descendentes.
O novo estudo, porém, provou que as bactérias trabalham de uma forma diferente. Quando defrontadas com um ataque violento de antibióticos, a mais resistente Escherichia coli produz - ao custo da própria energia - uma proteína que desencadeia um mecanismo de proteção às vizinhas mais fracas.
Nos últimos anos, o crescimento alarmante das superbugs, como são chamadas as cepas hiper-resistentes, têm despertado a preocupação de hospitais, que temem uma onda de contaminações. Uma das mais temidas é o estafilococo áureo resistente à meticilina (MRSA, sigla em inglês), que provocou um surto de infecções nos Estados Unidos, em 2005, matando 19 mil pessoas.
Para estudar a resistência das bactérias, o pesquisador James J. Collins e seus colegas da Universidade de Boston, nos Estados Unidos, cultivaram um micro-organismo em um biorreator - equipamento que permite controlar o ambiente ao qual os bugs estão expostos.
Ainda acreditando que o que fazia os patógenos se tornarem super-resistentes eram as supostas mutações, eles adicionaram no biorreator doses do antibiótico norfloxacina. A ideia era medir, periodicamente, a concentração inibitória mínima (CIM), método que permite verificar o nível de crescimento de uma colônia. Quanto maior o CIM, mais resistente é o micro-organismo.
"Foi quando ficamos completamente paralisados", conta Collins. Para a surpresa dos cientistas, o CIM de algumas amostras era muito mais baixo do que o da população como um todo. Além disso, a quantidade desses patógenos na colônia era muito pequena - representavam menos de 1% do total.
A equipe, então, analisou as proteínas produzidas pelas bactérias com alto CIM em contato com o antibiótico. Eles descobriram que a triptofanase era abundante. Essa enzima tem como função quebrar o aminoácido tripnofano em pequenos pedaços, sendo que um dos produtos da degradação é o indol, um composto orgânico que fortalece as bactérias vizinhas, à custa de muito gasto energético da superbactéria que o produz.
O indol atua de duas maneiras. Uma delas é estimular as células a expulsar o antibiótico de dentro delas, como se estivessem expelindo um veneno. Como se não bastasse, ele protege as bactérias contra os radicais livres, que levam à oxidação. Há alguns anos, a equipe de Collins já havia descoberto que os antibióticos funcionavam justamente bombardeando as bactérias com radicais livres. "Agora, nós vimos que o indol bloqueia esse efeito", diz.
Todo esse mecanismo custa a energia e a vida da superbactéria. Ao comparar o crescimento dos micro-organismos, os cientistas notaram que a produção do indol "suga as forças" da bactéria generosa. "Ela não cresce tanto quanto podia, porque passa a produzir indol para todas as outras", explica o pesquisador.
De acordo com ele, esse comportamento "altruísta" - que ocorre em diversas espécies do mundo animal, incluindo os humanos - representa um já conhecido paradoxo para os biólogos evolucionistas: se a evolução favorece o mais forte, porque um indivíduo iria sacrificar sua própria força pelo restante do grupo?
Herança
A descoberta de Collin reforça a teoria da seleção de parentesco, formulada na década de 1969 pelo cientista britânico W.D. Hamilton. De acordo com ele, os organismos precisam se comportar de maneira altruísta com aqueles que compartilham seus genes. Mesmo que esse indivíduo "especial" não sobreviva, ele está passando suas características às futuras gerações, que vão desempenhar o papel evolutivo.
No caso da pesquisa de Collins, as bactérias estudadas pertenciam a uma mesma colônia. Então, ao produzir o indol, os bugs mutantes estavam protegendo sua própria herança genética.
Apesar de as descobertas flutuarem pelo ramo da biologia evolutiva, Collins acredita que as principais implicações do estudo referem-se à saúde pública. De acordo com ele, novas pesquisas sobre antibióticos devem se focar no padrão de produção do indol, de forma a bloquear a habilidade da superbactéria de compartilhar com as outras sua resistência.
"Acredito que nosso trabalho demonstra a necessidade premente de se investir no desenvolvimento de novos medicamentos", diz. "A chance de termos novos e perigosos superbugs emergindo são bastante grandes, e estou preocupado que nosso arsenal de antibióticos não dê conta deles. Ainda temos tempo de oferecer uma resposta, mas, para isso, precisamos nos empenhar para expandir as pesquisas e a fabricação de novas drogas", afirma o cientista.
O antibiótico dos núbios
Dois mil anos antes que Alexandre Fleming descobrisse a penicilina, os núbios, povo que habitou uma região próxima ao Egito, já se protegiam contra bactérias consumindo, regularmente, a tetraciclina, substância utilizada no tratamento de infecções. Porém, em vez de tomá-la em forma de pílulas ou injeções, tinham um modo bem mais palatável de se proteger: bebendo cerveja.
Uma análise química de ossos de antigos núbios mostrou que eles já dominavam a arte de fabricar antibióticos. A descoberta foi descrita no "Jornal Americano de Antropologia Física" e é fruto de uma pesquisa feita pelo bioarqueólogo e especialista em dietas ancestrais e pré-históricas George Armelagos, ao lado do químico Mark Nelson.
Na década de 1980, Armelagos descobriu traços de tetraciclina em ossos de núbios datados entre 350 a.C. e 550 a.C. Uma das dificuldades em estudar o antigo Reino da Núbia, onde se localiza hoje o atual Sudão, é que essa civilização não deixou registros históricos escritos.
Mais tarde, Armelagos conseguiu desvendar como o antibiótico aparecia na cerveja dos núbios. O grão usado por eles para fermentar a cevada era contaminado pela bactéria Streptomyces scabies, micro-organismo que costuma atacar plantas. Ao ser fermentada, a cevada produz a tetraciclina. O que eles ainda não haviam descoberto era se apenas alguns lotes da antiga cerveja núbia continham a substância antibiótica, o que poderia indicar uma contaminação acidental.
Especialista em tetraciclina e outros antibióticos, Mark Nelson se interessou pela pesquisa depois de ouvir uma palestra de Armelagos. "Pedi que ele me mandasse alguns ossos mumificados, porque eu tinha as ferramentas e a técnica para extrair deles a tetraciclina", contou ao Correio. "É um processo repugnante e perigoso. Tive de dissolver os ossos no fluoreto de hidrogênio, o mais perigoso ácido do planeta."
Saturação
O resultado valeu o risco corrido. "Os ossos dos indivíduos dessa população ancestral estavam saturados de tetraciclina, mostrando que eles tomavam a substância por um longo período. Estou convencido de que eles tinham o conhecimento científico de que a fermentação produzia o antibiótico e o fabricavam propositadamente", afirma.
No estudo, Armelagos lembra: "Temos a tendência de associar drogas que curam doenças à medicina moderna. Mas está ficando cada vez mais claro que a população pré-histórica usava provas empíricas para desenvolver agentes terapêuticos. Não tenho dúvidas de que os núbios sabiam o que estavam fazendo".
A tetraciclina foi encontrada até mesmo na tíbia de um garoto de 4 anos, sugerindo que os núbios prescreviam grandes doses da substância para as crianças, na tentativa de curá-los de doenças.
A confirmação química de que a tetraciclina estava mesmo presente em ossos ancestrais não põe fim ao projeto de pesquisa de Armelagos. Ele continua entusiasmado, depois de mais de três décadas investigando o assunto. "Isso abre uma nova área de pesquisa. Agora, vamos comparar a quantidade de tetraciclina nos ossos e a formação dos ossos com o passar dos tempos, para determinar a dosagem que os antigos núbios conseguiam obter."
(Paloma Oliveto)
(Correio Braziliense, 8/9)
Fonte:
Artigo científico faz propaganda de droga
JC e-mail 4091, de 08 de Setembro de 2010.
Firma usava especialistas como "laranjas", assinando estudos que não fizeram, para mostrar eficácia de remédio. Empresa farmacêutica sofre ação judicial nos EUA
A indústria farmacêutica está novamente no centro de um escândalo. Documentos confidenciais da gigante Wyeth - hoje incorporada à Pfizer - mostram que a companhia sistematicamente plantava artigos favoráveis a seus medicamentos em periódicos científicos.
O caso mais emblemático é o do remédio Prempro, usado para reposição hormonal em mulheres na menopausa. Nos EUA, o produto gerou uma ação pública, movida por 14 mil pessoas, que acusam a droga de aumentar o risco de câncer de mama.
Para garantir opiniões positivas sobre a substância, a Wyeth pagava para empresas especializadas produzirem textos que ressaltassem suas qualidades - algumas não comprovadas - e escondessem efeitos colaterais, como casos de câncer.
O material pronto era oferecido a pesquisadores "de verdade", que assinavam como autores do trabalho. Essas "pesquisas" eram submetidas a diversos periódicos científicos, que publicavam o material como se fosse independente. Alguns acabaram em veículos renomados, como a "Archives of Internal Medicine".
A mecânica completa do esquema é apresentada pela médica americana Adriane Fugh-Bergman, da Universidade Georgetown, na revista "PLoS Medicine".
Fugh-Bergman se debruçou sobre 1.500 documentos confidencias da Wyeth - liberados sob ordem judicial para a revista. A papelada contém rascunhos de artigos, troca de e-mails e até a contabilidade do esquema.
Em um dos e-mails, uma funcionária da DesignWrite - principal empresa contratada pela Wyeth - descreve o trabalho a um pesquisador.
"A beleza deste processo é que nós nos tornamos o seu pós-doutorando! Nós fornecemos um rascunho geral, ao qual você sugere mudanças e revisa. Nós então desenvolvemos um rascunho com os contornos gerais. Você tem todo o controle editorial sobre o trabalho, mas nós lhe forneceremos materiais para crítica e revisão."
Segundo Fugh-Bergman, a realidade era bem diferente: eles só podiam fazer mudanças simples e que não descaracterizassem as mensagens de marketing pretendidas pela farmacêutica.
Imoral, e daí?
Usar "escritores fantasmas" não é ilegal, embora seja considerado antiético. As empresas aproveitam uma brecha na regulamentação nos EUA. A FDA (agência responsável pela liberação de remédios) não considera artigos científicos como marketing. Ou seja: o que acontece nesse espaço não faz parte da sua área de atuação.
De acordo com o artigo, não existem evidências de que os autores foram pagos para assinar os trabalhos.
Pfizer contesta credibilidade das críticas do artigo
A Pfizer, que comprou a Wyeth em janeiro de 2009, desqualificou as críticas de Adriane Fugh-Berman. "O artigo ignora completamente - e convenientemente - o fato de que os manuscritos publicados estão sujeitos a uma rigorosa revisão por pares feita por especialistas externos (...) e que a sua integridade e rigor científico já foram reconhecidos em vários julgamentos", disse a empresa em nota.
A Pfizer afirmou que tem uma rígida "política de transparência" científica. De acordo com a empresa, as pesquisas em que a companhia está envolvida sempre mencionam todas as contribuições e coautorias presentes no processo.
A farmacêutica afirmou que empresas especializadas em escrever textos médicos "apenas auxiliam os autores a fazerem os rascunhos" e os cientistas têm "total controle sobre os trabalhos".
(Giuliana Miranda e Sabine Righetti)
(Folha de SP, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73332
Firma usava especialistas como "laranjas", assinando estudos que não fizeram, para mostrar eficácia de remédio. Empresa farmacêutica sofre ação judicial nos EUA
A indústria farmacêutica está novamente no centro de um escândalo. Documentos confidenciais da gigante Wyeth - hoje incorporada à Pfizer - mostram que a companhia sistematicamente plantava artigos favoráveis a seus medicamentos em periódicos científicos.
O caso mais emblemático é o do remédio Prempro, usado para reposição hormonal em mulheres na menopausa. Nos EUA, o produto gerou uma ação pública, movida por 14 mil pessoas, que acusam a droga de aumentar o risco de câncer de mama.
Para garantir opiniões positivas sobre a substância, a Wyeth pagava para empresas especializadas produzirem textos que ressaltassem suas qualidades - algumas não comprovadas - e escondessem efeitos colaterais, como casos de câncer.
O material pronto era oferecido a pesquisadores "de verdade", que assinavam como autores do trabalho. Essas "pesquisas" eram submetidas a diversos periódicos científicos, que publicavam o material como se fosse independente. Alguns acabaram em veículos renomados, como a "Archives of Internal Medicine".
A mecânica completa do esquema é apresentada pela médica americana Adriane Fugh-Bergman, da Universidade Georgetown, na revista "PLoS Medicine".
Fugh-Bergman se debruçou sobre 1.500 documentos confidencias da Wyeth - liberados sob ordem judicial para a revista. A papelada contém rascunhos de artigos, troca de e-mails e até a contabilidade do esquema.
Em um dos e-mails, uma funcionária da DesignWrite - principal empresa contratada pela Wyeth - descreve o trabalho a um pesquisador.
"A beleza deste processo é que nós nos tornamos o seu pós-doutorando! Nós fornecemos um rascunho geral, ao qual você sugere mudanças e revisa. Nós então desenvolvemos um rascunho com os contornos gerais. Você tem todo o controle editorial sobre o trabalho, mas nós lhe forneceremos materiais para crítica e revisão."
Segundo Fugh-Bergman, a realidade era bem diferente: eles só podiam fazer mudanças simples e que não descaracterizassem as mensagens de marketing pretendidas pela farmacêutica.
Imoral, e daí?
Usar "escritores fantasmas" não é ilegal, embora seja considerado antiético. As empresas aproveitam uma brecha na regulamentação nos EUA. A FDA (agência responsável pela liberação de remédios) não considera artigos científicos como marketing. Ou seja: o que acontece nesse espaço não faz parte da sua área de atuação.
De acordo com o artigo, não existem evidências de que os autores foram pagos para assinar os trabalhos.
Pfizer contesta credibilidade das críticas do artigo
A Pfizer, que comprou a Wyeth em janeiro de 2009, desqualificou as críticas de Adriane Fugh-Berman. "O artigo ignora completamente - e convenientemente - o fato de que os manuscritos publicados estão sujeitos a uma rigorosa revisão por pares feita por especialistas externos (...) e que a sua integridade e rigor científico já foram reconhecidos em vários julgamentos", disse a empresa em nota.
A Pfizer afirmou que tem uma rígida "política de transparência" científica. De acordo com a empresa, as pesquisas em que a companhia está envolvida sempre mencionam todas as contribuições e coautorias presentes no processo.
A farmacêutica afirmou que empresas especializadas em escrever textos médicos "apenas auxiliam os autores a fazerem os rascunhos" e os cientistas têm "total controle sobre os trabalhos".
(Giuliana Miranda e Sabine Righetti)
(Folha de SP, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73332
Padrão de chuvas é alterado por aquecimento
C e-mail 4091, de 08 de Setembro de 2010.
Pesquisa alerta que é preciso diversificar as fontes de água para evitar o aumento da fome
A precipitação de chuvas, cada vez mais imprevisível devido às mudanças climáticas, ameaça seriamente a segurança alimentar e o crescimento econômico, segundo especialistas em hidrologia. Num relatório do Instituto Internacional para a Gestão da Água, no Sri Lanka (IWMI, na sigla em inglês), eles defendem um maior investimento em armazenamento de água e afirmam que a Ásia e a África são as regiões mais suscetíveis porque, em grande parte, dependem diretamente da chuva para a agricultura.
Os políticos e agricultores precisam encontrar urgentemente formas de diversificar as fontes de água, alertam os autores da pesquisa para o IWMI. E eles estimam que até 499 milhões de pessoas na África e na Índia poderiam se beneficiar de uma melhor gestão da água na agricultura.
O relatório adverte contra a excessiva dependência de soluções únicas, tais como grandes barragens. Segundo os autores, a construção de grandes represas sugere um alívio rápido, mas não garante totalmente a sustentabilidade a longo prazo. Apesar de sua capacidade para controlar inundações e melhorar a produtividade agrícola, essa opção traz problemas sociais e ambientais.
De acordo com o IWMI, as mudanças nos cursos dos rios já levaram 80 milhões de pessoas a se deslocarem de suas cidades e atingem 470 milhões que vivem perto de represas.
- Assim como os consumidores modernos diversificam suas fontes de renda para reduzir riscos, os pequenos agricultores precisam de uma ampla gama de reservas de água para amortizar os impactos das mudanças climáticas - diz Matthew McCartney, principal autor do relatório. - Quando se esgota uma fonte, pode-se usar as demais.
Período de extremos: secas e inundações
O Painel Intergovernamental sobre Mudanças Climáticas da ONU projetou um período mais extremo de secas, inundações e calor neste século. E o relatório do IWMI diz que apesar de uma grande expansão da irrigação nas últimas décadas na Ásia, 66% da agricultura da região dependem das chuvas. Na África Subsaariana, este índice é ainda maior: 94%. Estas são as áreas onde a infraestrutura de armazenamento de água é menos desenvolvida.
- Milhões de agricultores estão á mercê da disponibilidade de água - diz Colin Chartres, diretor-geral do IWMI. - A mudança climática vai atingir duramente essas pessoas. É preciso fazer logo grandes investimentos em medidas de adaptação.
Na opinião dos autores, uma abordagem integrada combinando grandes e pequenas áreas de armazenamento é a melhor estratégia. Eles sugerem o uso da água de zonas úmidas naturais (pântanos), das águas subterrâneas e coletadas em lagos, tanques e reservatórios.
- Para milhões de agricultores que dependem das chuvas, o acesso seguro à água pode fazer toda a diferença entre a fome crônica e o progresso estável em direção à segurança alimentar - acrescenta McCartney.
Mesmo pequenas quantidades de águas armazenadas, permitindo que culturas e animais sobrevivam a períodos de seca, pode produzir grandes ganhos agrícolas.
Calor agrava os desastres
Um melhor sistema de alerta sobre ciclones e ondas de calor, assim como no índice da pobreza, em nações em desenvolvimento, tornaram esses países mais preparados para enfrentar as condições extremas do tempo, o que colabora para frear o número de mortes. Mas isso não significa o fim do aumento do perigo, diz Diarmid Campbell-Lemdrum, especialista da Organização Mundial de Saúde.
O aumento da temperatura, diz o pesquisador, poderá agravar os efeitos dos desastres naturais e prejudicar a produção de alimentos: - A mudança climática apenas acrescenta outro motivo para controlar a malária, a diarreia e a lidar com o problema da má nutrição. Esses são os grandes desafios.
Para Andrew Haines, diretor da Escola de Medicina Tropical e Higiene em Londres, há hoje um crescimento da taxa de mortalidade por causas indiretas.
(O Globo, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73326
Pesquisa alerta que é preciso diversificar as fontes de água para evitar o aumento da fome
A precipitação de chuvas, cada vez mais imprevisível devido às mudanças climáticas, ameaça seriamente a segurança alimentar e o crescimento econômico, segundo especialistas em hidrologia. Num relatório do Instituto Internacional para a Gestão da Água, no Sri Lanka (IWMI, na sigla em inglês), eles defendem um maior investimento em armazenamento de água e afirmam que a Ásia e a África são as regiões mais suscetíveis porque, em grande parte, dependem diretamente da chuva para a agricultura.
Os políticos e agricultores precisam encontrar urgentemente formas de diversificar as fontes de água, alertam os autores da pesquisa para o IWMI. E eles estimam que até 499 milhões de pessoas na África e na Índia poderiam se beneficiar de uma melhor gestão da água na agricultura.
O relatório adverte contra a excessiva dependência de soluções únicas, tais como grandes barragens. Segundo os autores, a construção de grandes represas sugere um alívio rápido, mas não garante totalmente a sustentabilidade a longo prazo. Apesar de sua capacidade para controlar inundações e melhorar a produtividade agrícola, essa opção traz problemas sociais e ambientais.
De acordo com o IWMI, as mudanças nos cursos dos rios já levaram 80 milhões de pessoas a se deslocarem de suas cidades e atingem 470 milhões que vivem perto de represas.
- Assim como os consumidores modernos diversificam suas fontes de renda para reduzir riscos, os pequenos agricultores precisam de uma ampla gama de reservas de água para amortizar os impactos das mudanças climáticas - diz Matthew McCartney, principal autor do relatório. - Quando se esgota uma fonte, pode-se usar as demais.
Período de extremos: secas e inundações
O Painel Intergovernamental sobre Mudanças Climáticas da ONU projetou um período mais extremo de secas, inundações e calor neste século. E o relatório do IWMI diz que apesar de uma grande expansão da irrigação nas últimas décadas na Ásia, 66% da agricultura da região dependem das chuvas. Na África Subsaariana, este índice é ainda maior: 94%. Estas são as áreas onde a infraestrutura de armazenamento de água é menos desenvolvida.
- Milhões de agricultores estão á mercê da disponibilidade de água - diz Colin Chartres, diretor-geral do IWMI. - A mudança climática vai atingir duramente essas pessoas. É preciso fazer logo grandes investimentos em medidas de adaptação.
Na opinião dos autores, uma abordagem integrada combinando grandes e pequenas áreas de armazenamento é a melhor estratégia. Eles sugerem o uso da água de zonas úmidas naturais (pântanos), das águas subterrâneas e coletadas em lagos, tanques e reservatórios.
- Para milhões de agricultores que dependem das chuvas, o acesso seguro à água pode fazer toda a diferença entre a fome crônica e o progresso estável em direção à segurança alimentar - acrescenta McCartney.
Mesmo pequenas quantidades de águas armazenadas, permitindo que culturas e animais sobrevivam a períodos de seca, pode produzir grandes ganhos agrícolas.
Calor agrava os desastres
Um melhor sistema de alerta sobre ciclones e ondas de calor, assim como no índice da pobreza, em nações em desenvolvimento, tornaram esses países mais preparados para enfrentar as condições extremas do tempo, o que colabora para frear o número de mortes. Mas isso não significa o fim do aumento do perigo, diz Diarmid Campbell-Lemdrum, especialista da Organização Mundial de Saúde.
O aumento da temperatura, diz o pesquisador, poderá agravar os efeitos dos desastres naturais e prejudicar a produção de alimentos: - A mudança climática apenas acrescenta outro motivo para controlar a malária, a diarreia e a lidar com o problema da má nutrição. Esses são os grandes desafios.
Para Andrew Haines, diretor da Escola de Medicina Tropical e Higiene em Londres, há hoje um crescimento da taxa de mortalidade por causas indiretas.
(O Globo, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73326
Para reduzir mensalidade, faculdades superlotam classes e laboratórios
JC e-mail 4091, de 08 de Setembro de 2010.
Instituições particulares adotam modelo de curso de graduação mais barato. Com um número maior de pessoas por sala de aula, é possível diminuir gastos com infraestrutura e professores
O ingresso de estudantes da classe C no ensino superior brasileiro está levando muitas universidades e faculdades particulares a investir num modelo econômico de curso, que associa mensalidades reduzidas com classes muito grandes, formadas em geral por mais de 100 alunos.
A estratégia permite que as instituições fechem as contas no azul, mesmo cobrando mensalidades entre R$ 300 e R$ 500. Com salas maiores, caem os gastos com infraestrutura e, principalmente, o investimento em corpo docente - quanto maiores são as turmas, menos professores são necessários.
O modelo, porém, é polêmico. Alguns alunos aprovam, pela vantagem da mensalidade mais barata. Outros reclamam da bagunça nas aulas, da dificuldade para ouvir os professores, da pouca atenção para cada aluno e da falta de condições apropriadas em laboratórios.
Ao entrar em Educação Física da Universidade Paulista (Unip) no ano passado, Carolina Paiva, de 21 anos, não imaginava que a quantidade de colegas de sala representaria uma barreira ao aprendizado. No laboratório de anatomia, os mais de 100 alunos tinham de se espremer em volta do professor e do único exemplar de corpo.
"As aulas práticas também não eram produtivas. Para tudo era preciso ficar esperando", conta. Segundo a estudante, a situação melhorou este ano porque a alta evasão reduziu a turma quase pela metade.
Aluno do 3º ano de Ciências da Computação na Universidade Nove de Julho (Uninove), Caio Leandro Alves Madeira, de 20 anos, conta que no início do curso, quando sua turma tinha 80 alunos, faltavam até carteiras na sala e as aulas eram muito tumultuadas. "Não é como nos EUA, onde as salas são cheias, mas todo mundo é interessado", diz. Como resultado, muita gente desistiu do curso, sobrando apenas cerca de 30 alunos. "Está bem melhor, mas ainda hoje, nas aulas práticas, ficamos em dois por computador."
Ademir Fonseca, de 40 anos, no último ano de engenharia elétrica da Uninove acredita que sua sala, com 70 alunos, tem um "tamanho bom". Ao menos para aulas expositivas. "O problema mesmo é nos laboratórios. Tem sempre pouco equipamento. Falta até cadeira para todo mundo."
A turma de contabilidade de Agnon Antônio da Silva Junior, na FMU, começou com quase 100 estudantes. "Fica uma bagunça", diz.
A reclamação é a mesma de Fernanda Zanco, de 21 anos, no 3º ano de administração na Fundação Escola de Comércio Álvares Penteado (Fecap). "Com 80 alunos, se o professor faz uma piada, leva dez minutos até acalmar a classe", diz.
Para o consultor em ensino superior Ryon Braga, o problema não está no tamanho das turmas em si, mas em como a instituição de ensino monta seu projeto pedagógico. "Na aula expositiva, não importa se são 50 ou 500. Mas nas universidades são necessários também momentos de interação e discussão. Nisso as classes devem ser divididas. Não dá para ter debate em uma sala com 80", afirma.
Justificativa
Procuradas pela reportagem, a Unip e a Uninove não quiseram se pronunciar sobre o tema e as condições da sala. Para o presidente da Anhanguera Educacional, Antônio Carbonari Netto, o modelo das salas numerosas é necessário e positivo se for adotado com cuidado.
"Claro que precisa ter estrutura para atender a todos. Mas não se pode ter aula teórica para só 30 ou 40 alunos; é desperdiçar um bom professor", explica. "Muitos ainda não mudaram o paradigma, mas se você tem bons professores, ninguém reclama de estar em uma sala grande."
Segundo a FMU, "algumas turmas, pontualmente, estão sendo divididas para atender a um melhor aproveitamento pedagógico e acadêmico". A Fecap informou que o tamanho médio das turmas é de menos de 50 alunos. "Acreditamos que o sentimento não representa a opinião da grande maioria de nosso corpo discente", diz a nota.
Criação de novas salas provocou debate na USP
A criação de novas salas para evitar a superlotação fez parte de uma obra maior que provocou polêmica e um intenso debate na Faculdade de Direito da Universidade de São Paulo (USP) no início do ano. A instituição costumava ter 130 alunos por classe nos primeiros anos do curso.
Uma iniciativa do ex-diretor e atual reitor da universidade, João Grandino Rodas, retirou do prédio principal da faculdade uma das bibliotecas. A intenção era criar salas de aula no local, para dividir as turmas dos primeiros anos.
A reforma em um prédio tombado, e sem consulta prévia aos corpos de professores e estudantes, provocou protestos. Mesmo assim, parte da reestruturação do prédio continuou a ser feita - e as classes dos 1º e 2º ano agora têm, em média, 60 alunos.
Exemplos
No entanto, classes com um número muito grande de estudantes continuam a fazer parte do cotidiano de algumas instituições públicas, estaduais e federais. E, em alguns casos, também são motivo de reclamação dos alunos.
Algumas universidades optam por uma turma grande nos primeiros anos de curso, quando todos os estudantes devem cursar as mesmas disciplinas. É o caso dos cursos da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). As turmas são grandes e acabam sendo reduzidas pela metade apenas nas aulas de laboratório, o que já gerou muitas manifestações.
O mesmo acontece na Universidade Federal de São Paulo (Unifesp). No curso de Medicina, as aulas expositivas dos primeiros anos são ministradas em classes com 120 alunos.
No entanto, na hora de ir ao laboratório ou nas aulas práticas, a turma é dividida uma ou mais vezes, dependendo da necessidade da matéria. De acordo com os estudantes, uma peça no laboratório de anatomia em geral fica a disposição de 10 alunos.
(Luciana Alvarez)
(O Estado de SP, 7/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73318
Instituições particulares adotam modelo de curso de graduação mais barato. Com um número maior de pessoas por sala de aula, é possível diminuir gastos com infraestrutura e professores
O ingresso de estudantes da classe C no ensino superior brasileiro está levando muitas universidades e faculdades particulares a investir num modelo econômico de curso, que associa mensalidades reduzidas com classes muito grandes, formadas em geral por mais de 100 alunos.
A estratégia permite que as instituições fechem as contas no azul, mesmo cobrando mensalidades entre R$ 300 e R$ 500. Com salas maiores, caem os gastos com infraestrutura e, principalmente, o investimento em corpo docente - quanto maiores são as turmas, menos professores são necessários.
O modelo, porém, é polêmico. Alguns alunos aprovam, pela vantagem da mensalidade mais barata. Outros reclamam da bagunça nas aulas, da dificuldade para ouvir os professores, da pouca atenção para cada aluno e da falta de condições apropriadas em laboratórios.
Ao entrar em Educação Física da Universidade Paulista (Unip) no ano passado, Carolina Paiva, de 21 anos, não imaginava que a quantidade de colegas de sala representaria uma barreira ao aprendizado. No laboratório de anatomia, os mais de 100 alunos tinham de se espremer em volta do professor e do único exemplar de corpo.
"As aulas práticas também não eram produtivas. Para tudo era preciso ficar esperando", conta. Segundo a estudante, a situação melhorou este ano porque a alta evasão reduziu a turma quase pela metade.
Aluno do 3º ano de Ciências da Computação na Universidade Nove de Julho (Uninove), Caio Leandro Alves Madeira, de 20 anos, conta que no início do curso, quando sua turma tinha 80 alunos, faltavam até carteiras na sala e as aulas eram muito tumultuadas. "Não é como nos EUA, onde as salas são cheias, mas todo mundo é interessado", diz. Como resultado, muita gente desistiu do curso, sobrando apenas cerca de 30 alunos. "Está bem melhor, mas ainda hoje, nas aulas práticas, ficamos em dois por computador."
Ademir Fonseca, de 40 anos, no último ano de engenharia elétrica da Uninove acredita que sua sala, com 70 alunos, tem um "tamanho bom". Ao menos para aulas expositivas. "O problema mesmo é nos laboratórios. Tem sempre pouco equipamento. Falta até cadeira para todo mundo."
A turma de contabilidade de Agnon Antônio da Silva Junior, na FMU, começou com quase 100 estudantes. "Fica uma bagunça", diz.
A reclamação é a mesma de Fernanda Zanco, de 21 anos, no 3º ano de administração na Fundação Escola de Comércio Álvares Penteado (Fecap). "Com 80 alunos, se o professor faz uma piada, leva dez minutos até acalmar a classe", diz.
Para o consultor em ensino superior Ryon Braga, o problema não está no tamanho das turmas em si, mas em como a instituição de ensino monta seu projeto pedagógico. "Na aula expositiva, não importa se são 50 ou 500. Mas nas universidades são necessários também momentos de interação e discussão. Nisso as classes devem ser divididas. Não dá para ter debate em uma sala com 80", afirma.
Justificativa
Procuradas pela reportagem, a Unip e a Uninove não quiseram se pronunciar sobre o tema e as condições da sala. Para o presidente da Anhanguera Educacional, Antônio Carbonari Netto, o modelo das salas numerosas é necessário e positivo se for adotado com cuidado.
"Claro que precisa ter estrutura para atender a todos. Mas não se pode ter aula teórica para só 30 ou 40 alunos; é desperdiçar um bom professor", explica. "Muitos ainda não mudaram o paradigma, mas se você tem bons professores, ninguém reclama de estar em uma sala grande."
Segundo a FMU, "algumas turmas, pontualmente, estão sendo divididas para atender a um melhor aproveitamento pedagógico e acadêmico". A Fecap informou que o tamanho médio das turmas é de menos de 50 alunos. "Acreditamos que o sentimento não representa a opinião da grande maioria de nosso corpo discente", diz a nota.
Criação de novas salas provocou debate na USP
A criação de novas salas para evitar a superlotação fez parte de uma obra maior que provocou polêmica e um intenso debate na Faculdade de Direito da Universidade de São Paulo (USP) no início do ano. A instituição costumava ter 130 alunos por classe nos primeiros anos do curso.
Uma iniciativa do ex-diretor e atual reitor da universidade, João Grandino Rodas, retirou do prédio principal da faculdade uma das bibliotecas. A intenção era criar salas de aula no local, para dividir as turmas dos primeiros anos.
A reforma em um prédio tombado, e sem consulta prévia aos corpos de professores e estudantes, provocou protestos. Mesmo assim, parte da reestruturação do prédio continuou a ser feita - e as classes dos 1º e 2º ano agora têm, em média, 60 alunos.
Exemplos
No entanto, classes com um número muito grande de estudantes continuam a fazer parte do cotidiano de algumas instituições públicas, estaduais e federais. E, em alguns casos, também são motivo de reclamação dos alunos.
Algumas universidades optam por uma turma grande nos primeiros anos de curso, quando todos os estudantes devem cursar as mesmas disciplinas. É o caso dos cursos da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). As turmas são grandes e acabam sendo reduzidas pela metade apenas nas aulas de laboratório, o que já gerou muitas manifestações.
O mesmo acontece na Universidade Federal de São Paulo (Unifesp). No curso de Medicina, as aulas expositivas dos primeiros anos são ministradas em classes com 120 alunos.
No entanto, na hora de ir ao laboratório ou nas aulas práticas, a turma é dividida uma ou mais vezes, dependendo da necessidade da matéria. De acordo com os estudantes, uma peça no laboratório de anatomia em geral fica a disposição de 10 alunos.
(Luciana Alvarez)
(O Estado de SP, 7/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73318
Educação no Brasil abaixo da média
JC e-mail 4091, de 08 de Setembro de 2010.
Estudo da OCDE mostra desemprego maior para quem cursou ensino médio
Os indicadores de educação do Brasil ainda estão muito abaixo da média registrada pelos países desenvolvidos, o que prejudica o mercado de trabalho brasileiro, como mostrou estudo divulgado ontem pela Organização para a Cooperação e o Desenvolvimento Econômico (OCDE).
A pesquisa "Olhares sobre Educação 2010" aponta que mais da metade (51%) da população brasileira entre 25 e 64 anos ainda não tinha completado o ensino médio em 2008, enquanto na média dos 31 países ricos da OCDE a taxa é de 29%.
Além disso, a taxa de desemprego no Brasil é menor entre os adultos que não completaram o ensino médio que entre aqueles que já completaram este nível de ensino.
Em entrevista à BBC Brasil, o economista Etienne Albiser informou que o índice de desemprego entre os que não concluíram o segundo grau no Brasil é de 4,7%, enquanto a taxa dos que terminaram o curso é de 6,1%.
Os dados vão contra a tendência registrada entre os países desenvolvidos, como aponta o estudo. Em geral, a taxa de desemprego entre aqueles que cursaram o ensino médio é quatro pontos percentuais menor que os que não têm esta formação. E, segundo especialistas, o ensino médio é considerado o preparo mínimo para disputar uma vaga em um competitivo mercado de trabalho.
Segundo Albiser, a diferença no caso brasileiro está ligada à alta taxa de desemprego entre mulheres que concluíram o segundo grau e também à estrutura da economia brasileira, que teria mais necessidade de mão de obra menos qualificada.
Os números citados pela OCDE diferem dos dados mais recentes da Pesquisa Mensal do Emprego (PME) do IBGE. Pela PME, a taxa de desemprego da população com onze anos ou mais de estudo - ou seja, com o ensino médio completo - era de 6,6% em julho.
No caso de quem tem entre oito e dez anos de estudo, a taxa é de 9,3%. O nível chega a 6,1% na população classificada entre sem instrução a oito anos de estudo. A taxa maior nas faixas mais instruídas ocorre porque representam parcela maior na força de trabalho no Brasil, já que quase metade da população ocupada no país tem pelo menos o ensino médio completo.
Organização defende investimento em educação
A boa notícia é que o investimento em educação, em relação ao Produto Interno Bruto (PIB, conjunto dos bens e serviços produzidos no país ao longo de um ano), aumentou de 3,7% no período entre 1994 e 2000 para 5,2% em 2007, segundo a OCDE. A taxa, no entanto, ainda é inferior à média dos países ricos da OCDE, de 6,2%.
O Brasil também passou a dedicar um percentual maior de seu orçamento à educação. O nível subiu de 11,2% em 1995 para 16,1% em 2007.
Com o acirramento da concorrência no mercado de trabalho, a OCDE defende mais investimentos na qualidade de a educação, de maneira a garantir um crescimento econômico a longo prazo.
- Diante de uma recessão mundial que continua a pesar sobre o emprego, a educação constitui um investimento essencial para reagir às evoluções tecnológicas e demográficas que redesenham o mercado de trabalho - afirmou o secretário-geral da OCDE, Angel Gurría, ao lançar o estudo em Paris.
(O Globo, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73317
Estudo da OCDE mostra desemprego maior para quem cursou ensino médio
Os indicadores de educação do Brasil ainda estão muito abaixo da média registrada pelos países desenvolvidos, o que prejudica o mercado de trabalho brasileiro, como mostrou estudo divulgado ontem pela Organização para a Cooperação e o Desenvolvimento Econômico (OCDE).
A pesquisa "Olhares sobre Educação 2010" aponta que mais da metade (51%) da população brasileira entre 25 e 64 anos ainda não tinha completado o ensino médio em 2008, enquanto na média dos 31 países ricos da OCDE a taxa é de 29%.
Além disso, a taxa de desemprego no Brasil é menor entre os adultos que não completaram o ensino médio que entre aqueles que já completaram este nível de ensino.
Em entrevista à BBC Brasil, o economista Etienne Albiser informou que o índice de desemprego entre os que não concluíram o segundo grau no Brasil é de 4,7%, enquanto a taxa dos que terminaram o curso é de 6,1%.
Os dados vão contra a tendência registrada entre os países desenvolvidos, como aponta o estudo. Em geral, a taxa de desemprego entre aqueles que cursaram o ensino médio é quatro pontos percentuais menor que os que não têm esta formação. E, segundo especialistas, o ensino médio é considerado o preparo mínimo para disputar uma vaga em um competitivo mercado de trabalho.
Segundo Albiser, a diferença no caso brasileiro está ligada à alta taxa de desemprego entre mulheres que concluíram o segundo grau e também à estrutura da economia brasileira, que teria mais necessidade de mão de obra menos qualificada.
Os números citados pela OCDE diferem dos dados mais recentes da Pesquisa Mensal do Emprego (PME) do IBGE. Pela PME, a taxa de desemprego da população com onze anos ou mais de estudo - ou seja, com o ensino médio completo - era de 6,6% em julho.
No caso de quem tem entre oito e dez anos de estudo, a taxa é de 9,3%. O nível chega a 6,1% na população classificada entre sem instrução a oito anos de estudo. A taxa maior nas faixas mais instruídas ocorre porque representam parcela maior na força de trabalho no Brasil, já que quase metade da população ocupada no país tem pelo menos o ensino médio completo.
Organização defende investimento em educação
A boa notícia é que o investimento em educação, em relação ao Produto Interno Bruto (PIB, conjunto dos bens e serviços produzidos no país ao longo de um ano), aumentou de 3,7% no período entre 1994 e 2000 para 5,2% em 2007, segundo a OCDE. A taxa, no entanto, ainda é inferior à média dos países ricos da OCDE, de 6,2%.
O Brasil também passou a dedicar um percentual maior de seu orçamento à educação. O nível subiu de 11,2% em 1995 para 16,1% em 2007.
Com o acirramento da concorrência no mercado de trabalho, a OCDE defende mais investimentos na qualidade de a educação, de maneira a garantir um crescimento econômico a longo prazo.
- Diante de uma recessão mundial que continua a pesar sobre o emprego, a educação constitui um investimento essencial para reagir às evoluções tecnológicas e demográficas que redesenham o mercado de trabalho - afirmou o secretário-geral da OCDE, Angel Gurría, ao lançar o estudo em Paris.
(O Globo, 8/9)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=73317
quarta-feira, 8 de setembro de 2010
Técnica brasileira evita emissão de mercúrio no meio ambiente
Planeta Coppe Notícias - 06/09/2010
O processo inovador já gerou dois pedidos de patente e promete reduzir o impacto ambiental da contaminação do mercúrio no ar, na água e no solo. [Imagem: Cisi/Coppe]
Pesquisadores da Coppe/UFRJ, no Rio de Janeiro, desenvolveram um sistema eficiente para remover mercúrio de efluentes líquidos e do petróleo.
O processo inovador já gerou dois pedidos de patente e promete reduzir o impacto ambiental da contaminação do mercúrio no ar, na água e no solo.
O sistema capta o mercúrio sem gerar resíduo tóxico, evitando o passivo ambiental produzido nos métodos tradicionais utilizados para esse fim.
Coordenado pelos pesquisadores Vera Salim e Neuman S. de Resende, do Programa de Engenharia Química da Coppe, o projeto conta com o apoio da Petrobras.
Emissões de mercúrio no ambiente
As atividades industriais e a queima de combustíveis fósseis são responsáveis pela emissão de altas taxas de mercúrio no meio ambiente.
Segundo mapeamento do Programa de Meio Ambiente das Nações Unidas (UNEP na sigla em inglês), estima-se um aumento de 1480 toneladas emitidas em 2005 para 1850 toneladas em 2020 nos níveis mundiais de mercúrio, atingindo regiões até então pouco afetadas como alguns países da América do Sul, entre eles o Brasil.
Os pesquisadores advertem que, se nada for feito, até 2050 serão lançadas na atmosfera cerca de 8 mil toneladas de mercúrio, com acumulação de 2 a 3 mil toneladas no meio ambiente.
Entre os países com índices mais altos de mercúrio no mundo estão China, Índia e Estados Unidos. O Brasil aparece em sétimo lugar.
No encontro promovido pelo Programa de Meio Ambiente das Nações Unidas, em junho deste ano, na Suécia, os pesquisadores discutiram a necessidade de elaborar uma legislação para o controle dos níveis de mercúrio no mundo. "Apesar de verificarmos um crescimento expressivo dos níveis do metal no Brasil e no mundo, há carência de dados precisos para melhor avaliarmos seus efeitos", afirma Vera.
Remoção do mercúrio
No sistema concebido pelos pesquisadores do Laboratório de Fenômenos Interfaciais da Coppe, o mercúrio passa por uma coluna com adsorvente, um sólido à base de fosfato, que capta o mercúrio sem gerar resíduo.
A grande vantagem em relação aos métodos convencionais é que esse sistema possibilita a fixação do mercúrio na sua estrutura, evitando a recontaminação e os eventuais procedimentos de gerenciamento do material tóxico produzido.
Pelo método tradicional, ao regenerar o adsorvente o mercúrio é volatilizado e condensado, transformando-se no final do processo em mercúrio líquido, que é removido e estocado.
"Não temos dados sobre a quantidade e a forma como esse metal é armazenado. O risco de gerar um passivo ambiental é grande e os dados não são divulgados de forma transparente, o que dificulta uma avaliação precisa do índice de emissão e do risco de contaminação desse material no meio ambiente", afirma Vera Salim.
Há cerca de oito anos a Coppe desenvolve pesquisa em processos de descontaminação de mercúrio. O processamento de petróleo, por exemplo, gera inevitavelmente resíduos tóxicos e a emissão do mercúrio na atmosfera.
Outra preocupação é o mercúrio acumulado, que é reintroduzido no meio ambiente, constituindo uma ampla cadeia de contaminação: o mercúrio é transportado pelas chuvas, levado a regiões estuárias, podendo acumular-se nos sedimentos ou no ar, por meio de fotossíntese.
Mercúrio no meio ambiente
O mercúrio está presente no meio ambiente em três formas distintas: metálico, orgânico e inorgânico.
"O mercúrio orgânico é o mais letal e pode estar presente, por exemplo, em peixes contaminados. Um rio afetado contamina peixes que, ingeridos, contaminam pessoas. As correntes atmosféricas e a migração dos pássaros também são capazes de levar o mercúrio a longas distâncias. Por essa razão, medidas regionais não são suficientes para conter a contaminação. Precisamos de decisões de alcance global, pois o mercúrio tem grande capacidade de disseminação, com transporte de longo alcance", alerta Vera.
O mercúrio também está presente no dia-a-dia de todos, em produtos como amálgamas dentárias e lâmpadas fluorescentes que podem contaminar o meio ambiente após o seu descarte.
"É preciso ter consciência ambiental e regras para efetuar o descarte desse material. Precisamos estabelecer normas capazes de conter a disseminação do mercúrio e cumpri-las", adverte Vera Salim.
As erupções vulcânicas também são responsáveis por emissões. Segundo a professora da Coppe, ainda é difícil medir o impacto desse fenômeno. "Não sabemos, por exemplo, quais são as consequências da erupção do vulcão na Islândia, que este ano despejou grande quantidade de fumaça e cinzas na atmosfera".
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=emissao-mercurio-meio-ambiente&id=010125100906&ebol=sim
O processo inovador já gerou dois pedidos de patente e promete reduzir o impacto ambiental da contaminação do mercúrio no ar, na água e no solo. [Imagem: Cisi/Coppe]
Pesquisadores da Coppe/UFRJ, no Rio de Janeiro, desenvolveram um sistema eficiente para remover mercúrio de efluentes líquidos e do petróleo.
O processo inovador já gerou dois pedidos de patente e promete reduzir o impacto ambiental da contaminação do mercúrio no ar, na água e no solo.
O sistema capta o mercúrio sem gerar resíduo tóxico, evitando o passivo ambiental produzido nos métodos tradicionais utilizados para esse fim.
Coordenado pelos pesquisadores Vera Salim e Neuman S. de Resende, do Programa de Engenharia Química da Coppe, o projeto conta com o apoio da Petrobras.
Emissões de mercúrio no ambiente
As atividades industriais e a queima de combustíveis fósseis são responsáveis pela emissão de altas taxas de mercúrio no meio ambiente.
Segundo mapeamento do Programa de Meio Ambiente das Nações Unidas (UNEP na sigla em inglês), estima-se um aumento de 1480 toneladas emitidas em 2005 para 1850 toneladas em 2020 nos níveis mundiais de mercúrio, atingindo regiões até então pouco afetadas como alguns países da América do Sul, entre eles o Brasil.
Os pesquisadores advertem que, se nada for feito, até 2050 serão lançadas na atmosfera cerca de 8 mil toneladas de mercúrio, com acumulação de 2 a 3 mil toneladas no meio ambiente.
Entre os países com índices mais altos de mercúrio no mundo estão China, Índia e Estados Unidos. O Brasil aparece em sétimo lugar.
No encontro promovido pelo Programa de Meio Ambiente das Nações Unidas, em junho deste ano, na Suécia, os pesquisadores discutiram a necessidade de elaborar uma legislação para o controle dos níveis de mercúrio no mundo. "Apesar de verificarmos um crescimento expressivo dos níveis do metal no Brasil e no mundo, há carência de dados precisos para melhor avaliarmos seus efeitos", afirma Vera.
Remoção do mercúrio
No sistema concebido pelos pesquisadores do Laboratório de Fenômenos Interfaciais da Coppe, o mercúrio passa por uma coluna com adsorvente, um sólido à base de fosfato, que capta o mercúrio sem gerar resíduo.
A grande vantagem em relação aos métodos convencionais é que esse sistema possibilita a fixação do mercúrio na sua estrutura, evitando a recontaminação e os eventuais procedimentos de gerenciamento do material tóxico produzido.
Pelo método tradicional, ao regenerar o adsorvente o mercúrio é volatilizado e condensado, transformando-se no final do processo em mercúrio líquido, que é removido e estocado.
"Não temos dados sobre a quantidade e a forma como esse metal é armazenado. O risco de gerar um passivo ambiental é grande e os dados não são divulgados de forma transparente, o que dificulta uma avaliação precisa do índice de emissão e do risco de contaminação desse material no meio ambiente", afirma Vera Salim.
Há cerca de oito anos a Coppe desenvolve pesquisa em processos de descontaminação de mercúrio. O processamento de petróleo, por exemplo, gera inevitavelmente resíduos tóxicos e a emissão do mercúrio na atmosfera.
Outra preocupação é o mercúrio acumulado, que é reintroduzido no meio ambiente, constituindo uma ampla cadeia de contaminação: o mercúrio é transportado pelas chuvas, levado a regiões estuárias, podendo acumular-se nos sedimentos ou no ar, por meio de fotossíntese.
Mercúrio no meio ambiente
O mercúrio está presente no meio ambiente em três formas distintas: metálico, orgânico e inorgânico.
"O mercúrio orgânico é o mais letal e pode estar presente, por exemplo, em peixes contaminados. Um rio afetado contamina peixes que, ingeridos, contaminam pessoas. As correntes atmosféricas e a migração dos pássaros também são capazes de levar o mercúrio a longas distâncias. Por essa razão, medidas regionais não são suficientes para conter a contaminação. Precisamos de decisões de alcance global, pois o mercúrio tem grande capacidade de disseminação, com transporte de longo alcance", alerta Vera.
O mercúrio também está presente no dia-a-dia de todos, em produtos como amálgamas dentárias e lâmpadas fluorescentes que podem contaminar o meio ambiente após o seu descarte.
"É preciso ter consciência ambiental e regras para efetuar o descarte desse material. Precisamos estabelecer normas capazes de conter a disseminação do mercúrio e cumpri-las", adverte Vera Salim.
As erupções vulcânicas também são responsáveis por emissões. Segundo a professora da Coppe, ainda é difícil medir o impacto desse fenômeno. "Não sabemos, por exemplo, quais são as consequências da erupção do vulcão na Islândia, que este ano despejou grande quantidade de fumaça e cinzas na atmosfera".
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=emissao-mercurio-meio-ambiente&id=010125100906&ebol=sim
Assinar:
Postagens (Atom)