Translate

sábado, 20 de novembro de 2010

Conheça alguns tradutores que ensinam até a pronúncia correta em outras línguas

Além de traduzir textos, alguns sites gratuitos possuem sintetizadores de voz que te mostram como pronunciar palavras em idiomas estrangeiros. Confira!

Links da matéria:

Oddcast
http://www.oddcast.com/home/demos/tts/tts_tran_example.php

Linguee
http://www.linguee.com.br/

ImTranslator
http://translation.imtranslator.net/translate/default.asp

Paralink Translator
http://www.paralink.com/

Google Translate
http://translate.google.com.br/#

Macmillan Dictionary
http://www.macmillandictionary.com/dictionary/american/Easter

Free Translation
http://free-translation.imtranslator.net/

Prompt Online
http://translation2.paralink.com/

Mesmo quem é fera em outro idioma, volta e meia aparecem palavras novas ou nunca ouvidas antes. Ou, de repente, você pode precisar se comunicar numa língua totalmente desconhecida.

Muitos sites oferecem ferramentas que ajudam na tradução de textos e páginas web. E também tem vários que disponibilizam a pronúncia de cada tradução. A maioria desses sites permite ao usuário ouvir a pronúncia correta da palavra ou texto traduzido em até 27 idiomas, incluindo o português do Brasil. Confira na matéria abaixo.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/conheca-alguns-tradutores-que-ensinam-ate-a-pronuncia-correta-em-outras-linguas/14921

Planeta extragaláctico mostra futuro do Sistema Solar

Visão do futuro

Utilizando um telescópio de 2,2 metros, instalado no Observatório de La Silla do ESO (Observatório Europeu do Sul), no Chile, uma equipe de astrônomos detectou um exoplaneta em órbita de uma estrela que entrou na nossa Via Láctea, vinda de outra galáxia.

O planeta do tipo gigante gasoso, parecido com Júpiter, é particularmente incomum, já que ele orbita uma estrela que se aproxima do final da sua vida e pode ser engolido por ela a qualquer momento.

Assim, seu estudo fornece pistas importantes sobre o destino do nosso próprio sistema planetário num futuro distante.

Canibalismo galáctico

Durante os últimos 15 anos os astrônomos, detectaram cerca de 500 planetas em órbita de estrelas da nossa vizinhança cósmica, mas nunca nenhum foi confirmado fora da Via Láctea.

Houve várias alegações relativas a detecções de exoplanetas extragalácticos pelo método de lente gravitacional, no qual o planeta ao passar em frente de uma estrela ainda mais distante origina um flash sutil, mas detectável. No entanto, este método baseia-se num evento singular - o possível alinhamento de uma fonte de luz distante, o sistema planetário e os observadores na Terra - e nenhuma destas detecções de exoplanetas extragalácticos foi confirmada.

Agora, no entanto, um planeta com uma massa mínima de 1,25 vez a massa de Júpiter foi descoberto em órbita de uma estrela de origem extragaláctica, embora essa estrela se encontre atualmente no interior da nossa própria galáxia.

A estrela faz parte da chamada Corrente de Helmi - um grupo de estrelas que pertenciam originalmente a uma galáxia anã que foi devorada pela nossa galáxia, a Via Láctea, num ato de canibalismo galáctico - isto ocorreu entre seis e nove bilhões de anos atrás.

"Esta descoberta é muito emocionante," diz Rainer Klement do Instituto Max Planck de Astronomia, responsável pela seleção das estrelas alvo para este estudo. "Pela primeira vez, os astrônomos detectaram um sistema planetário numa corrente estelar de origem extragaláctica. Devido às grandes distâncias envolvidas, não existem detecções confirmadas de planetas em outras galáxias. Mas esta fusão cósmica pôs ao nosso alcance um planeta extragaláctico."

Gigante vermelha

A estrela é conhecida por HIP 13044 e situa-se a cerca de 2000 anos-luz de distância, na constelação austral da Fornalha.

Os astrônomos detectaram o planeta, chamado HIP 13044 b, ao procurar minúsculas oscilações da estrela causadas pela influência gravitacional de um companheiro em órbita.

Para obter estas medições tão precisas, a equipe utilizou o espectrógrafo de alta resolução FEROS (Fibre-fed Extended Range Optical Spectrograph).


O HIP 13044 b é um dos poucos exoplanetas conhecidos que sobreviveu ao período de expansão da sua estrela hospedeira, depois desta gastar todo o hidrogênio do seu núcleo - a fase de gigante vermelha na evolução estelar. [Imagem: Science/AAAS]
Para o tornar ainda mais famoso, o HIP 13044 b é igualmente um dos poucos exoplanetas conhecidos que sobreviveu ao período de expansão da sua estrela hospedeira, depois desta gastar todo o hidrogênio do seu núcleo - a fase de gigante vermelha na evolução estelar.

A estrela contraiu-se novamente e está agora queimando hélio no seu centro. Até hoje estas estrelas do chamado ramo horizontal tinham-se mantido como um território inexplorado pelos caçadores de planetas.

"Esta descoberta faz parte de um estudo no qual estamos sistematicamente à procura de exoplanetas que orbitem estrelas que se aproximam do final das suas vidas," diz Johny Setiawan, que liderou a equipe. "Esta descoberta é particularmente intrigante quando consideramos o futuro distante do nosso próprio sistema planetário, uma vez que o Sol também se tornará uma gigante vermelha dentro de cerca de cinco bilhões de anos."

Desafio às teorias

O planeta HIP 13044 b encontra-se próximo da sua estrela hospedeira. No ponto mais próximo da sua órbita elíptica, está a menos de um diâmetro estelar da superfície da estrela (o que corresponde a 0,55 vezes a distância Sol - Terra).

Ele completa uma órbita em apenas 16,2 dias - Setiawan e seus colegas acreditam que a órbita do planeta seria inicialmente muito maior, mas que se teria deslocado para o interior durante a fase de gigante vermelha da sua estrela.

Planetas mais interiores não teriam tido tanta sorte. "A estrela está girando relativamente depressa para uma estrela do ramo horizontal," diz Setiawan. "Uma explicação possível é que a HIP 13044 teria engolido os seus planetas interiores durante a fase de gigante vermelha, o que a fez girar mais depressa."

Embora o HIP 13044 b tenha escapado até agora ao destino dos outros planetas interiores, a estrela irá expandir-se outra vez na próxima fase da sua evolução. Com isto, o HIP 13044 b pode estar prestes a ser engolido pela estrela, o que significa que ele sempre esteve condenado, embora sua pena esteja demorando mais a ser executada. Este fenômeno pode também predizer o desaparecimento dos nossos planetas exteriores - tais como Júpiter - quando o Sol se aproximar do final da sua vida.

Esta estrela coloca questões interessantes sobre a formação de planetas gigantes, já que parece conter poucos elementos mais pesados que o hidrogênio e o hélio - menos que qualquer outra estrela conhecida que tenha planetas.

"Este é um dos mistérios que o modelo de formação de planetas geralmente aceito terá que explicar: como é que uma estrela que não contém praticamente nenhum elemento pesado pode ter formado um planeta? Os planetas em torno de estrelas como esta devem provavelmente formar-se de modo diferente," acrescenta Setiawan.
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=planeta-extragalactico-mostra-futuro-sistema-solar&id=020130101119&ebol=sim

10 programas grátis que você pode obter... Da Microsoft

Não é doando software que a gigante ganha seus bilhões todo mês. Mas nem ela resiste à estratégia de usar presentes para fidelizar o consumidor.

Não é doando softwares que a gigante Microsoft ganha seus bilhões de dólares todo mês. Mas até ela não resiste à política de oferecer programas grátis como forma de aumentar a lealdade do consumidor.

Já tivemos o CEO Steve Ballmer distribuindo novos smartphones com Windows Phone 7 a todos os desenvolvedores da Professional Developers Conference – e todos os 89 mil empregados da empresa terão seu próprio celular com Windows.

Mas você não tem de peregrinar a Redmond ou trabalhar para a Microsoft para aproveitar as tecnologias gratuitas de uma das maiores empresas de software do mundo.

Vamos dar uma olhada em alguns dos programas gratuitos da empresa que podem agradar a consumidores, usuários corporativos e profissionais de TI.

Security Essentials
Feito para PCs com Windows, o produto antimalware gratuito da Microsoft foi lançado em setembro de 2009. Recentemente a Microsoft alterou o acordo de licenciamento para permitir que as pequenas empresas rodem o Security Essentials em até dez computadores.

A Microsoft também oferece o EMET (Enhanced Mitigation Experience Toolkit), um download gratuito para melhor proteger aplicações antigas e que pode tornar mais difícil a exploração das vulnerabilidades de software pela Internet.

Network Access Protection
Esta “NAP grátis e básica para ambientes exclusivamente Windows” vem incluída no Windows XP, Vista, Windows 7 e Server 2008. “Os recursos são relativamente primitivos”, de acordo com o analista de testes Joel Snyder, da Network World/EUA. Para ele, “a NAP da Microsoft funcionará melhor em um ambiente formado apenas por máquinas com Windows, no qual todos os dispositivos são ligados a um domínio Windows”.

Ferramentas de desenvolvimento do Windows Phone 7
Como preparação para o lançamento do smartphone WP7, a Microsoft liberou versões gratuitas das ferramentas de desenvolvimento Visual Studio 2010, Silverlight 4 e Expression Blend 4 para ajudar os desenvolvedores a construir aplicações para os novos aparelhos.

Claro que os celulares em si não são gratuitos, mas há diversos exemplos de oferta gratuita de ferramentas pela Microsoft. A plataformas .Net Framework e Silverlight são gratuitas, e a Microsoft oferece uma versão Express, também grátis, de seu Visual Studio.

Office Web Apps
As versões gratuitas online do Word, PowerPoint, Excel e OneNote foram lançadas este ano quando a empresa passou a oferecer os Office Web Apps, um serviço de nuvem para o consumidor.

A versão gratuita dos Office Web Apps não é feita para uso corporativo, mas pode servir bem a muitos usuários. No entanto, algumas das primeiras análises das ferramentas da Microsoft indicam que os Google Apps ainda são melhores.

Hyper-V
Resposta da Microsoft ao VMware, a plataforma de virtualização de servidores Hyper-V está disponível gratuitamente, e também com novas versões do Windows Server. Embora a maioria dos clientes use o Hyper-V para virtualizar o Windows, a Microsoft submeteu o código fonte ao kernel do Linux para permitir que o Linux funcione sob o hipervisor da Microsoft.

Windows Live Essentials
Projetado para incrementar os PCs com Windows com diversos programas gratuitos, o Windows Live Essentials inclui uma galeria de fotos, produtor de vídeo, mensageiro instantâneo, e-mail e rede social.

Ele também inclui o Live Writer (para blogueiros) e o Live Mesh, para sincronização de fotos e documentos entre computadores pessoais e o serviço de nuvem SkyDrive, também da Microsoft.

Windows Azure Platform Introductory Special
O Windows Azure em si não é grátis, mas a Microsoft oferece acesso livre em uma oferta especial que termina em 31 de março de 2011. Esta oferta inclui 25 horas de uma pequena instância de computação por mês, mais 500 MB de armazenamento e 10 mil transações de armazenamento.

SQL Server 2008 R2 Express
A Microsoft faz muito dinheiro vendendo licenças do SQL Server, mas oferece esta versão grátis para “o desenvolvimento e a instalação de aplicações para desktop ,web e pequenos servidores”.

Embora não seja tão bem equipado como a versão paga, este download gratuito oferece 10 GB de armazenamento de banco de dados, o mesmo motor de banco de dados usado em outras versões do SQL Server, e é compatível com o SQL Server 2008 e o serviço de nuvem SQL Azure Database.

A Microsoft oferece em separado o SQL Server Compact, um banco de dados gratuito para a construção de aplicações móveis, para desktop e na web.

Search Server 2010 Express
A Microsoft lançou um servidor de busca gratuito em 2007, e continuou a atualizar seus recursos de busca. O resultado está agora disponível na forma do Search Server 2010 Express. O software exige o Windows Server 2008. Pense nele como um Google (ou melhor, Bing) para seus sistemas corporativos.

BizSpark
O BizSpark não é um simples produto. A Microsoft explica que ele é um programa gratuito de três anos projetado para ajudar as startups de software a crescer mediante a oferta de “ferramentas de desenvolvimento, tecnologias e licenças de produção de software para servidores (incluindo a Plataforma Windows Azure)”.

Para ter direito aos benefícios, as startups devem ter menos de três anos de idade e menos de 1 milhão de dólares em receita. Ao nutrir a próxima geração de startups antes que elas se tornem lucrativas, a Microsoft realmente espera criar futuras ondas de clientes pagantes.

E tem mais
Nem tudo que é “grátis” é realmente sem custo. O Internet Explorer é gratuito, claro, mas oficialmente funciona apenas em PCs com Windows, e o IE9 funciona apenas em máquinas com o Windows 7 ou o Vista.

A Microsoft também alardeia a oferta gratuita de seu System Center Virtual Machine Manager Self-Service Portal, mas os requisitos do sistema mostram que o consumidor precisa primeiro comprar o Windows Server, o Virtual Machine Manager 2008 R2 Administrator Console e o SQL Server 2008.

No entanto, a Microsoft oferece um período de testes de 180 dias para o System Center VMM e diversos outros produtos.

A Microsoft também oferece programas gratuitos de treinamento para aqueles que pagaram por seu software, incluindo um conjunto de ferramentas grátis de treinamento para usuários finais voltados para o domínio do Microsoft Office e do Windows 7.

A Microsoft também oferece algumas ferramentas gratuitas para migrar usuários para o Windows 7, tais como o Microsoft Deployment Toolkit e o User State Migration Tool.

(Jon Brodkin)
Fonte:http://idgnow.uol.com.br/computacao_corporativa/2010/11/19/10-programas-gratis-que-voce-pode-obter-da-microsoft/

sexta-feira, 19 de novembro de 2010

VISITA AO BERÇO DA WEB

Fonte: Blog do Ethevaldo Siqueira de 17.11.2010
Nunca supus que 20 anos pudessem abalar tanto nosso mundo – na economia, na política, na cultura e na educação. É sobre esse tema que eu gostaria de convidar o leitor a uma reflexão. Vale a pena fazer um breve balanço das mudanças a que assistimos nessas duas décadas, começando pela mais importante delas: a internet. É incrível como 20 anos podem transformar a humanidade.

Nesse sentido, 2010 tem muito significado, pois marca os 20 anos da criação da teia mundial ou worldwide web (www), pelo físico inglês Tim Berners-Lee, que, em 1990, trabalhava no Centro Europeu de Pesquisas Nucleares, ou CERN, da sigla em francês de Centre European de la Recherche Nucleaire, primeira denominação da entidade que hoje se chama Laboratório Europeu de Física de Partículas, da Organização para a Pesquisa Nuclear, localizado em Genebra.

É claro que a internet não nasceu em 1990. Mas só a partir daquele ano ela teria condições de popularizar-se como popularizou-se. De apenas algumas centenas de milhares de usuários – acadêmicos, militares e burocratas – ela saltou nestes 20 anos para 2 bilhões de pessoas de todos os países, idades e profissões que dela se utilizam todos os dias.

Se você quer relembrar comigo um pouco desse progresso, volte ao ano de 1990. Comece por visitar o primeiro site do mundo, preparado exatamente pelo inventor da web, Berners-Lee. O endereço desse site é http://info.cern.ch (que, curiosamente, começa por lembrar o significado daquele ano para a humanidade). “O ano de 1990”, diz a abertura do site, “foi um dos mais momentosos em eventos mundiais. Em fevereiro, Nelson Mandela foi libertado depois de 27 anos de cárcere. Em abril, o ônibus espacial Discovery transportou ao espaço e colocou em órbita o telescópio espacial Hubble. Em outubro, a Alemanha foi reunificada. E, então, no final de 1990, teve lugar uma revolução que mudou o modo como vivemos.”

Protocolo IP

Antes de Tim Berners-Lee, é preciso relembrar o trabalho de outro pioneiro que tornou possível a comunicação entre todos os computadores do mundo: Vinton Cerf. Foi esse matemático americano que quebrou a barreira da comunicação entre computadores de arquiteturas diferentes, ao inventar em 1973 o protocolo TCP-IP (sigla de Transport Control Protocol-Internet Protocol), hoje conhecido apenas como protocolo IP.

A comunicação entre computadores passou, então, a ser feita pela chamada comutação por pacotes, na qual os bits se agrupam, formando conjuntos parecidos com envelopes, que contêm até endereço por fora e mensagem por dentro. Resultado: o protocolo IP possibilita hoje que todos os computadores se comuniquem, não apenas com outros computadores na internet, mas com celulares, equipamentos de vídeo, bancos de dados e outros.

Tim Berners-Lee criou a worldwide web com base na linguagem Hypertext Markup Language (HTML) em 1990. Seu trabalho havia começado em 1989, quando propôs ao laboratório CERN um projeto de comunicação com o uso de hipertexto, em que vários documentos poderiam ser interligados por referências eletrônicas. Trabalhando num computador pessoal NeXT, o físico desenvolveu então o HTML (protocolo para troca de arquivos), a Universal Resource Locator (URL, sistema de endereços) e o primeiro navegador.

Em 6 de agosto de 1991, ele tornou o projeto público, permitindo que as pessoas baixassem o servidor e o navegador que ele desenvolveu. O primeiro website do mundo foi, então, o do Laboratório Europeu de Física de Partículas (CERN), no endereço http://info.cern.ch. Inicialmente, o site trazia explicações sobre o que é a web, como obter um navegador e como configurar um servidor de web. Berners-Lee tornou suas ideias disponíveis livremente, sem patentes ou cobrança de royalties.

Um idealista

Numa entrevista que concedeu a este jornalista em 2004, Berner-Lee explicou por que não registrou a patente de seu invento: “Diversos colegas me aconselharam a registrar a patente da www. Mas eu não quis. Achei que deveria doar à humanidade aquela ferramenta tão útil à comunicação. Nunca pensei em ficar milionário. Ganho bem e tenho tudo que mais desejo”.

Berners-Lee é, portanto, um idealista. Abriu mão dos direitos de propriedade intelectual da invenção da worldwide web, deixando deliberadamente de patenteá-la. Se o fizesse, poderia ser hoje o homem mais rico do mundo.

O governo da Finlândia homenageou-o em 2004 com o Prêmio de Tecnologia do Milênio, oferecendo-lhe também um cheque de 1 milhão de euros (US$ 1,350 milhão). Fundou o Worldwide Web Consortium em 1994, no Instituto de Tecnologia de Massachusetts (MIT). Esse consórcio é uma reunião de empresas que têm como objetivo criar padrões e recomendações para aprimorar a qualidade da web. Em dezembro de 2004, Berners-Lee aceitou também o convite para assumir a cátedra de Ciências da Computação, School of Electronics and Computer Science, da Universidade de Southampton, na Inglaterra, para conduzir o novo e ambicioso projeto da web semântica.

A proposta da web semântica é que os computadores não somente apresentem as informações contidas numa página, como ocorre hoje, mas também possam “entender” cada informação, classificada de maneira acessível às máquinas, com ferramentas como a eXtensible Markup Language (XML) e a Resource Description Framework (RDF).

“A web semântica é uma extensão da web atual, em que a informação recebe um significado bem definido, permitindo que computadores e pessoas trabalhem melhor em cooperação”, escreveu Berners-Lee em artigo na revista Scientific American, publicado em maio de 2001.

Ao longo de 1991, surgiram os primeiros servidores instalados em outras instituições europeias e, em dezembro do mesmo ano, era instalado o primeiro servidor nos Estados Unidos, no Centro do Acelerador Linear de Stanford (Slac, na sigla em inglês). Em novembro de 1992, havia 26 servidores no mundo. Já em outubro de 1993, eram 200 máquinas em funcionamento – então com o nome de web servers (servidores da web ou da internet).

Em fevereiro de 1993, a Universidade de Illinois, em Urbana Champaigne, lançou a primeira versão do browser Mosaic, que tornou a internet acessível aos usuários de PCs e, em especial, do Macintosh da Apple.

No Brasil, em 1993

A Universidade de São Paulo (USP) sempre acompanhou de perto o desenvolvimento das redes de comunicação, primeiro com a BitNet, no final dos anos 1980 e começo dos 1990, e, depois, com a própria internet. Pessoalmente, passei a utilizá-la, ainda na Escola de Comunicações da USP, como professor de Telemática. Os alunos ficavam encantados com a possibilidade de conectar-se com o mundo, apesar das dificuldades e da pobreza de recursos da web naquele tempo.

Um dos pioneiros da internet no Brasil foi Aleksandar Mandic, que começou exatamente com uma empresa de BBS (Bulletin Board System). Mandic abriu um negócio em 1990, cujo o capital era um micro 286, uma linha telefônica e ele próprio. Do começo, no quarto de sua casa, até ser vendida em 1997, a Mandic virou case em Harvard e agora abre novamente suas portas com outra ideia inovadora: oferecer serviço de e-mail diferenciado para aqueles que precisam do e-mail para trabalhar.

O risco do monopólio

Testemunhei também uma das definições mais importantes do papel da internet no Brasil, em 1995, quando o ex-ministro Sérgio Motta se interessou pessoalmente pelo futuro da internet. Naquela época, começava no País uma discussão – semelhante à do sexo dos anjos – baseada na pergunta: “Internet é informática ou telecomunicação?”

Se fosse informática, não caberia nenhuma providência do Ministério das Comunicações. Depois de dois meses, chegaram à conclusão brilhante de que a rede poderia ser o primeiro grande exemplo de convergência de três áreas: tecnologia da informação, telecomunicações e multimídia (ou conteúdo).

Em abril de 1995, a Embratel, ainda monopolista e estatal, decidiu assumir a frente do processo de implantação da infraestrutura de rede destinada ao funcionamento comercial da internet no Brasil. Só havia um pequeno equívoco: a empresa pleiteava o monopólio do transporte e do acesso da web no País. Havia milhares de interessados em obter um endereço na web, mas a Embratel ainda não estava preparada para atender à demanda e ainda proclamava sua intenção de monopolizar o acesso e o uso das redes públicas.

Em debates acalorados, diversos especialistas levaram a Sérgio Motta não apenas o protesto mas, também, as sugestões para que o ministro impedisse a operadora de longa distância ou qualquer outra empresa privada ou estatal, do Sistema Telebrás ou não, de exercer qualquer tipo de monopólio ou exclusividade de operação da internet.

O problema deu tanta dor de cabeça aos dirigentes da Embratel na época que o assunto passou a ser chamado de infernet – especialmente quando uma portaria publicada no dia 1° de junho de 1995, assinada por Sérgio Motta, abriu o uso das redes públicas ao acesso da web, definindo também a internet como sendo o “nome genérico que designa o conjunto de redes, meios de transmissão e comutação, roteadores, equipamentos e protocolos necessários à comunicação entre computadores, bem como o software e os dados contidos nestes computadores”.

Obter um endereço eletrônico e o acesso aos serviços na Embratel, nesses primeiros meses de 1995, era um exercício de paciência que poderia levar meses de espera. Vários amigos estimularam até uma das filhas de Sérgio Motta a pleitear os serviços, sem mencionar seu parentesco com o ministro, para mostrar com maior realismo e credibilidade a lentidão no atendimento à demanda pela Embratel estatal. O exemplo dentro de casa do ministro funcionou, e foi a gota d’água final na persuasão de Serjão, que se convenceu definitivamente da inconveniência do monopólio na internet.

No Brasil, 75 milhões

A expansão da internet ocorrida de 1995 até hoje no Brasil pode ser resumida nos números seguintes. De pouco mais de 50 mil usuários no fim de maio de 1995, o Brasil alcançou 75 milhões no fim de outubro de 2010. Mesmo depois do estouro da bolha e de suas consequências catastróficas no começo da década, no mundo e no Brasil – eliminando centenas ou milhares de empresas ponto-com que não tinham estrutura nem condições de sucesso –, a internet brasileira consolidou sua posição e seu papel na sociedade.

Com a privatização das telecomunicações, a oferta de meios de transporte dos sinais, bem como de acesso e conteúdo, fez explodir o desenvolvimento da internet no País. Passando a competir num novo ambiente, a Embratel acabou mostrando sua competência e a qualidade de sua infraestrutura, na implementação do maior backbone da América Latina.

O que nos faltou até há pouco foi uma política nacional de desenvolvimento da banda larga. É claro que, se o governo tivesse elaborado políticas públicas, com metas de universalização, legislação adequada, desoneração fiscal desses serviços e, principalmente, um plano nacional de banda larga – sério e digno desse nome – em comum acordo com as operadoras, caberia exigir dessas empresas o cumprimento de objetivos e metas, em lugar de ficar simplesmente criticando essas prestadoras de serviço.

Quando o governo é frouxo e omisso no cumprimento de seu papel de regulador, fiscalizador e formulador de estratégias de desenvolvimento setorial, quando deixa tudo por conta das operadoras, sem nenhuma política pública e nenhum plano, o resultado é sempre insatisfatório, em qualquer país do mundo. Foi o que aconteceu no Brasil até o começo de 2010.

Ora, banda larga para internet é comunicação de dados e não telefonia. Assim, as operadoras alegam que seus contratos de concessão nunca previram nenhuma obrigação de oferecer acesso de banda larga. E elas têm razão porque o governo Lula não moveu uma palha na formulação de uma política nacional de banda larga ou de um plano setorial.

Vale a pena voltarmos a esses aspectos para aprofundá-los, num próximo artigo.

Fonte:http://www.sbpcpe.org/index.php?dt=2010_11_17&pagina=noticias&id=06111

Google Instant disponível em português

A ferramenta Instant vai estar disponível na página portuguesa do motor de pesquisas da Google.
O Google Instant, que já estava disponível noutros idiomas, vai agora permitir aos utilizadores que tenham uma conta Google iniciada a visualização dos resultados de forma dinâmica à medida que escrevem na caixa de pesquisa da página google.pt.

A ferramenta Google Instant, dirigida ao público português, vai ser disponibilizada nas próximas 24 horas e pode ser utilizada através dos browsers Chrome, Firexfox, Internet Explorer 8 ou Safari.

Recentemente, a Google anunciou também o Instant Previews , uma ferramenta que permite a pré-visualização dos resultados sem ter de entrar nas páginas propriamente ditas.

Fonte:http://aeiou.exameinformatica.pt/google-instant-disponivel-em-portugues=f1007828

“A Apple é uma ameaça à Internet”, diz especialista

Tim Wu, homem que criou o termo “neutralidade na rede”, critica o "monopólio da AT&T" e diz que a sede de controle de Steve Jobs é a maior perigo para a web.

O homem que criou o termo “neutralidade na rede” (que fala sobre o conceito de democracia na web) agora afirma que a Apple é a empresa que representa o maior perigo para a liberdade da Internet. Professor de direito da Universidade de Columbia, Tim Wu declarou ao New York Times que Steve Jobs quer “um controle excessivo”.

Wu publicou recentemente o livro The Master Switch: The Rise and Fall of Information Empires, no qual detalha o que chama de “impérios da informação”, como a AT&T, NBC, Facebook e Google. “É uma história sobre o gosto dos norte-americanos por monopólios da informação e as conseqüências dessa tendência”, disse ele ao NYT.

Depois de descrever como a AT&T (única a oferecer o iPhone nos EUA) criou um monopólio e sufocou tecnologias que poderiam competir com ela (“A AT&T se tornou um perigo ao sufocar tecnologias que apareciam como uma ameaça para ela”), Wu falou também sobre a Apple e seu principal executivo, Steve Jobs.
Ao ser questionado se a Internet poderia também sofrer um controle semelhante por grandes empresas, ele disse:

“Sei que a Internet foi desenhada para resistir a um controle centralizado e que a sua estrutura venceu empresas como AOL e Time Warner. Mas as companhias de hoje, a exemplo da Apple, tornam incerto se a Internet é algo duradouro ou apenas um ciclo.”

Perguntado sobre qual companhia significava a maior ameaça, ele cravou: “no momento, tenho que dizer que é a Apple”.

E continuou:
“Como abordado no meu livro, Steve Jobs tem o carisma, a visão e o instinto do executivo de todo grande império. O homem que ajudou a criar o computador pessoal há 40 anos é o principal candidato a exterminá-lo. Sua visão tem um apelo inegável, mas ele quer um controle excessivo.”

Para terminar, Wu afirmou que a Apple não deve mudar o seu desejo de controlar a Internet, mesmo com a saída de Jobs. “O homem que começa como um grande revolucionário com freqüência termina sua carreira tornando-se paranóico e abusivo. Há um ciclo, e os problemas costumam aparecer quando o grande líder sente que seu poder está ameaçado”.

Fonte:http://macworldbrasil.uol.com.br/noticias/2010/11/18/201ca-apple-representa-um-risco-a-internet201d-diz-especialista/

quinta-feira, 18 de novembro de 2010

A comida e você - Fique longe do açucar!

Por Dr. Alessandro Loiola . 18.11.10 - 15h51

Vamos começar nosso papo sobre comida com um dado importante – e espero que você guarde muito bem isso. É o seguinte: existem três tipos de Mentiras nesse mundo. O Engano, a Falsidade e a Estatística. Por causa de um ou outro, as pessoas vêm fazendo escolhas tão bizarras quanto equivocadas com relação à dieta.

Um dos primeiros grandes erros teve início na década de 1970, a partir de um catequismo sombrio na medicina chamado Doutrina do Colesterol.

Com o marketing agressivo dos laboratórios sobre médicos e pacientes, as últimas décadas do século XX nos levaram a acreditar que a redução do colesterol seria suficiente para reduzir o risco de ataques cardíacos.

As doenças do coração são a maior causa de morte na atualidade, respondendo por cerca de 800 mortes por dia apenas no Brasil. Então, tome dieta psicótica e caixas de remédios em cima do pobre colesterol.

Após entrevistar dezenas de milhares de pacientes, percebi que algumas coisas não fazem sentido. E a Doutrina do Colesterol é uma delas. Esta seita deriva de estatísticas no mínimo duvidosas. Como dizia um cunhado PhD em Engenharia de Produção: “A estatística é a arte de espremer os números até que eles digam o que você quer ouvir”. Infelizmente, nem sempre o que você quer ouvir é tudo que os números tem para lhe dizer.

As pesquisas mostram que pessoas com altos níveis de colesterol infartam mais. E pessoas que infartam mais tendem a morrer mais. Ok, muito bom. Mas pessoas que peidam também infartam. O mesmo acontece com quem tira meleca do nariz. Das pessoas que morreram por infarto, quantas tiravam meleca do nariz? Muitas. Seria então o caso de fazer campanhas e passeios na orla contra concreções nasais mucóides?

“Viva o coração saudável: não tire meleca do nariz!”, diria o slogan da campanha na camiseta branca do artista da Globo correndo em torno da lagoa. Ser saudável é ótimo. Ser fashion é tudo.

As vendas de lenços e sorinhos nasais iriam bombar.

O que as pesquisas de fato dizem, se você quer evitar um infarto:

1. Não adianta reduzir seu colesterol LDL (o colesterol mau) se o colesterol HDL (o colesterol bom) também estiver baixo ou se os níveis de Proteína Creativa estiverem elevados.

2. No caso de homens com mais de 69 anos de idade e mulheres com colesterol elevado, não existem dados definitivos mostrando que a redução dos níveis de colesterol seja capaz de reduzir o risco de morte cardíaca.

3. Tratamentos agressivos para reduzir os níveis de colesterol parecem aumentar o ritmo de formação de placas ateroscleróticas nas artérias, além de não reduzirem o risco de ataques cardíacos.

4. A imensa maioria (mais de 70%) das pessoas vitimas de ataques cardíacos apresentava níveis normais de colesterol.

Os estudos também mostram que pessoas mais idosas com níveis mais baixos de colesterol no sangue apresentam um maior risco de morte que pessoas com níveis mais elevados de colesterol.

Mesmo assim, a indústria dos medicamentos que reduzem o colesterol movimenta mais de R$ 50 bilhões por ano. Se estes remédios não apresentassem efeitos colaterais, menos mal. Mas eles causam lesões musculares, disfunção sexual, alterações hepáticas e uma miríade de outros problemas em 10-15% dos usuários. A carona no atalho da esperança nunca sai de graça.

Açúcar
O que realmente causa danos aos seus vasos sanguíneos não é a gordura na dieta. É o açúcar. O açúcar sob qualquer forma diminui os níveis de HDL, aumenta os triglicerídios e precipita o desenvolvimento da Síndrome Plurimetabólica (ou pré-diabetes).

Se fosse um romance da Agatha Christie, todo mundo apontaria para o Colesterol, mas seria o Açúcar o verdadeiro assassino da história. “Meu Deus”, você diria ao fechar o livro, “E eu que achei que ele fosse um doce!”.

Você sente terror e vontade de lavar a língua com água benta só de pensar em falar Colesterol? Eu sei como é isso. Mas as coisas não são tão simples assim. Quer dizer, elas são simples, mas podem não ser fáceis. O colesterol é apenas um dos vários fatores dietéticos – e certamente não o mais importante – no seu caminho para as doenças cardiovasculares.

É possível comer de tudo ao longo da vida, mas não coma como se a vida fosse acabar logo. A alimentação é crucial para promoção da saúde e aprender a construir uma relação saudável com a comida evita velórios precoces.

Se você quer fomentar um relacionamento sadio, comece já a utilizar esta abençoada ferramenta mental que a natureza lhe deu chamada Bom Senso. A mira não deve ser o Colesterol. O alvo é o Açúcar.

Uma dieta balanceada capaz de manter os níveis de glicose dentro do ideal certamente ajudará no reequilíbrio da gordura no sangue – com o bônus de efetivamente reduzir seu risco para doenças do coração.

O mundo muda. A medicina muda. Você evolui. Cumpra sua parte no contrato.

Semana que vem vamos conversar um pouco mais sobre como controlar o açúcar na dieta e outras pegadinhas escondidas no prato. Até lá, compartilhe sua solução, relate sua experiência e mande seu comentário no espaço do leitor. Conto com você!

PS – Para melhorar a compreensão deste artigo, vale mencionar que este é o quarto texto da série O Animal Humano, tendo sido precedido por O Animal Humano, Uma Mesa de Quatro Pés e Os Administradores de Horas.
Fonte:http://colunistas.yahoo.net/posts/6540.html

5 problemas comuns com impressoras. E como resolvê-los

Vazamentos de tinta têm solução. O mesmo pode ser dito de impressoras que engasgam com papel. Você sabe o que fazer quando isso acontece?

Todos os dias, diversos problemas com impressoras transformam a vida dos usuários em uma via crucis. Alguns deles são bastante comuns e relativamente fáceis de resolver. Conheça os principais:

1. Engasgar com papel

Fenômeno que ocorre quando algo interrompe o fluxo de papel em seu caminho da bandeja até a saída do documento impresso. Por vezes, a impressora entrega uma folha de papel toda amassada, outras, interrompe o processo de impressão no meio e trava à espera de alguém para socorrê-la e extirpar a página parcialmente impressa.

Siga esses passos para sofrer menos quando isso acontecer:

I. Desligue a impressora – afinal de contas não queremos faíscas, queimaduras ou curto-circuito causado por anéis e pulseiras. Impressoras laser normalmente trabalham em temperaturas elevadas; vale aguardar até que esfriem.

II. Abra todas as comportas que levam até o papel e que estejam em sua rota dentro da máquina. Se estiver em dúvida sobre onde está o problema, comece pela bandeja e vá seguindo até chegar à área em que o papel é impresso. Todas as travas devem ser liberadas nesse processo.

III. Retire cuidadosamente o papel e eventuais pedaços do interior da impressora. Se possível, puxe a(s) folha(s) no sentido que elas normalmente percorreriam a máquina; assim você evita danificar a parte mecânica da impressora. Seja minucioso e tire todas as folhas e fragmentos que podem vir a interromper o fluxo em impressões futuras. Se acontecer de danificar algum componente interno, pare o que faz e chame a assistência técnica.

IV. Feche todas as portas e travas, alimente a impressora com papel seco e ligue a máquina. O processo de impressão deverá recomeçar de onde foi interrompido. Se isso não ocorrer, repita as operações acima. Se não resolver, acione a assistência e reze para que seja um mal menor e não a substituição do cabeçote ou da rebimboca da parafuseta.

2. A interminável fila de impressão

A impressora mais moderna do mundo ainda tem uma limitação: atender apenas a uma solicitação de job por vez. Às vezes não dá conta de realizar uma impressão e, presa a esse trabalho, provoca atrasos em todas as tarefas enfileiradas.

Possivelmente, um trabalho ocupou toda a memória da impressora ou um documento está configurado para ser impresso em determinado tipo de papel sem que este esteja na bandeja da máquina. Também pode ser fruto da configuração da alimentação do papel (definido para manual).

I. Se for uma impressora dedicada, conectada diretamente em seu PC, basta interferir no painel de controle (sistemas Windows) ou nos Utilitários de Impressão de máquinas munidas com SOs Apple e cancelar a ordem de impressão.

II. Impressoras de rede atendem a várias solicitações e as listam para aos usuários, esses, porém, não podem interferir em jobs que não sejam seus. Vale contatar os analistas de suporte para resolver a questão.

3. Vazamentos de tinta ou manchas de toner

Os pigmentos na tinta para impressoras e tonners são feitos para cumprir três tarefas: gravar, secar e permanecer. Mas tudo isso no papel e não no chão, nas mãos ou nas camisas brancas.

Toner

Ao derramar acidentalmente, preste atenção nos seguintes passos:

- Seque o local em que caiu;

- Não inalar o toner.

Para remover:

- Não use água fria, morna ou quente; prefira produtos de limpeza normais;

- Evite usar um aspirador de pó convencional, pois por ser um pó muito fino, pode vazar por outros cantos do aspirador. Existem aspiradores especialmente desenvolvidos para sugar toner. Eles trazem bicos que permitem alcançar cantos remotos dentro de impressoras e de mesas;

- Em casos de superfícies lisas, use toalhas de papel ou panos especiais (que atraem estaticamente o toner) e jogue em sacos de plástico bem fechados.

Tinta

Não chore a tinta derramada, remova. Eis como:

- No caso de superfícies lisas, seque a tinta com um pano ou lenço absorventes. Em seguida use um produto de limpeza para remover eventuais manchas, sempre de acordo com a superfície específica. Não espere secar.

- Caiu tinta na pele? Seque a tinta em excesso e continue lavando a pele com o sabonete de sua preferência. Não saiu? Esfrega que sai. Evite usar produtos de limpeza adicionais. Normalmente, água morna e sabonete dão conta.

- Tinta em tecidos ou no carpete. A receita chama-se água e sabão. Faça movimentos verticais, não desenhe em círculos nem de um lado para o outro. Nos dois casos você estará espalhando a tinta pelas fibras do tapete no lugar de removê-las.

- No interior da impressora. Aí complicou. É uma trabalho difícil e o resultado é incerto. Mas, se quiser experimentar, faça o seguinte:

I. Desligue a impressora se for possível. Alguns modelos somente permitem acesso à área de cartuchos quando ligadas. Se este for o caso, mantenha a máquina ligada até retirar os reservatórios de tinta. Mas vale pensar se remover o cartucho não vai causar mais danos que se deixá-lo por hora onde está. Se optar por remover os causadores da invasão, tenha em mãos um recipiente para acomodá-los.

II. Com um pano seque o máximo de tinta que conseguir. Use tecido que não solte felpas umedecido com álcool. Cuide para não deixar nada preso no interior da impressora.

III. Faça um teste de impressão e procure por evidências de tinta por toda a folha.

4. Queda de energia elétrica durante uma impressão

Não é complicado de resolver. Pode ser encarado como um tipo de jam (papel engasgado).

I. Desligue a máquina, pois não queremos que o processo de impressão recomece enquanto você remove a folha parcialmente impressa.

II. Ligue a impressora novamente e observe se há mensagens de erro ou sons estranhos que possam indicar danos internos.

III. Impressoras laser requerem que você leia as instruções de como remover o tonner que ficou preso entre o cartucho e a cabeça de impressão. Já os modelos que operam com tinta demandam que os cartuchos sejam limpos antes de continuar o processo de print. Antes de continuar a imprimir o documento, realize um teste para verificar que está tudo bem com a máquina. Em inglês existe a sigla ”RTFM”; significa algo como “prezado usuário, por favor, leia o manual”.

IV. Para evitar que caso semelhante volte a acontecer, procure instalar um no-break na impressora.

5. Imprimindo do lado certo em papel fotográfico

Os intermináveis segundos que o separam de uma fotografia impressa estão para passar, quando, para o seu desespero, você se dá conta de ter colocado o caro papel fotográfico virado do lado contrário, justamente aquele que não absorve tinta.

O que fazer?

I. Se der tempo, cancele a impressão, principalmente se estiver imprimindo uma série de fotos.

II. Retire cuidadosamente as folhas de papel da impressora evitando que a tinta escorra e vá parar no chão ou nas roupas. Se quiser, pode usar um lenço para segurar as películas, uma vez que a tinta pode manchar suas mãos.

III. Jogue tudo no lixo. Sim: pode ir se despedindo do papel e da tinta caríssima. Da próxima vez, certifique-se de ter inserido o papel do lado indicado no manual da impressora.

(Melissa Riofrio)

Fonte:http://idgnow.uol.com.br/computacao_pessoal/2010/11/17/5-problemas-comuns-com-impressoras-e-como-resolve-los/

As 10 expressões mais exageradas da TI

Muitos termos que ouvimos sobre tecnologia parecem tão densos como o ar; mesmo assim, circulam por aí.

Muito do que se diz no mundo high-tech parece tão denso como o ar. Por exemplo: uma conexão móvel ou é 4G ou não é. Mas isso pode mudar se quem usa o termo é um CEO com tendências a distorcer a realidade, executivos de marketing ou representantes de venda.

Em outras palavras, o significado para alguns serviços e tecnologias vai depender de com quem você está conversando.

Eis aqui meus 10 termos técnicos favoritos que têm sido diariamente alterados, contorcidos e massageados por alguns dos maiores fornecedores de tecnologia da atualidade.

1. Cloud Computing – Se a coisa envolve alguma conexão à Internet, então com certeza está na “nuvem”. Certo? Errado! (E, para todos os efeitos, dizer “baseado na nuvem” para qualquer coisa soa ainda mais elegante!)

2. Velocidade ‘tipo’ 4G – Bem... Essa maleabilidade do termo 4G é uma reminiscência da época em que o rótulo de “banda larga” se aplicava a qualquer conexão mais rápida que a discada. Caiam na real, operadoras móveis: vocês não estão dizendo a verdade!

3. Líder do setor – Se por “líder do setor” você quer dizer “uma equipe de sete pessoas, com cinco clientes (um dos quais é seu tio), e um desejo enorme de ser comprado o mais cedo possível”, então eu acho que todas as startups realmente têm o direito de usar este slogan de marketing.

4. Segurança online – Agora mesmo tem um rapaz imberbe no interior da Estônia tentando burlar sua “solução de segurança”. Quem sabe não podemos consertar essa brecha daqui a dez anos?

5. Parceiro de valor – Isso até o dia em que o parceiro decidir não renovar seus acordos de licenciamento. Nesse caso, a grande empresa de TI ameaçará esse ex-parceiro de valor da mesma forma que Don Corleone ameaçou seu valoroso irmão Fredo.

6. Não seja mau – Que mal há em uma pequena maldade de vez em quando, desde que se tenha boas intenções?

7. Privacidade no Facebook – As políticas de privacidade dessa rede social (lembre-se do opt-in automático!) parece mudar com a mesma frequência com que Zuckerberg troca de camiseta.

8. Líder de pensamento – Se você já teve uma ideia realmente decente (vá lá, talvez dois ou três insights) a ponto tê-la divulgado em orgulho pelo Twitter ou pelo Facebook, desculpe – isso não o torna um líder de pensamento (ou guru, ou influenciador, ou expert).

9. Disponibilidade geral – Se um produto ainda vem sendo testado por um “grupo seleto de consumidores” (conhecidos também como ‘beta testers’) e tem mais bugs que seus primeiros exercícios de programação da faculdade, então ele não está nem perto do estado de disponibilidade geral (GA, na sigla em inglês).

10. Solução robusta – Desculpe, essa saiu da minha boca sem querer.

Fonte:http://idgnow.uol.com.br/mercado/2010/11/18/as-10-expressoes-mais-exageradas-da-ti/

Memória racetrack poderá substituir discos rígidos

O que se pode esperar de um sistema de armazenamento de dados batizado de "pista de corridas"?

Os cálculos indicam que é factível contar com uma velocidade 100.000 vezes maior do que os discos rígidos atuais, gastando uma fração da energia e sendo ainda totalmente à prova de choque.

Memória racetrack

O conceito de racetrack memory, uma pista de corrida para bits, que promete criar discos rígidos sem partes móveis, foi lançada por um pesquisador alemão, em 2007.

Posteriormente, cientistas da IBM deram um toque na ideia, sinalizando com uma memória spintrônica que poderá ser fabricada em pastilhas 3D.

Enquanto em um HD os discos giram para movimentar os bits, fazendo-os passar pelas cabeças de leitura e gravação, na memória "pista de corrida" são os bits que se movem ao longo de fios estacionários, empurrados por pulsos de corrente elétrica.

Agora, Mathias Klaui e seus colegas da Escola Politécnica Federal de Lausanne, na Suíça, deram um novo impulso ao conceito, trazendo-o mais próximo da viabilidade prática.

Pista de corrida de bits

A pista de bits é formada por nanofios de níquel-ferro. Os bits de informação são armazenados magneticamente no fio, como acontece nas fitas magnéticas - com a diferença substancial de que, na memória racetrack, não há partes móveis.

Para movimentar os bits ao longo da pista, usa-se uma corrente elétrica polarizada pelo spin, com o que se obtém uma velocidade de várias centenas de metros por segundo - para continuar a comparação com as fitas magnéticas, seria como ler uma fita VHS inteira em menos de um segundo.

O spin de um elétron pode estar apontando para uma direção ou para outra. Uma corrente de spin consiste em separar as duas classes de elétrons, transmitindo cada uma delas por uma rota diferente.

Para que a ideia seja factível, cada bit de informação deve ser cuidadosamente separado de seus vizinhos, para que os dados possam ser lidos com confiabilidade. Isto foi alcançado usando paredes de domínio com vórtices magnéticos para separar os bits adjacentes.

Klaui e seus colegas mediram o deslocamento dos vórtices magnéticos e descobriram que seu movimento físico permite velocidades de leitura muito maiores do que estava sendo calculado até agora.

O artigo que descreve o avanço, publicado na Physical Review Letters, mereceu um comentário dos cientistas da IBM que também trabalham no desenvolvimento da memória racetrack.

Eles não apenas ressaltaram a importância dos resultados, como parecem estar consistentes com suas previsões anteriores. Em 2008, eles estimavam que a memória spintrônica poderia chegar ao mercado em 10 anos. Agora, eles arriscaram um período de 5 a 7 anos.

Boot instantâneo

Milhões ou mesmo bilhões de nanofios podem ser incorporados em um único chip, inclusive superpostos em estruturas tridimensionais, criando cartões de memória racetrack com capacidades muito acima do que se espera ser alcançado com os discos rígidos.

O consumo de energia é baixo mesmo quando se compara com as atuais memórias RAM. Para manter seus dados, a memória RAM precisa ser alimentada mais de um milhão de vezes por segundo. Assim, mesmo sem uso, um computador consome cerca de 300 mW apenas para manter seus dados na RAM.

Como a memória racetrack armazena seus dados magneticamente, a energia só sendo necessária para movimentar os bits, os pesquisadores calculam que ela consumirá 300 vezes menos energia do que uma memória RAM de mesma capacidade.

O mais esperado, contudo, é a velocidade de leitura dessas memórias spintrônicas, o que poderá significar computadores com boots instantâneos. Tão esperado quanto a memória universal.

Bibliografia:

Direct Determination of Large Spin-Torque Nonadiabaticity in Vortex Core Dynamics
L. Heyne, J. Rhensius, D. Ilgaz, A. Bisig, U. Rüdiger, M. Kläui, L. Joly, F. Nolting, L. J. Heyderman, J. U. Thiele, F. Kronast
Physical Review Letters
October 25, 2010
Vol.: 105, 187203 (2010)
DOI: 10.1103/PhysRevLett.105.187203
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=memoria-racetrack&id=010150101117&ebol=sim

Bactérias viram minifábricas de vacinas e biocombustíveis

Cientistas das universidades de Kent e da College Cork, no Reino Unido, usaram a engenharia genética para forçar bactérias simples a criaram compartimentos internos que as tornam capazes de produzir virtualmente qualquer composto químico que se deseje, de biocombustíveis a vacinas.

Os microcompartimentos chegam a ocupar quase 70 por cento do espaço disponível em uma célula de bactéria, possibilitando a segregação das atividades metabólicas - potencialmente, o organismo torna-se especializado em produzir um determinado composto.

Biologia sintética do bem

Esta é a chamada biologia sintética que, se de um lado, é altamente promissora, de outro tem levantado sérias preocupações sobre o que o homem pode fazer manipulando a vida em tal intensidade. Tanto que a maioria dos cientistas da área já se apressa em se enquadrar em uma pretensa categoria de "biologia sintética do bem".

"A biologia sintética é realmente excitante porque nós podemos produzir alguns produtos importantes e úteis que podem ser difíceis e caros demais para se fabricar usando as técnicas tradicionais da química," afirma o professor Martin Warren, coordenador da pesquisa.

"As bactérias podem produzir essas coisas com muita facilidade e em grandes quantidades se desenvolvermos bactérias com as características certas para fazer tudo de forma eficiente.

"O que nós frequentemente fazemos é nos certificarmos de que o produto desejado seja feito dentro de um ou mais compartimentos minúsculos que já existem no interior das bactérias. Isso significa que o processo não será interrompido ou retardado pelo que está acontecendo [normalmente] na célula, e assim o processo é muito mais eficiente," explica o cientista.

Biofábricas

Já os microcompartimentos nas bactérias geneticamente modificadas poderão ser projetados para a síntese do etanol ou até do hidrogênio, o que poderia reduzir a necessidade de muitos produtos derivados do petróleo, incluindo certos medicamentos.

A equipe do professor Warren está atualmente desenvolvendo formas de produzir novos antibióticos dentro destes compartimentos.

"Usando esses compartimentos, as bactérias E.coli podem criar produtos químicos que normalmente seriam letais para elas. As bactérias são parcialmente protegidas porque os produtos químicos estão sendo feitos no interior de compartimentos dentro de suas células. Estamos trabalhando em maneiras de usar essas 'fábricas' para produzir substâncias que irão matar outras bactérias nocivas," diz Michael Prentice, coautor da pesquisa.

Bibliografia:

Synthesis of Empty Bacterial Microcompartments, Directed Organelle Protein Incorporation, and Evidence of Filament-Associated Organelle Movement
Joshua B. Parsons, Stefanie Frank, David Bhella, Mingzhi Liang, Michael B. Prentice, Daniel P. Mulvihill, Martin J. Warren
Molecular Cell
Vol.: 38, Issue 2, Pages 305-315
DOI: 10.1016/j.molcel.2010.04.008
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=bacterias-viram-minifabricas&id=010165101116&ebol=sim

Memória e aprendizado

O neurocientista Iván Izquierdo fala sobre como armazenamos informações no cérebro e avalia a evolução científica no Brasil

Embora estudos científicos tenham avançado, somos um país no qual a escola ainda não foi apresentada à ciência. Isso traz complicações econômicas, uma vez que todas as nações desenvolvidas no mundo hoje são produtoras de alta tecnologia e, portanto, centros de excelência científica. Este é o alerta de um dos principais cientistas em atividade no Brasil, que, no entanto - e talvez faça sentido neste contexto - não é brasileiro.

O médico neurocientista Iván Antonio Izquierdo nasceu em Buenos Aires, capital argentina, em 1937. Adotou o Brasil para desenvolver estudos científicos a partir de 1973, anos depois de ter se graduado médico e concluído o doutorado em Farmacologia em Buenos Aires. "Eram apenas três ou quatro grupos que desenvolviam neurociência no Brasil àquela época. Hoje já existe uma Sociedade Brasileira para a Neurociência com 4 mil membros, todos produzindo pes qui sas", afirma, de sua casa, em Porto Alegre, nesta entrevista por telefone a Carta Capital.

O neurocientista desenvolveu a maior parte de seus estudos no Departamento de Bioquímica da Universidade Federal do Rio Grande do Sul (UFRGS) e, atualmente, coordena estudos na Pontifícia Universidade Católica (PUC), de Porto Alegre. É reconhecido no mundo todo por seus mais de 500 artigos científicos, e também escreveu 16 livros, a maior parte deles de cunho científico, há também contos e crônicas. Nesta conversa, Izquierdo fala de como funciona a memória e comenta o momento atual da ciência no Brasil.

- O senhor afirma, em seu livro Memória, que sem esquecimento não há memória, que é preciso esquecer para lembrar. Como funciona essa relação?

Funciona de maneira física. Temos muitas células para a memória, que se forma nelas a partir de processos metabólicos. O número de moléculas é finito. Uma vez que se usa essas moléculas de forma exaustiva, esse número terá de se repor. Isso está muito bem definido pelo (escritor argentino) Jorge Luis Borges, no conto Funes, o Memorioso. Nesse conto, Borges fala da história do personagem Funes, que desenvolve uma memória perfeita. Ele era capaz de lembrar um dia inteiro de sua vida, do primeiro ao último segundo - só que, para isso, também levava outro dia inteiro para se lembrar. Borges demonstra por meio do absurdo que, para raciocinar, precisamos esquecer para notar diferenças, classificar as coisas. É impossível pensar sem esquecer um pouco.

- Hoje já não se discute que aprendemos por associação. Para aprender a ler, por exemplo, é preciso adquirir "o gosto pela leitura". Somos capazes de aprender algo que não nos atrai?

A forma ideal de uma criança aprender é tentar estimulá-la por algo que a atraia mesmo. Ela pode aprender, claro, se esforçando para entender algo que não goste, mas é normal do ser humano focar-se no que gosta. É por isso que os professores têm de ter consciência disso e se preparar.

- Portanto, a memória que se formará com o aprendizado será maior ou menor, dependendo da atenção que o professor der àquilo que está sendo ensinado?

Isso de fato é um peso na hora de ensinar, mas também é fundamental a capacidade de aprender da criança. A maneira como o ensino é administrado também faz diferença.

- Os mecanismos de aquisição, conservação e evocação da memória das crianças são diferentes dos de um adulto?

A partir dos 5 ou 6 anos de idade, quando as crianças passam a usar a linguagem, o mecanismo de memória é basicamente o mesmo dos adultos, com diferenças muito pequenas. Até aí, porém, não. A memória do início da infância funciona diferente, é mais parecida com a dos animais. A linguística faz toda diferença na concepção da memória.

- Convencionou-se dizer hoje em dia que vivemos em uma época de excessos de informação, e que as gerações mais novas convivem com isso praticamente desde que nascem. Esse excesso é um problema para a memória?

Há um senão nessa afirmação. O famoso médico Santiago Ramón y Carral, um dos fundadores da neurociência, já alertava, em sua obra O Mundo Visto aos 80 Anos, para o mesmo problema. E estávamos na década de 1920! Comentava que chegávamos ao fim do mundo por causa do excesso de informações. Era o início do rádio, cinema e música em qualquer lugar. Nosso cérebro tem um sistema gerenciador de informações que o faz selecionar o que é importante. O excesso hoje é o que nós percebemos como excesso, mas, talvez ainda estejamos dentro das dimensões que o cérebro suporta. Desde que me conheço por gente ouço isso, e não sei se é por aí.

- Na escola, incentivar a memória foi rotulado como "decoreba". Como estimular a memória corretamente sem cair na mera repetição pura e simples?

Olha, alguém um belo dia inventou que a decoreba é ruim. Então, diga-me: como vamos aprender um poema ou a tabuada a não ser decorando? Evidentemente, isso faz parte do aprendizado. Decorar é colocar coisa na memória, e estamos fazendo isso constantemente.

- O senhor já declarou que a educação científica deve começar pela escola. Qual a sua opinião sobre a relação entre ciência e educação no Brasil?

Até há pouco, péssima, mas estamos começando a ter grandes avanços. O Brasil é um país que ainda desconhece a existência da ciência. Por exemplo: sou médico, há pessoas que me chamam para resolver problemas clínicos. Só que eu sou um médico neurocientista! Ninguém sabe que me dedico de forma exclusiva à pesquisa. Mas as coisas estão mudando. Hoje em dia, sem ciência não há economia. A ciência precisa da tecnologia, e a tecnologia precisa da ciência para ser produzida, e a definição de país desenvolvido hoje passa também pela produção de ciência e tecnologia. Dois países que tinham o PIB e a população parecidos há 20 anos eram a Coreia do Sul e o Brasil - a Coreia do Sul, hoje, é quase uma potência científica, e o Brasil, não.

- Ao senhor parece, então, que a ciência não está arraigada na população do Brasil.

Sim, é isso. A ciência ainda é vista como algo estrangeiro, é até desprezada. E não, deve ser inerente à sociedade de qualquer país.

- E o que pode estimulá-la na sociedade?

Primeiro, é necessário conhecer o que se faz de ciência no Brasil. Há várias fórmulas de fazê-lo. Devemos criar programas em colégios através de meios que os alunos estão adaptados, ou seja, tevê e internet. A Academia Brasileira de Ciências ficaria muito feliz em realizá-lo, assim como a Sociedade Brasileira para o Progresso da Ciência. É o tipo de coisa que se deve fazer ainda no começo do Ensino Fundamental. Também deve-se usar sempre exemplos do dia a dia, nos quais a ciência está presente. Por exemplo: você abre a torneira, gira a válvula para a água passar. Isso é física. Tudo tem ciência, isso é uma realidade.

- A ciência, a seu ver, ainda está longe da escola?

Sim, está. Há uma falta de cultura científica gigantesca nas escolas do Brasil, e isso vem de Portugal, que foi o único país, no período colonial, que proibia criar universidades nas colônias. E nisso foram muito diferentes dos ingleses e espanhóis, que criavam instituições de ensino onde podiam. Os espanhóis criaram as primeiras universidades na América nos anos 1600. Aqui no Brasil, as primeiras surgiram somente no século XX. Não sei se o Brasil incentiva a educação do jeito certo. Por exemplo: estamos criando muitas universidades, mas nem todas são boas. Temos essa cultura da superficialidade que virou uma característica nacional que não é interessante. Ciência se faz com aprofundamento.

- Em relação ao mundo acadêmico, o senhor enxerga melhoras?

Muito, e rapidamente em quase todos os setores das Ciências da Saúde, Biologia, Física e Matemática. A neurociência teve um avanço grande. E estou falando em um aumento em qualidade da pesquisa e quantidade de pesquisadores. Quando vim para fazer neurociência no Brasil em 1973, havia três ou quatro grupos, literalmente. O Brasil já está bem colocado no mapa mundial da neurociência.

A maior parte dos sites, revistas e jornais de informação tem, em sua editoria de ciências, notícias bizarras. Isso pode atrair o interesse dos jovens para o assunto ou, simplesmente, os afasta da ciência

Isso, lamentavelmente, é tão comum quanto infeliz. O tratamento superficial que prioriza o bizarro é prejudicial à ciência. E falta muito preparo por parte dos jornalistas científicos. Muitas vezes vemos gente que são muito bem- intencionadas, inteligentes, mas que até ontem estavam fazendo crônica de futebol. É fundamental conhecê-la para interpretá-la.

- Existe algum exercício recomendável para manter a memória em forma?

A atividade útil para memória é qualquer uma que a faça usá-la muito, e isso sempre envolve a leitura. As duas profissões em que se vê menos perda de memória com a idade (e que, quando o problema existe, costuma ser menos profundo) são as dos professores e dos atores. Foram feitas estatísticas em populações grandes sobre isso em vários lugares, mas os mais relevantes foram feitos em Paris e Buenos Aires. Não tinha nada a ver com a classe social. Professor e ator usam muito a memória, têm de ler muito para ser qualificados.

- E para encerrar, o que uma criança ou adolescente que sonham ser um cientista nunca podem esquecer?

Um cientista tem de ser uma pessoa curiosa. Tem de gostar de investigar, procurar ver o que existe atrás da parede. A profissão consiste nisso e, bem cultivado desde criança junto ao hábito da leitura, é fundamental.
(Fernando Vives)
(Carta Capital, 17/11)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74732

Qualidade de vida no trabalho: equilíbrio entre vida pessoal e profissional com o uso da tecnologia

Ferramentas de colaboração são importantíssimas para que você possa trabalhar no escritório, em casa, no sítio ou em qualquer lugar!
Quarta-feira, 17 de novembro de 2010 às 09h09


Links da matéria:

Lotus Live
Lotus Connections

Para você, o que é qualidade de vida no trabalho? Ter um chefe menos mala? Ou trabalhar de casa, bem longe dele? Quem sabe uma boa saída seja não ter chefe e poder fazer tudo no seu ritmo, à sua maneira? Bom... em qualquer uma dessas opções, um detalhe é fundamental. Confira na matéria abaixo.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/qualidade-de-vida-no-trabalho-equilibrio-entre-vida-pessoal-e-profissional-com-o-uso-da-tecnologia/14898

Em nome da segurança: os hackers do bem!

Alguns jovens usam o conhecimento de internet e programação para alertar empresas sobre suas falhas no sistema e incentivar a segurança nos portais
Quarta-feira, 17 de novembro de 2010 às 11h29

Stephanie Kohn

Hoje, talvez o maior medo de uma empresa baseada na web é ser atacada por hackers. Porém, o que pouca gente sabe é que nem todos estes jovens que sabem tudo de programação e segurança na internet estão dispostos a tomar os sites só por prazer e um pouco de fama.

Miguel Targa, uma brasileiro de 21 anos residente dos Estados Unidos, é um desses casos. O jovem começou sua jornada no mundo digital com 12 anos e, bastante curioso, foi aprendendo sozinho como os programas funcionavam. Ganhou uma Bíblia do Delphi 3 e passou a estudar os códigos com o objetivo de descobrir bugs em sites inimagináveis.

Acontece que Miguel faz parte de uma safra de curiosos (ele não gosta de ser chamado de hacker, programador, analista ou qualquer coisa do tipo) que não usa as falhas encontradas nos grandes portais para prejudicar os usuários ou a empresa. "Não quero roubar senhas ou danificar computadores", diz. Ele alerta as empresas sobre falhas na segurança e algumas vezes ganha até bonificações por ter ajudado o site, como aconteceu recentemente com o YouTube. A Google estava oferecendo premiação para pessoas que encontrassem alguma falha no sistema da plataforma de vídeos e Miguel encontrou. A premiação? Um belo cheque em dólares. Alex Miller, um garoto norte-americano de 12 anos, também recebeu uma recompensa por ter descoberto um bug crítico no navegador Firefox e foi premiado com um gordo cheque de US$ 3 mil. Casos como estes estão cheios por aí, assim como aconteceu aqui mesmo com o Olhar Digital, onde o próprio Miguel alertou nossa equipe sobre uma falha.

Para Miguel, um portal seguro é tudo hoje em dia, pois traz mais confiança para os usuários, menos frustrações e perda de dinheiro para a empresa, caso haja algum ataque. "Para manter um site seguro é preciso contratar as pessoas certas para o trabalho, programadores que entendam de segurança e que pensem como um hacker", aconselha. Aliás, existem muitos hackers na história da internet que hoje em dia trabalham para a segurança de grandes empresas, assim como outros que não desistem de badernar na internet, apenas para ganhar fama e reconhecimento entre outros hackers.

A verdade é que no mundo da programação muitas vezes a segurança é deixada de lado porque a profissão de programador se banalizou no mercado. "A molecada aprende algumas coisas e já acha que é programador. Aí faz trabalhos por R$10,00, R$30,00 ou R$50,00 e sai algo mal feito e com problemas se segurança", conta. Com "profissionais" assim no mercado, de baixa qualidade e que cobram muito pouco pelo serviço, fica difícil a competição entre os programadores mais experientes que normalmente cobram mais caro. Desta forma, nascem muitos sites e portais com falhas de segurança extremamente fáceis de serem descobertas e que podem ser um prato cheio para crackers.

Assim como Miguel, outros "curiosos" também sonham em viver apenas descobrindo bugs e caçando recompensas. Esta pode ser uma nova modalidade entre os jovens, que ao invés de utilizar sua experiência e conhecimento para prejudicar os portais, passem a direcionar seus negócios para promover a segurança na internet.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/em-nome-da-seguranca-os-hackers-do-bem/14889

Ex-executivos do MySpace lançam serviço de busca baseado em redes sociais

Gravity usa os interesses dos usuários para ajudá-los a achar conteúdos relevantes
Quarta-feira, 17 de novembro de 2010 às 15h26

Uma equipe de ex-executivos do MySpace lançou hoje, em um evento em São Francisco, nos Estados Unidos, uma nova empresa que vai fazer parte do cenário da web 2.0. Um dos fundadores, Amit Kapur disse que saiu do MySpace porque sua nova empresa, a Gravity, traz mais oportunidade de trabalhos. Basicamente, a Gravity usa os interesses dos usuários para ajudá-los a achar conteúdos relevantes.

Apesar do conceito ser bastante parecido com o de outros sites que rondaram o mercado, como o Twine, serviços de compartilhamento de conteúdo, e a MeeHive, leitor de notícias personalizado, Kapur garante que a Gravity será diferente. Para ele, as tentativas anteriores não se aprofundaram no conceito, já a Gravity vai saber lidar com todo o conteúdo, desenvolvendo um sistema de busca avançado e inteligente, e mais que isso, compartilhando e usufruindo das redes sociais.

Segundo Kapur, o primeiro serviço disponibilizado pela empresa será semelhante ao Pandora. Porém, ao invés de pedir ao usuário para procurar por músicas ou recomendar outros sons baseado no gosto dos amigos, o site irá oferecer músicas que o usuário provavelmente vai gostar porque será baseado em seu próprio interesse. O CEO garante que a novidade será como o Pandora, mas para outros interesses da web e não para música.

O Gravity tem construído um modelo de linguagem, atualmente com 100 milhões de frases, que mostra como diferentes interesses se encaixam. A Gravity sabe que "Gol" está relacionado com futebol e se enquadra na categoria de esporte. Então, o site constroi um gráfico de interesse com tudo o que o usuário parece gostar com base no conteúdo de uma rede social, como mensagens do Twitter, Foursquare ou Facebook, por exemplo.

O Twinterest, primeiro serviço disponível a partir desta quarta-feira (17), cria gráficos baseados nos tweets do usuário, além de permitir que ele compare seus interesses com o dos amigos. De acordo com Kapur, além do Twinterests, daqui alguns dias a Gravity deve lançar também o The Orbit, um jornal digital personalizado.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/ex-executivos-do-myspace-lancam-servico-de-busca-baseado-em-redes-sociais/14906

Americano vai instalar máquina fotográfica atrás da própria cabeça

Iniciativa de um professor de fotografia da Universidade de Nova York faz parte de um projeto promovido pelo novo museu do Catar
Quarta-feira, 17 de novembro de 2010 às 16h01

Wafaa Bilal, professor de origem iraquiana da Universidade de Nova York, colocará cirurgicamente uma máquina fotográfica atrás de sua cabeça para participar de um projeto artístico promovido pelo Mathaf, o Museu de Arte Moderna Árabe, no Catar. Chamado de "The 3rd I", ou "o terceiro eu", a câmera possui o tamanho de uma unha do dedão, e deverá ser implantada nas próximas semanas através de uma espécie de piercing. A máquina permanecerá instalada na cabeça de Bilal por um ano e fará uma foto por minuto, enviando todas as imagens automaticamente para visitantes do Mathaf.


O projeto já levantou questões de privacidade na universidade em que Wafaa leciona. Segundo a direção, os alunos têm o direito de não permanecerem em um ambiente constantemente vigiado.

O site do projeto já está no ar, mas por enquanto apenas exibe uma contagem regressiva para o início. No futuro, você poderá ver as fotos em tempo real enquanto são tiradas.
http://www.3rdi.me/

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/americano-vai-instalar-maquina-fotografica-atras-da-propria-cabeca/14908

Ligações que interrompem o jantar? Isso é passado!

Guardanapo bloqueia sinal de celular e mantém o aparelho ligado, sem incomodar
Quarta-feira, 17 de novembro de 2010 às 16h17

A mobilidade pode ser boa para algumas coisas, mas tem certos momentos que atender o celular ou responder um email no smartphone pode ser bastante incoveniente. Em um jantar romântico ou encontro com os amigos, por exemplo, a interrupção pode deixar a mesa inteira incomodada. Por isso que para aqueles que preferem curtir uma refeição com tranquilidade este acessório pode ajudar. O Phonekerchief é um guardanapo que bloqueia o sinal de celular ao envolver o aparelho nele. O acessório ainda traz na parte externa uma mensagem educada que alerta a companhia: "My phone is off for you" ou "Meu telefone está desligado por você". Se gostou da ideia, pode adquirir o Phonekerchief por US$ 15 cada, neste site.http://myphoneisoff.com/phone%20kerchief.html



Fonte:http://olhardigital.uol.com.br/produtos/digital_news/ligacoes-que-interrompem-o-jantar-isso-e-passado/14909

Google libera o Refine 2.0 Ferramenta de software de código aberto para trabalhar com conjuntos de dados desorganizados ganha

nova versão
Quarta-feira, 17 de novembro de 2010 às 17h28

O Google acaba de anunciar o lançamento do seu Refine 2.0, que permite que o usuário pegue alguns dados bagunçados e arrume-os de uma forma uniformizada para poder analisá-los estatisticamente.

O vídeo abaixo mostra um exemplo baseado em um arquivo CSV exportado a partir de uma fonte de dados disponível ao público, neste caso, um sistema de contrato com o governo. As informações são bastante realistas, com descrições inconsistentes e formatos de número incompatíveis. Mas, ao serem jogados no Google Refine ele aprimora essas incoerências e as corrige.

Esta pode ser uma boa ferramenta para analisar os dados, muitas vezes disponíveis, mas confusos, e compreender se existe algo de errado na condução dos negócios de alguma instituição privada ou até mesmo do governo. Para entender melhor, assita o vídeo abaixo.

Fonte:http://olhardigital.uol.com.br/produtos/digital_news/google-libera-o-refine-2.0/14911

terça-feira, 16 de novembro de 2010

A realidade é como percebemos, artigo de Marcelo Gleiser

"Einstein e a física quântica derrubaram a objetividade imparcial: a mente e a realidade são inseparáveis"

Marcelo Gleiser é professor de física teórica no Dartmouth College, em Hanover (EUA). Artigo publicado na "Folha de SP":

Semana passada, descrevi como a física moderna vê a realidade como sendo composta de várias camadas, cada qual com seus princípios e leis.
Isso vai contra o reducionismo mais radical, que diz que tudo pode ser compreendido partindo do comportamento das entidades fundamentais da matéria. Segundo esse prima, existem apenas algumas leis fundamentais.

Delas, todo o resto pode ser determinado. Gostaria de retornar ao tema hoje, mas focando num outro aspecto dessa questão que é bem complicado: o que é realidade e como sabemos.

Começo contrastando os filósofos Hume e Kant. Para Hume, o conhecimento vem apenas do que captamos com nossos sentidos.

Baseados nesta informação, construímos a noção de realidade. Portanto, uma pessoa que cresceu sem qualquer contato com o mundo externo e que é alimentada por soros não seria capaz de reflexão. Kant diria que existem intuições já existentes desde o nascimento, estruturas de pensamento que dão significado à percepção sensorial.

Sem elas, os dados colhidos pelos sentidos não fariam sentido.

Duas dessas intuições são as noções de espaço e de tempo: elas costuram a estrutura da realidade, conectando e dando sentido ao fluxo de informação que vem do mundo exterior. Uma mente com estruturas diferentes, portanto, teria uma noção diferente da realidade.

Kant não diz que o sensório não é importante. Para ele, mesmo que o conhecimento comece com a experiência externa, não significa que venha desta experiência. Precisamos do fluxo de informação sensorial, mas construímos significado partindo de nossas intuições: os dados precisam ser ordenados no tempo e arranjados no espaço.

Durante as primeiras décadas do século 20, duas revoluções forçaram uma reavaliação da ordem kantiana. A relatividade de Einstein combinou espaço e tempo. Deixaram de ser quantidades absolutas, tornando-se dependentes do observador.

O que é real para um pode não ser para outro. A teoria de Einstein restaura uma forma de universalidade, pois provê meios para que observadores diferentes possam comparar suas medidas de espaço e tempo.

A segunda revolução veio com a física quântica. Para nossa discussão hoje, seu aspecto mais importante é a relação entre o observador e o observado. Na época de Kant, a separação entre os dois era absoluta. No mundo quântico dos átomos e partículas, a natureza física de um objeto (se um elétron é uma partícula ou uma onda, por exemplo) depende do ato de observação.

Ou seja, as escolhas feitas pelo observador induzem a natureza física do que é observado: o observador define a realidade. E como a intenção do observador vem de sua mente, a mente define a realidade. A mente precisa ainda das intuições a priori para interpretar o real, mas ela participa desta interpretação.

A objetividade imparcial se torna, então, obsoleta, já que mente e realidade tornam-se inseparáveis. Se essa relação na camada quântica afeta outras camadas é ainda objeto de discussão.
(Folha de SP, 14/11)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74712

Natura recebe multa de R$ 21 milhões do Ibama por suposta biopirataria

Empresa alega discordâncias na autorização para ter acesso à biodiversidade

A Natura foi multada em R$ 21 milhões pelo Instituto Brasileiro de Meio Ambiente e dos Recursos Naturais Renováveis (Ibama) por acessos à biodiversidade supostamente irregulares. A empresa vai recorrer da decisão e tem prazo até o dia 24. Os autos de infração somam 64 páginas, segundo Lucilene Prado, diretora de Assuntos Jurídicos da Natura.

Guilherme Leal, um dos sócios da empresa, foi candidato a vice-presidente na chapa de Marina Silva (PV), exministra do Meio Ambiente no governo de Luiz Inácio Lula da Silva (PT). Leal foi o principal doador da campanha de Marina (R$ 11,9 milhões) e figura como um dos homens mais ricos do Brasil, segundo a revista "Forbes". Na Justiça Eleitoral, declarou ser dono de um patrimônio pessoal de R$ 1,2 bilhão.

O diretor de Assuntos Corporativos e Relações Governamentais da Natura, Rodolfo Guttilla, alegou que houve discordâncias em etapas do processo de autorização de acesso à biodiversidade.

- Esta legislação cria barreiras para inovação, pesquisa aplicada, pesquisa pura. Trata-se de uma falta de entendimento - disse Rodolfo Guttilla.

Guttilla afirmou que a empresa concorda e cumpre os princípios fundamentais da Convenção da Diversidade Biológica (CDB), tratado internacional firmado na Rio Eco-92, com o objetivo de promover a conservação e uso sustentável da biodiversidade. Entre esses princípios, estão anuência prévia dos provedores, formalização de contratos e repartição de benefícios justa.

Empresa realiza pesquisas em todo o país

A Natura desenvolve pesquisas em várias regiões do Brasil e hoje, no leque de produtos, oferece cosméticos feitos de cupuaçu, castanhado-pará, andiroba, açaí e pitanga. Além da Natura, o Ibama autuou outras empresas, nacionais e estrangeiras, mas ninguém do órgão foi encontrado ontem à noite para comentar a decisão.

- Na Natura, 3% da receita liquida são investidos em pesquisas e desenvolvimento de produtos. E continuaremos a buscar ativos para novos produtos na biodiversidade brasileira - disse Rodolfo Guttilla, diretor da Natura.

- Repartimos o benefício em 100% quando a pesquisa resulta em produto - acrescentou Lucilene Prado, diretora de Assuntos Jurídicos.

Segundo Guttilla, os pedidos de acesso à biodiversidade da Natura representam 68% de todas as solicitações do Conselho de Gestão do Patrimônio Genético (CGen). O CGen é composto por 11 instituições do governo federal e é o responsável pelas autorizações para exploração comercial de patrimônio genético e Conhecimento Tradicional Associado (CTA).

- Nós temos o compromisso. E o fato é que também ficamos durante meses sem ter nossos processos avaliados pelo CGen, porque não sabem como aplicar a lei. E uma empresa não pode parar. O fato é que existem percepções e entendimentos diferentes. Mas somos uma das únicas empresas a cumprir rigidamente a lei - disse o diretor.

Para empresa, lei não define regras para o setor Lucilene disse que passará o fim de semana analisando os autos da infração e elaborando o recurso. A Natura está confiante em reverter a decisão: - O CGen não é indutor da pesquisa. Ele atrasa e paralisa as pesquisas. E o Brasil precisa usar a vocação da biodiversidade para pesquisa.

A empresa de cosméticos considera que a atual lei brasileira sobre o tema é inconstitucional e não define regras claras para acesso e repartição de benefícios. E fere a livre iniciativa, não protege os direitos das comunidades indígenas e tradicionais, e não promove um ambiente seguro para pesquisa e desenvolvimento.
(Jaqueline Falcão)
(O Globo, 13/11)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74704

A pedagogia por um fio, artigo de José de Souza Martins

"A limitação da controvérsia aos erros materiais e técnicos poupa os responsáveis pelo teor das questões de outra e mais importante avaliação crítica das provas, que deveria ser a dos educadores"

José de Souza Martins é professor emérito da FFLCH-USP e autor de a "Aparição do Demônio na Fábrica" (Editora 34). Artigo publicado em "O Estado de SP":

Toda controvérsia sobre a prova do Enem recaiu exclusivamente sobre erros de qualidade na apresentação física do material aos inscritos. O noticiário diz que nos cadernos amarelos havia questões repetidas e faltantes. Nas folhas de respostas dos testes os cabeçalhos de ciências humanas e de ciências da natureza estavam trocados, o que pode ter induzido os examinandos a erro. Numa empresa privada, um descaso desses acarretaria em demissão dos responsáveis.

Mesmo que se alegue que a restrita parcela dos que se consideraram prejudicados poderá fazer novo exame, há que levar em conta que o princípio básico de uma prova dessas é probabilístico, todos se defrontando com dificuldades iguais. Se as questões da prova substitutiva forem diferentes das questões da prova defeituosa, como terão que ser, fica anulado esse princípio regulador.

A reação do governo federal no sentido de minimizar o acontecimento é deplorável, sobretudo em face do fato gravíssimo do ano passado, em que o sigilo das provas foi violado e seus resultados oferecidos à venda por uma quadrilha. A inépcia já recomendaria cautela redobrada neste ano, que não houve nem mesmo na revisão final do texto antes de encaminhá-lo à gráfica. O caso ficou mais complicado com os dois indevidos pronunciamentos que sobre ele fez o próprio presidente da República. São justificativas de tipo corporativo, que nada justificam.

A limitação da controvérsia aos erros materiais e técnicos poupa os responsáveis pelo teor das questões de outra e mais importante avaliação crítica das provas, que deveria ser a dos educadores. Há problemas de formulação e de conteúdo no elenco das questões apresentadas aos candidatos.

No que diz respeito às ciências humanas, uma notória tendência ao materialismo vulgar perpassa várias questões, reduzindo ao econômico problemas sociais complexos da sociedade brasileira. Essas provas, como acontece com as dos vestibulares, acabam sendo interpretadas como indicadores do que deve ser um bom programa de ensino médio, coisa que estão longe de ser.

A inclusão de temas controvertidos, que comportam distintas interpretações, não é norma de prudência em testes objetivos de múltipla escolha, que pressupõem respostas incontroversas. No entanto, na folha rosa, a questão 2 propõe ao examinando que escolha a formulação indicativa do que é a estrutura fundiária brasileira com base nas Estatísticas Cadastrais do Incra, de 1998. A estrutura fundiária não permanece necessariamente a mesma tanto tempo.

Além do dado antiquado, um dos intervalos vai de 100 ha a 1.000 ha, o que sugere extremos, mas não a gradação no tamanho das propriedades e, portanto, o que é a efetiva estrutura fundiária. Essa estrutura é dinâmica e não pode ser definida com base no recorte de um único ano, sobretudo em face de anos de reforma agrária. Sem contar o erro, na questão 25, quanto ao ano da abertura dos portos por dom João, com a chegada da Família Real a Salvador, em 1808, e não em 1810.

A questão 6, relativa à Guerra do Contestado (conflito ocorrido em Santa Catarina, de 1912 a 1916), a atribui ao surgimento na região de "uma série de empreendimentos capitalistas", quando, na verdade, o que chegou foi o complexo de atividades econômicas de um só empreendimento - o do empresário americano Sir Percival Farqhuar, contratado pelo governo para construir a ferrovia estratégica para o Rio Grande do Sul.

A proposição ou as alternativas não mencionam uma única vez o fato de que a guerra se originou, no plano imediato, de um conflito de divisas entre os estados do Paraná e de Santa Catarina - daí o seu nome. Mas que, no essencial, foi um movimento messiânico e milenarista, ou seja, de natureza religiosa.

Para a prova de redação, de 30 linhas, foi indicado o tema "O trabalho na construção da dignidade humana", com base em dois textos de apoio, um deles sobre a escravidão contemporânea, estereotipado e frágil, impropriamente conceitual. Nele não se faz nenhuma referência ao que é, reconhecidamente, próprio desse regime de trabalho, que é de escravidão temporária por dívida.

O tamanho do problema pode ser medido não só pelas reações no âmbito da Justiça mas também pelos movimentos de estudantes na internet e nas ruas, em andamento ou em esboço. Foram 3,5 milhões de jovens que compareceram às provas. De certo modo colocaram seu destino e seu futuro nas mãos de funcionários do governo ou por ele designados.

Os resultados das provas do Enem abrem e fecham portas. O preenchimento de 83 mil vagas em universidades e instituições federais depende desse exame, parcial ou totalmente. Se as provas tivessem sido realizadas em outubro, como foram as do ano passado, teriam ocorrido entre os dois turnos das eleições. É pouco provável que não afetassem o resultado eleitoral. O que indica que somos frágeis não só na avaliação do rendimento escolar dos estudantes, mas também de competências políticas. Tudo está sempre por um fio.
(O Estado de SP, 14/11)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74699

Google revela nova ferramenta de geolocalização Hotpot

A Google revelou, na passada segunda-feira, a ferramenta Hotpot, a nova aposta da empresa nos serviços de geolocalização.
O Hotpot, que pretende personalizar o Google Places, permite aos utilizadores votarem e comentarem os mais variados locais, através de uma conta no Google, segundo o Mashable.

O Google Hotpot, que vai utilizar os dados do Google Places, possui uma interface simplificada onde são mostrados os locais e respetivos comentários e votações.

O Google pretende igualmente incluir no Hotpot características de redes sociais. Através dos contactos do GMail, os utilizadores podem encontrar amigos e partilhar comentários e recomendações relativos aos locais visitados.

A ferramenta Hotpot vai estar disponível também para smartphones baseados no sistema operativo Android.

Por enquanto, o Hotpot só está disponível nos Estados Unidos, Reino Unido, Austrália e Japão.
Fonte:http://aeiou.exameinformatica.pt/google-revela-nova-ferramenta-de-geolocalizacao-hotpot=f1007795

Seis inovações que o Google poderia não ter criado para o seu buscador

Quando alguém tenta melhorar o que já está bom, fatalmente o resultado é esse. Uma opulência de recursos adicionais que, na verdade, levam a lugar algum.

O Google é bom em encontrar resultados de busca? É. Não há dúvida. Mas, por algum motivo difícil de explicar, a turma que desenvolve o sistema de pesquisas mais usado no mundo tem dificuldade em saber quando parar e deixar o processo algo mais intuitivo e menos automático. Eis seis exemplos de recursos adicionais do Google que, na minha opinião, não fazem a menor diferença:

1. Autocompletar os resultados de busca

Acho bacana o Google mostrar resultados à medida que digito as palavras no campo de buscas. Originalmente batizado de Google Instant, o recurso é , de fato, muito útil. Em seguida veio o Instant Preview. Com base nele o mecanismo de buscas mostra uma pré visualização das páginas com o que o internauta procura. Mas venhamos e convenhamos, alguém é tão impaciente assim a ponto de suportar o frenético sistema de buscas tendo espasmos enquanto você altera uma letra no assunto sobre qual deseja obter informações? Meus pais são os que mais sofrem, pois vêm de um mundo em que, para que algo aconteça, é necessário apertar um botão. Com o Instant essa dinâmica mudou; o Google parece ter vontade própria.

Ainda bem que o recurso pode ser desabilitado. Mas pergunto: Por que, em vez de termos de desligar o Instant, ele não vem desabilitado e funciona somente quando realmente queremos?

2. Zoom automático na busca por imagens

Quero encontrar a foto de um bicho preguiça e sei que vou encontrar no Google Images. Como tenho apenas duas mãos, não mexo no mouse enquanto digito. O problema ocorre quando os resultados aparecem e o cursor do mouse, por acaso, está parado sobre uma das imagens que o buscador encontrou. Ela expande e nega o legítimo direito à visibilidade de resultados próximos. Isso me perturba, pois tenho de parar o que faço para mover o mouse até um canto em que sua presença não acorde o monstro adormecido do Google Images.

Aumentar as imagens simplesmente pelo fato do mouse estar em cima dela é desnecessário. Se eu quiser vê-la maior, clico nela e pronto.

3. Compras no Google

Digamos que eu tenha ficado encantado com o novo MacBook Air e decida comprar um. Vou até a seção de vendas do Google, chamada de Google Product Search e digito lá o nome do produto que me encanta. Assim que termino de inserir o nome do objeto e aperto enter, o Google faz o que faz melhor e apresenta dezenas de ofertas do produto desejado. Mas ele não os separou por preço e, na atual conjuntura, isso faz toda a diferença. Então seleciono a exibição de preços, do menor até o maior. Aparecem as ofertas, algumas no valor de centavos, mas a única relação que elas têm com o MacBook Air é o nome do notebook da Apple em algum lugar do anúncio. Eu não quero comprar um mouse pad para o Laptop fino igual uma caneta, mas o Google não me dá opção de encontrar apenas o produto que originou a busca. Talvez lá pela sexta página, quem sabe na oitava...

4. Login perene

Acho legal ficar conectado à minha conta no Gmail durante as horas em que navego. Infelizmente, isso traz consigo minha permanência em todos os outros serviços relacionados à empresa de Eric Schmidt, e expõe alguns dados referentes ao meus hábitos de navegação que, sinceramente, não desejo partilhar com ninguém. Quando isso se torna chato? Acho que quando quero deixar um comentário no blogger de forma anônima. Não dá. Por padrão estão lá meu nome, email e sabe-se lá o que mais. Responda, se puder: isso faz sentido? Ter de realizar o logoff do Gmail para deixar claro que o autor (meu tio) do artigo mandou mal em suas críticas?

5. Em cachê – bom se fosse

Lembra da época em que, se clicasse na opção “em cachê”, localizada no rodapé dos snippets (resultados de busca) ela nos levava para uma página salva pelo buscador e que continha o termo buscado? Era interessante. Muitas vezes a página fora retirada do ar ou estava inacessível no momento. Então, por que não olhar para sua versão anterior? Quem sabe, o conteúdo que procuro ainda esteja por lá. Mas não é o que acontece. Por diversas vezes não há sinal do conteúdo que procuro nessa versão morta e enterrada da página. Mesmo assim o Google faz questão de apresentá-la. Viva-se com isso.

6. Google Maps e o recurso de scroll

Procura pela localização de algum restaurante ou local semelhante? Google Maps é o jeito de encontrar. Acontece que, assim que o mapa nos é apresentado, com a relação de lugares do lado direito, a função scroll, que normalmente movimenta a relação de resultados para cima e para baixo, se fixa em aumentar e diminuir a resolução do mapa. Como uso o mouse centenas de vezes ao dia, tenho certa dificuldade em lembrar das variações de funcionamento desse recurso nesse ou naquele sites. Faz sentido isso?

(Keir Thomas)
Fonte:http://idgnow.uol.com.br/internet/2010/11/16/seis-inovacoes-que-o-google-poderia-nao-ter-criado-para-o-seu-buscador/

segunda-feira, 15 de novembro de 2010

China lidera o ranking dos supercomputadores mais poderosos do mundo

Ascensão do sistema Tianhe-1A à primeira posição da Top500.org acaba com hegemonia de seis anos dos EUA; Brasil também está na lista.


Uma nova instalação de supercomputador na China chegou ao topo do Top500.org, ranking semestral dos sistemas mais rápidos do mundo.

No novo ranking, que foi divulgado no domingo (14/11), o sistema Tianhe-1A do Centro Nacional de Supercomputação de Tianjin atingiu um desempenho de 2,57 petaflops (quatrilhões de cálculos de ponto flutuante por segundo).

Ele passou o sistema Cray XT5 Jaguar, do Departamento de Energia dos Estados Unidos, que foi o líder da lista anterior e agora cravou 1,75 petaflops.

O Brasil é representado na listas por dois sistemas: um Cray XT6, do Instituto Nacional de Pesquisas Espaciais (INPE), que atingiu 205 Teraflops (ou 0,2 Petaflops), e um Sun Blade x6048 da Universidade Federal do Rio de Janeiro, com 64 Teraflops. Eles ficaram respectivamente em 29.o e 116.o lugares.

A ascensão da China ao topo da lista Top500.org parece repentina. A primeira vez que se ouviu falar de seu sistema foi no mês passado, no jornal New York Times. Sua estreia marca o fim da liderança de seis anos de sistemas americanos, que começou quando o sistema IBM BlueGene/L, do Departamento de Energia, tomou o lugar do Earth Simulator da japonesa NEC.

Na época em que se tornou o computador mais rápido do planeta, o Earth Simulator causou enorme consternação no Congresso dos EUA, que liberou verbas para que o Departamento de Energia construísse sistemas que pudessem restabelecer a liderança daquele país no campo da computação de alta performance.

Resta saber se a crescente presença da China na lista terá o mesmo efeito. Com 42 sistemas, o país asiático se tornou o segundo em número de máquinas na lista. Os EUA, no entanto, lideram com folga, pois tem 275 sistemas.

Em junho, data da divulgação da lista anterior, a China tinha 24 sistemas no ranking.
Fonte:http://pcworld.uol.com.br/noticias/2010/11/15/china-lidera-o-ranking-dos-supercomputadores-mais-poderosos-do-mundo/

Segundo Gartner, interesse por tablets faz consumidor adiar compra de PCs

Curiosidade pela plataforma é uma das responsáveis pelo crescimento abaixo do esperado na produção global de desktops e notebooks no 3o trimestre.

Para a empresa de pesquisas Gartner, o terceiro trimestre é historicamente forte na venda de PCs. Mas os resultados de 2010 ficaram abaixo do nível dos outros anos.

De acordo com suas projeções, o total de PCs entregues pela indústria deveria crescer 12,7%, mas os resultados preliminares mostram que esse total atingiu 88,3 milhões de unidades - 7,6% mais em relação ao terceiro trimestre de 2009.

Mikako Kitagawa, analista da Gartner, apontou o suave declínio na demanda por PCs nos Estados Unidos e na Europa ocidental como o principal fator inibidor do consumo no terceiro trimestre de 2010.

As vendas de notebooks de baixo custo, incluindo os mininotebooks, também sofreram declínio, depois de dois anos de forte crescimento.

Kitagawa também culpou a onda dos tablets pela queda na venda de notebooks. Isso tem levado consumidores a adiar a compra de PCs portáteis, principalmente no mercado americano.

"Os tablets não vão substituir o PC principal, mas eles afetam as compras de PC de várias formas. No estágio em que estamos, a onda dos tablets tem levado consumidores a adotar uma postura de 'esperar para ver' antes de comprar um novo aparelho", explicou.

fonte:http://pcworld.uol.com.br/noticias/2010/11/15/segundo-gartner-interesse-por-tablets-faz-consumidor-adiar-compra-de-pcs/

Era dos leitores de CD e DVD está perto do fim, diz Lenovo

(Jeff Jedras)
Para executivo da fabricante, falta pouco para que drives ópticos tenham o mesmo destino dos leitores de disquete; nuvem e memória Flash são a nova onda.


A tecnologia está sempre mudando. Objetos se tornam arcaicos ao longo de poucos anos. Atualmente, não armazenamos mais arquivos em disquetes de 5,25" ou 3,5", como também não são mais populares os saudosos aparelhos de videocassete, walkmans e vitrolas. Diante dessa constante mudança, uma nova tecnologia pode estar com os seus dias contados: as unidades de disco óptico.

Há anos esse recurso - padrão em muitos PCs e notebooks - tem sido utilizado para instalar softwares, digitalizar coleções de música, fazer back-ups de fotos ou transferir vídeos caseiros para um DVD.

No entanto, segundo Chetan Joshi, executivo da fabricante Lenovo, a demanda de seus clientes por tais recursos está cada vez menor, sendo apenas uma questão de tempo até eles seguirem o mesmo caminho dos disquetes.

"Definitivamente, é possível afirmar, com total segurança, que o uso de unidades de disco óptico será suplantado pelo de ferramentas de armazenamento em nuvem ou por tablets", disse Joshi. "Nosso objetivo é que as próximas gerações de aparelhos portáteis sejam ultrafinos e leves, e, como parte deste avanço, será inevitável que os drivers de CD caiam em desuso."

Uma série de fatores está contribuindo para esta tendência, completou o executivo. "Os preços das mídias em Flash estão caindo rapidamentente, tornando cartões de memória e unidades externas de back-up não só uma alternativa mais barata, como também mais rápida", analisou ele.

Respostas rápidas
"Nós somos uma geração que deseja respostas rápidas e instantâneas e as unidades de Flash nos proporcionam isso. Leva muito tempo para gravar um CD", declarou ele. "Além disso, [a memória Flash] oferece opções de segurança e criptografia", complementou ele.

Por outro lado, nem todos estão otimistas sobre a "morte" do drive óptico. O analista sênior de computação pessoal da empresa de pesquisas de mercado IDC Canadá, Tim Brunt, declarou que em alguns casos as unidades ainda serão úteis.

"Eu não acho que ela seguirá o mesmo caminho dos disquetes porque existem bons motivos para se ter uma unidade óptica. No futuro, ela será uma unidade externa, provavelmente, se comunicando ao notebook ou PC via conexão USB", analisou Brunt.

"Discos Blu-Ray, CDs e DVDs ainda são o padrão de back-up e a maioria dos softwares no varejo ainda utiliza esses recursos", observou Brunt.

Segundo um estudo da IDC Canada realizado em 2009, 27% dos entrevistados citaram que uma unidade óptica era um recurso importante em um computador portátil. Já este ano, o índice caiu para apenas 17%.
Fonte:http://pcworld.uol.com.br/noticias/2010/11/15/era-dos-leitores-de-cd-e-dvd-esta-perto-do-fim-diz-lenovo/