Translate

sexta-feira, 15 de outubro de 2010

A importância da demanda e o software público

Henry Ford foi uma das grandes referências do mundo empresarial no processo de industrialização. Sua notabilidade ocorreu tanto pelos seus erros quanto pelos acertos. Um de seus erros clássicos foi dizer que venderia os seus carros “em qualquer cor desde que eles fossem pretos”. Ford menosprezou o papel da demanda e foi obrigado a reconsiderar sua posição.

No decorrer do processo industrial a demanda – nos primórdios apenas batizada como vendas – começou a ser reconhecida como um importante elo na cadeia de produção, saindo da visão do “eu produzo do meu jeito” para “o jeito de quem vai escolher”.

Com o passar do tempo a demanda mudou algumas vezes sua roupagem e foi rebatizada, sendo um dos mais recentes a denominação cliente. Assim, aos poucos, se cristalizou a reconhecida frase: “o cliente sempre tem razão”.

O fato de ter razão não significa que esteja sempre correto ou que consiga exercer a sua pressão de escolha. Muitas vezes a razão do cliente pode ser acompanhada, subjetivamente, de um comportamento egoísta, vaidoso ou de manipulação de interesse.

Já a ausência da pressão de escolha pode ser observada por diversos motivos: desconhecimento, incapacidade ou até o monopólio do mercado. Percebe-se que alguns atributos são inerentes às capacidades do próprio cliente e os outros se relacionam às suas interações com o mercado, como o caso de uma oferta monopolista.

O lado da demanda

Isto significa que o cliente precisa perceber de imediato a sua importância para exercer o seu peso como “o lado da demanda”, já que uma parte da relação comercial depende da decisão dele próprio. Mas para fazê-lo é necessário reconhecer primeiro os atributos do ambiente em que convive, considerando as características de um determinado bem ou serviço. Algo que exige do cliente conhecimento do mercado em que se inseriu.

Ao acompanhar as transições históricas, torna-se simples aferir a importância da demanda em qualquer estrutura de produção – mesmo em épocas pré-industriais. Foi assim para os fenícios, os árabes e os grandes navegadores, quando buscaram expandir em outras terras seus horizontes comerciais. Eles vislumbravam novos demandantes e oportunidades mercantis.

Atualmente, uma das principais referências do software livre, Richard Stallman, reforça sempre em suas palestras que o modelo de licença por ele criado – base do software livre – serve para aumentar o nível de pressão da demanda. Cabe frisar que o “livre” abordado neste artigo vem da liberdade de acesso ao código, e não de gratuidade.

A diferença fundamental entre os bens comercializados até o final do século passado e aqueles que se tornaram mais valorados nestes últimos dez anos é a “tangibilidade” ou “intangibilidade” do bem. E justamente esta diferença é que influencia e exige muito um novo comportamento para a demanda.

Uma das grandes vantagens que o modelo do software livre proporciona aos seus usuários é a possibilidade da demanda estabelecer o seu poder, e este pode manifestar-se de várias formas: a escolha do fornecedor, o volume do aporte financeiro, o peso de uma ação consorciada. Mas será que o cliente sabe explorar tal capacidade?

Cadeia de produção

A demanda, ao optar por não explorar seu poder potencial, torna frágil a possibilidade de manter a sustentabilidade da cadeia de produção e, consequentemente, amplia mais sua fragilidade ao fortalecer a relação de dependência com algum fornecedor. Ou seja, a demanda transfere para a oferta ou o prestador de serviço a sustentabilidade da cadeia produtiva. Isto gera uma subordinação direta aos interesses de quem oferta e do prestador.

O resultado dessa “deixada” implica que a incorporação de um código relaciona-se muito mais com as intenções da oferta e/ou da prestação de serviço do que com aquele que contratou algum nível de desenvolvimento do código.

Existem duas lógicas que tem prejudicado sobremaneira essa cadeia. A primeira é que o fato de obter gratuitamente o código impõe involuntariamente que o ônus do desenvolvimento recaia sobre o desenvolvedor original (a oferta). O segundo que, ao procurar por um prestador de serviço, a demanda deixa que a empresa contratada escolha o que pode ser feito com o resultado do trabalho.

Sem dúvida os dois problemas acima podem ser considerados os maiores dilemas enfrentados pelo software livre hoje. Como o modelo do software público usa as mesmas premissas do livre, analogamente, ele sofre com o mesmo problema.

Mas esse comportamento da demanda não se justifica. Na verdade ela sofre com a herança das formas tradicionais de contratação de software, onde a demanda acredita que o desenvolvedor original – oferta – e/ou a empresa prestadora de serviço sejam capazes de manterem sozinhos a solução, já que desenvolveram o código ou ganharam dinheiro para tal finalidade.

Mudança de comportamento

Justamente na pressão da escolha que precisamos de ações mais contundentes, um movimento de conscientização e de mudança de comportamento. A disponibilização de um ambiente público para ofertar os códigos auxilia de maneira contundente a demanda a exercer sua pressão. Neste caso, ela tem a possibilidade de realizar um contrato qualquer e definir o que será feito com uma parte ou com o resultado total da contratação.

Mas a mudança mental da demanda não é trivial. Alguém imaginaria em contratar um serviço para resolver um problema interno da empresa que também poderá resolver o problema de uma outra organização? Certamente, uma decisão bem diferente do que estamos acostumados. Mas esse é o papel que a demanda precisa assumir sem “peso na consciência”.

Qual a vantagem? Algo chamado de ciclo virtuoso. Uma contratação surge para incrementar funcionalidades em cima do que já foi desenvolvido. Esse diferencial – corretivo ou evolutivo – se incorpora ao produto, e assim sucessivamente. O novo papel da demanda pode fortalecer a economia de uma forma inimaginável.

Obviamente, nem todas as contratações deverão se orientar pela lógica virtuosa. As questões de segurança, de sigilo e de inteligência do negócio não seguem tal regra, mas reconhecidamente essa é uma pequena parcela do que se contrata no mercado de software.

Software público

E como o software público pode ajudar neste novo papel da demanda? O termo público em sua origem grega significa aquilo que é de todos. Objetivamente, aquele que contrata um serviço “X” pode oferecer o resultado para todo o ecossistema sem carregar a preocupação de que poderá ocorrer alguma apropriação exclusiva ou abusiva.

Assim um próximo contratante poderá gerar com maior segurança outros benefícios com base na contratação “X” anterior. Ao mesmo tempo, todos os usuários terão acesso a esses benefícios e qualquer prestador de serviço será agraciado pelas novas funcionalidades e poderá ofertá-las aos seus clientes.

O lado da oferta, no caso o desenvolvedor de software, há tempos já optou em oferecer o código com licenças mais permissivas (abertas e livres). Agora a demanda precisa assumir o seu papel de movimentar a roda do ciclo virtuoso de produção.

Ainda temos um longo caminho a percorrer. Existe o costume da demanda adquirir algo e dizer: – o meu celular, o meu carro e, lógico, o meu software. A mudança implica na conversão do modelo mental para investir no nosso software. Ao fazê-lo, o demandante assume um papel inovador: com base na relação contratual, beneficiar a todos da comunidade, fortalecer o ecossistema de um software e criar um ciclo econômico virtuoso.

Essas transformações vão ocorrer de forma natural, influenciadas pelo avanço da venda de serviços para software, pela longevidade dos ganhos comerciais e não-comerciais e pelo modelo de produção colaborativa em rede. O desafio é superar a naturalidade dessa transição e acelerar os processos de contratação inovadores, auxiliando a demanda – no caso o contratante – a assumir o seu novo papel.
Fonte:http://computerworld.uol.com.br/blog/governanca/2010/06/30/a-importancia-da-demanda-e-o-software-publico/

Capacitação: problema sem fronteiras

Conhecem algum lugar, onde a demanda por profissionais de TI é maior do que a oferta? Onde o sistema educacional não consegue suprir as necessidades do mercado? Onde a falta de competências em informática pode comprometer o desenvolvimento e a inovação? Bem, estou me referindo à Europa.

Antes da minha expatriação, estava envolvido numa série de atividades para promover a informática brasileira. Meu foco era a transformação das áreas de TI das filiais de empresas multinacionais em centros de competência mundiais. Na Europa, continuei contribuindo com esse movimento e encontrei outros desafios.

A Comunidade Europeia (CE) percebeu que o déficit de capacitação em TI dos profissionais e dos cidadãos comuns ameaça à sua competitividade. Bruxelas lançou grupos de trabalho e colocou a mão no bolso para atacar o problema. Representando a nossa categoria profissional, estavam os mais renomados fornecedores de tecnologia, o que não é suficiente.

Mais da metade da força de trabalho de informática não trabalha nas empresas de TI, mas nos seus clientes, assim como eu. A CE se deu conta e convidou a EuroCIO, uma espécie de federação das associações nacionais de dirigentes de informática, para integrar os trabalhos. As empresas ligadas, direta ou indiretamente, a essa entidade compram mais de 100 bilhões de euros em produtos e serviços de TI.

Pois é aí que eu entro nessa história. Associado da EuroCIO, faço parte de um grupo de trabalho sobre educação em informática, que se integrou à iniciativa da CE. A minha maior surpresa foi me deparar com desafios semelhantes àqueles que enfrentara no Brasil.

Há quase 10 anos, num dos artigos para Computerworld, destaquei as dificuldades das empresas americanas na atração de profissionais de TI. A Europa vive problema semelhante, mesmo com tantos milhões de desempregados. A promoção da carreira de TI torna-se uma ação essencial. Precisamos de um verdadeiro plano de marketing. O universo das profissões ligadas à informática e as possibilidades de desenvolvimento de carreira, seja numa empresa de TI ou em qualquer outro ramo de atividade, ainda são pouco conhecidos.

A TI é muito dinâmica. Produtos e conceitos são renovados de forma muito rápida. O mundo acadêmico tem dificuldades para acompanhar essa evolução. A solução envolve o tripé governo, empresas e sistema educacional. O INSEAD desenvolveu para a CE um vasto programa descrevendo como as três entidades devem colaborar para garantir a formação de uma força de trabalho qualificada, capaz de se reciclar e alavancar a inovação no continente.

Dentro desse espírito, a associação de CIO está validando os currículos de renomadas instituições, para assegurar que os formandos tenham as capacitações requisitadas pelo mercado. Alguns dos programas muito solicitados como, por exemplo, arquiteto de negócios ou gestor de demanda, poderão receber o selo de aprovação da EuroCIO. O conceito aplica-se a programas de MBA e afins.

A Europa está trabalhando desde a inclusão digital até a formação de futuros CIOs. Sem dúvidas, um programa ambicioso, cujo sucesso também dependerá do contexto sócio-econômico. Os EUA enfrentam os mesmos problemas, porém conseguem manter uma saudável máquina de inovação graças à economia mais liberal, a cultura empreendedora e a atração de profissionais qualificados, sobretudo da Ásia. O Brasil deve se espelhar em todas essas iniciativas, não só para organizar o seu próprio mercado, mas também para aproveitar a imensa oportunidade. Depois do sucesso indiano, outros países organizam-se para suprir as necessidades da Europa e EUA.

Fernando Birman é Diretor de Estratégia e Arquitetura de TI do Grupo Rhodia e trabalha em Lyon (França).

Fonte:http://computerworld.uol.com.br/blog/gestao/2010/07/01/capacitacao-em-ti-um-problema-alem-das-fronteiras/

É preciso repensar os protocolos de segurança da Internet

Para ex-conselheiro da Casa Branca,usar verbas no desenvolvimento destes protocolos é melhor do que investir na próxima versão do console Xbox.

O estado de segurança na internet se tornou tão terrível que é preciso questionar os protocolos de segurança da próxima geração, disse na última quarta-feira (13/10) declarou Richard A. Clarke, ex-conselheiro especial do presidente George W. Bush em questões cibernéticas .

"Utilizar verbas no desenvolvimento destes protocolos seria melhor do que investir no próximo sistema do console Xbox, por exemplo", disse ele, que atualmente leciona na Harvard University's Kennedy School for Government.

A intenção de Clarke não foi atingir a Microsoft em si, mas durante uma apresentação de 45 minutos na conferência de segurança RSA, em Londres, ele destacou algumas das principais questões que afetam a segurança na Internet, incluindo os conceitos de ciberguerra e ciberespionagem. Citou ainda a proliferação de softwares maliciosos como Stuxnet, que manipulou sistemas industriais SCADA (controle supervisor e aquisição de dados, em português), como o da Siemens, usando quatro diferentes vulnerabilidades do zero-day.

Entretanto existem muitos outros exemplos de malwares sofisticados, muitos dos quais têm como objetivo roubar contas bancárias online. Outro caso são os ataques conhecidos como Aurora, que resultaram em dezenas de grandes empresas sendo hackeadas, entre elas a Google, mostrando que existe uma falha geral em softwares de segurança, comentou Clarke.

"Em vez de gastar mais dinheiro com antivírus e mais dinheiro em firewalls .... talvez precisemos de sérias reflexões sobre a rearquitetura de nossas redes e assim proteger o que realmente é importante na web", analisou ele.

"Quarenta anos após a criação da Internet, talvez já seja a hora de descobrir outro modelo para a segurança da informação", explicou Clarke. "O custo de investir em pesquisas básicas para mais protocolos de segurança seria ínfimo em comparação aos custos que as empresas e os governos têm com software que não funcionam".
Fonte:http://computerworld.uol.com.br/seguranca/2010/10/14/e-preciso-repensar-os-protocolos-de-seguranca-da-internet/

Como enfrentar o alto risco e o baixo controle de desastres na nuvem

Indisponibilidade é um problema que só tende a piorar com serviços e manutenção deficientes por parte do fornecedor da solução.
Por CIO/EUA

A exemplo do que acontece em outras empresas de pequeno e de médio porte, minha firma usa os serviços do Google para partilhar a agenda (Google Calendar). A solução se comunica de forma decente com servidores para sincronizar emails e não tem custo. Indubitavelmente isso trouxe, a ainda traz, milhões de usuários para a plataforma. Mas essa fama e adoração toda também evitam que as reclamações de usuários ecoem até as instâncias mais elevadas da organização e a impedem de dar conta de falhas presentes no serviço.

Certa vez tivemos um problema que afetou 0,2% dos usuários do Google Calendar por vários dias. Apesar de serem apenas 2 mil contas, o barulho causado pela insatisfação e ansiedade foram grandes.

Peter Sandman desenvolveu uma maneira de prever o nível de descontentamento de consumidores e de clientes. À medida que o percentual de perigo aumenta e o real controle sobre a questão diminui, mais severa pode ser a reação.

Infelizmente as soluções baseadas na nuvem trazem embutidos os dois fatores. Alto risco e baixo controle sobre eventuais desastres. Na nuvem os usuários não enxergam os outros computadores componentes da rede, também não podem realizar diagnósticos ou descer histericamente o corredor e solicitar ajuda do TI. Sequer o usuário de internet mais experiente tem noção acerca do tempo necessário para a correção de falhas e recuperação de dados. Além disso, os usuários não têm como saber se a página em branco apresentada durante a navegação representa uma indisponibilidade do servidor ou a perda completa do contingente de dados.

O Google só piorou as coisas ao deixar de aplicar os recursos necessários para se blindar contra o ressentimento de usuários frustrados com alguns de seus serviços. Adicionalmente a isso, vários sintomas foram potencializados por soluções de terceiros sobre o qual a organização não tem o menor controle.

O que sua equipe pode aprender com isso

Realizar a cópia de segurança com freqüência de todos os arquivos importantes é altamente recomendado. De fato, muitos deixam de realizar essa cópia pelo fato desse processo não ser automático. Então, que tal organizar pelo menos uma operação de backup semanal dos arquivos salvos na nuvem? Certifique-se de incluir nessa cópia os dados do administrador (DBA).

Antes de se filiar para o uso de serviços que rodem na nuvem, certifique-se de que o termo de uso da empresa prestadora de serviços prevê cobertura em caso de interrupções. Avalie a taxa de disponibilidade dos servidores nas planilhas da empresa e estude o ciclo de atualizações de software dos serviços que pretende contratar. O lacônico ícone de OK e não-OK do Google não é suficiente para essas avaliações.

Analise o histórico de interrupções de serviços do provedor à procura de evidências nas atualizações de vários quesitos técnicos. Se não as encontrar, mal sinal.

Visite os fóruns de discussões dos usuários em comunidades virtuais. Veja como atendem às solicitações de usuários. Se respondem de forma satisfatória e com que velocidade realizam as correções.

Se as intenções de sua organização com a ida para a nuvem forem sérias, esteja preparado para montar sua própria equipe de emergências par dar conta de três pontos cruciais:

1. verificar se o erro não é ocasionado por quem opera o sistema do lado cliente

2. identificar quais etapas de interação entre o cliente e o provedor estão ocasionando os erros.

3. documentar precisamente as ocorrências e as maneiras usadas para contornar as falhas e acompanhe os deadlines prometidos para correção de interrupções de serviços e outras falhas.

Fonte:http://computerworld.uol.com.br/tecnologia/2010/10/14/cloud-computing-nuvem-server-downtime/

IBM cria pacote de computação em nuvem para teles

Com a oferta, companhias de telecomunicações poderiam iniciar a oferta de infraestrutura e aplicações como serviço.

A IBM está oferecendo às empresas de telecomunicações um pacote que inclui hardware, software e serviços para que essas companhias prestem serviços de nuvem para as corporações.

Dentro do serviço está incluída a plataforma de nuvem da IBM, com gerenciamento de serviço, monitoramento de rede, segurança, armazenamento, além de gerenciamento de acordo de nível de serviço, de uso e de contabilidade.

Com a plataforma, as empresas de telecomunicações podem oferecer infraestrutura e aplicações como serviço para outras companhias. A oferta já conta com a aderência de empresas como Netapp e Juniper Networks, que pretendem integrar suas aplicações e produtos na plataforma.

Segundo a analista da consultoria IDC, Elisabeth Rainge, o produto é o mais abrangente do mercado e cria uma nova categoria, que deve ser seguida pelos concorrentes em breve.

As empresas France Telecom, Shangai Telecome SK Telecom já fizeram testes pilotos com a plataforma da IBM. O braço corporativo da Orange também já usa a plataforma para oferecer infraestrutura como serviço para seus clientes.
Fonte:http://computerworld.uol.com.br/telecom/2010/10/14/ibm-cria-pacote-de-computacao-em-nuvem-para-empresas-de-telecom/

Confira as carreiras do momento no mercado de TI

Pesquisa da IBM mostra que profissionais com habilidades em cloud e mobilidade serão os mais procurados nos próximos cinco anos.
Por CIO/EUA

O mercado de computação em nuvem e de aplicações em plataformas móveis são listados nos rankings das principais tendências de tecnologia há algum tempo, mas só a partir de 2011 esses segmentos devem realmente decolar. Com isso, os recrutadores já buscam preparar as melhores equipes para esse movimento.

Uma pesquisa anual da IBM em todo o mundo identificou que profissionais com habilidades em cloud computing e mobilidade serão os mais procurados nos próximos cinco anos. Dentre os dois mil profissionais de TI ouvidos, 91% esperam que a computação em nuvem supere as infraestruturas tradicionais como modelo primário de entrega de computação até 2015.

Além disso, 55% acreditam que, no mesmo prazo, as aplicações para dispositivos móveis superam os modelos tradicionais de desenvolvimento para PCs e servidores. Com essas crenças, é natural que as expertises nessas áreas sejam as mais buscadas.

Como efeito colateral, os profissionais de data centers, que empregam milhares de pessoas, devem se preocupar em adquirir um grande número de novas habilidades relacionadas aos novos conceitos. “A automação de tarefas reduz a necessidade de expertise em instalação de tecnologias e de aplicações, já que os fornecedores entregam produtos completos e integrados. Isso vai exigir uma mudança de área de uma boa parcela dos profissionais atuais”, avalia o gerente global de canais da IBM, Bob Getchell.

Getchel afirma que os funcionários dessas áreas devem aprender a projetar catálogos de serviços, definir templates de oferta, além de escrever fluxos de trabalho técnicos e de negócios para automatizar requisições de serviços.

No campo das aplicações, os profissionais terão de entender como as várias plataformas móveis são construídas e mudar a metodologia de desenvolvimento. Segundo o vice presidente de relações com desenvolvedores de software da IBM, Mark Hanny, entender a experiência do usuário é mais importante do que nunca no campo móvel. Outro conhecimento imprescindível será HTML5, elemento fundamental para a mobilidade.

Outras oportunidades
Além de computação em nuvem e desenvolvimento de aplicações móveis, os profissionais pesquisados pela IBM esperam que mídia social e soluções analíticas e de BI (business intelligence) ofereçam oportunidades para crescimento na carreira de TI e um emprego seguro.

Quanto às indústrias com maior potencial de contratação, entram telecomunicações, serviços financeiros, saúde e energia. A pesquisa indica que nove em cada dez profissionais acreditam que os profissionais de TI precisam ter conhecimentos específicos da indústria que pretendem atuar e que esse fator se tornou mais crítico do que nunca em áreas técnicas. Apesar disso, somente 63% julgam que possuem esse conhecimento necessário para se manterem competitivos.

Fonte:

ELEIÇÕES COM SUSTENTABILIDADE

Fonte: Roberto Rodrigues (*), Folha de São Paulo de 09.10.2010
É preciso debater, além do desmatamento, o que se tem feito em relação às florestas plantadas no país

ANALISTAS POLÍTICOS experientes vêm apontando uma obviedade absoluta em relação ao segundo turno das eleições: graças à espetacular escalada da senadora Marina Silva nos últimos dias da campanha para o primeiro turno, o tema "meio ambiente" ganhou uma dimensão muito significativa, devendo ocupar grande espaço nas plataformas dos dois candidatos à Presidência da República.

É bem verdade, como também apontam os especialistas, que a votação da senadora deveu-se mais a ela mesma do que ao tema em si, uma vez que candidatos destacados de seu partido fracassaram nas eleições para o governo de diversos Estados. Marina teve um discurso à frente do tempo dos concorrentes.

Mas a questão da sustentabilidade é hoje uma unanimidade universal: não há um terráqueo que não se preocupe com o aquecimento global, com a preservação dos recursos naturais, especialmente a água. Este ótimo discurso atraiu a juventude idealista e a enorme parcela de eleitores insatisfeitos com a performance dos demais candidatos.

Portanto, a senadora terá papel preponderante na campanha, e a temática ambiental também, sobretudo pelo amplo debate que se estabelecerá. É um importante avanço para a sociedade brasileira e nos colocará na vanguarda global quanto ao assunto, mormente quando o mundo se prepara para a retomada das conversas frustradas da COP-15.

E, com certeza, dois aspectos serão destacados no cenário nacional: o desmatamento da Amazônia e o papel da agropecuária no desenvolvimento do Brasil.

A própria revisão do Código Florestal em andamento no Congresso Nacional será, de alguma forma, permeada pelo novo patamar do tema ambiental, que, escoimado de radicalismo, ideologias ou paixões, possibilitará a construção de um projeto de desenvolvimento sustentável para o país, exatamente a partir de políticas que qualifiquem o agronegócio.
Além da redução do desmatamento, é preciso ver o outro lado, o que se tem feito no país em relação às florestas plantadas.

O Brasil já é um dos maiores plantadores de florestas do mundo. Seja para atender à demanda da indústria de papel e celulose, seja para a simples recuperação de áreas degradadas, temos hoje 6,3 milhões de hectares plantados com florestas, e 100% da produção de papel e celulose vem desse setor: não se derruba uma só árvore nativa para isso.

Aliás, o Brasil é o quarto maior produtor mundial de celulose e o nono maior de papel, crescendo em ambos os segmentos graças à enorme competitividade, determinada exatamente pela plantação de florestas em nosso imenso território.

É interessante o fato de que, além de plantar quase toda essa área, o setor de celulose e papel mantém 2,9 milhões de hectares de florestas nativas para preservação, recuperação e estudos da biodiversidade.

Cerca de 2,7 milhões de hectares são certificados pelo FSC (Forest Stewardship Council) e pelo Programa Nacional de Certificação Florestal.

E os programas de parceria florestal desenvolvidos pelo segmento de papel e celulose têm um aspecto social relevante: são mais de 20 mil pequenas e médias propriedades rurais abrangidas, gerando 600 mil empregos diretos e indiretos. As florestas plantadas absorvem 1 bilhão de toneladas de CO2 da atmosfera por ano!

Vale a pena, enfim, revelar esse aspecto pouco conhecido da agricultura brasileira. Porque os demais setores são mais notórios, especialmente o dos grãos.

Nunca é demais repetir que nos últimos 20 anos a área plantada com grãos no Brasil cresceu 25%, e a produção, 157%, o que significa uma "economia" de 42 milhões de hectares de florestas ou cerrados.

Ou que a emissão de CO2 da cadeia produtiva de cana (cujo aumento de produtividade desde o início do Proálcool também preservou 5 milhões de hectares), é apenas 11% da emissão de CO2 da gasolina.

São dados importantes para o debate que se dará oportunamente na campanha para o segundo turno: é a sustentabilidade nas eleições.

ROBERTO RODRIGUES, 67, coordenador do Centro de Agronegócio da FGV, presidente do Conselho Superior do Agronegócio da Fiesp e professor do Departamento de Economia Rural da Unesp - Jaboticabal, foi ministro da Agricultura (governo Lula). Escreve aos sábados, a cada 15 dias, nesta coluna.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_10_14&pagina=noticias&id=05997

FOMOS INGÊNUOS, DIZ LÍDER EM GENÔMICA

Fonte: Ricardo Mioto, Folha de São Paulo de 14.10.2010
Para chefe de pesquisa com genoma humano nos EUA, erro da sua área foi prometer avanços médicos rápidos

Dez anos após leitura do genoma humano, mostrar como genes e doenças se relacionam se mostrou complexo

Um dos grandes líderes da pesquisa com genoma humano no mundo, Eric Green, diretor do Instituto Nacional de Pesquisa do Genoma Humano (EUA), fez, em visita ao Brasil, um mea-culpa pelas promessas não cumpridas do genoma humano.

Dez anos após o sequenciamento ser apresentado, ele reconhece que analisar os dados levantados e relacionar determinados genes a determinadas doenças se mostrou algo difícil de fazer.

"Muitos de nós pensamos que rapidamente entenderíamos como o genoma se relacionava com as doenças, e que muito rapidamente isso mudaria toda a medicina", disse ele à Folha.
"Agora percebemos que há muito mais passos no caminho e que eles vão exigir muito trabalho. O que nós fizemos de maneira ingênua foi talvez prometer que avanços médicos viriam rápido."

É necessário, diz ele, rever a fala do seu colega Francis Collins, na apresentação da sequência do genoma humano, em 2000. Na época, Collins dizia que, em dez anos, testes genéticos diagnosticariam câncer, Alzheimer e diabetes. Não aconteceu.

"Nós realmente acreditávamos nisso. Mas não ter acontecido não significa que exista algo errado com o nosso campo", diz Green, que esteve no Brasil para o Simpósio Avanços em Pesquisas Médicas, da USP.

"Se você olhar para os avanços médicos na história, dificilmente você vai encontrar algo que deixou de ser uma descoberta científica básica e realmente mudou a prática da medicina em uma década", diz o cientista.

"São sempre 20, 30, 40 anos antes de você conseguir isso. Se tivéssemos sido lembrados disso há 10 anos, provavelmente teríamos visto tudo de maneira diferente."
Além das interações entre genoma e doenças terem se mostrado complexas, Green lembra que há uma limitação de recursos humanos.

"Não há gente jovem suficiente treinada tanto em computação quanto em biologia, e precisamos de gente boa nas duas áreas."

Somente gente com essa formação cruzada pode desenvolver maneiras de analisar a imensidade de dados sobre o genoma que já existe.

Essa quantidade de informação tremenda surgiu porque se tornou barato sequenciar trechos do genoma humano -os cientistas ainda estão longe de conseguir transformar tudo isso em algo útil aos hospitais, porém.

O preço baixo fez com que empresas vendessem análises individuais do genoma de quem quiser pagar umas poucas centenas de dólares. Green, porém, acha que pode ser jogar dinheiro fora.

"Algumas pessoas fazem porque são muito paranoicas com a saúde, outras porque têm casos de doença na família, outras porque as análises têm um valor de entretenimento. Pode ser divertido, mas também pode causar confusão. Porque o que você faz com a informação, digamos, de que você tem 3% a mais de chance do que a média de ter hipertensão?"
Fonte:http://www.sbpcpe.org/index.php?dt=2010_10_14&pagina=noticias&id=06005

TECNOLOGIAS PARA FAZER TECNOLOGIA$

Fonte: Fábio Gandour, Revista Época Online de 13.10.2010
Como tapar o buraco entre teoria e prática para a ciência funcionar como negócio.

Aqui está um artigo que deveria vir junto com um vale-Prozac! Um cupom que lhe permitisse ir à farmácia mais próxima e com ele ganhar um comprimido de um anti-depressivo qualquer. Antes de ler o artigo, claro! Porque hoje a gente chuta um balde cheio de coisas complicadas, indispensáveis e, para os operários da ciência, os pesquisadores, certamente ainda um pouco depressivas. Agora deixa o Prozac aí do lado e vamos nessa!

Quem presta uma atenção mínima nos meios de comunicação com certeza já notou que o nosso país passa por uma espécie de epidemia de ciência, tecnologia e pesquisa. Felizmente, as instituições despertaram para a necessidade de investir em projetos de pesquisa, principalmente as instituições privadas, acreditando que esse investimento pode trazer um bom retorno a médio e longo prazos. É a descoberta da “Ciência como Negócio”, uma colocação que criei depois de muito refletir sobre os modelos de financiamento das atividades científcas. Tenho repetido esse título em vários ambientes. As reações variam, mas, em geral, há mais aceitação do que recusa. E o nosso governo reagiu bem à altura do novo interesse pela Ciência como Negócio, na adequada esperança de vê-la atuar como mais um motor da inovação.

Mas, se tudo parece estar resolvido a partir do alinhamento entre o interesse privado e o apoio público à Ciência & Tecnologia, tenham certeza de que ainda falta alguma coisa. Bastante coisa!

Esta época do ano, quando se anunciam os ganhadores dos prêmios Nobel e a Finep recebe propostas de projetos de pesquisa para liberar seus financiamentos, parece bem adequada para a tomada de consciência e discussão destes hiatos existentes na Ciência como Negócio. É boa a hora para entrar nos buracos ainda existentes.

Pensemos nos ganhadores do prêmio Nobel de Física: A. Geim, de 52 anos, e K. Novoselov, de 36 anos. Os dois nasceram na Rússia, mas trabalham na Universidade de Manchester, na Inglaterra, onde desenvolveram uma nova forma de apresentação do Carbono, chamada Grafeno ilustrado aí no início deste artigo. O Grafeno é considerado atualmente o material mais resistente que existe, além de ser um bom condutor de energia elétrica. As expectativas de utilização do Grafeno são enormes!

E o que tem dentro do Grafeno? Carbono, só Carbono, apenas Carbono! A esta altura, alguém aí pode estar pensando que se dois cientistas russos, trabalhando na Inglaterra, conseguiram ganhar um prêmio Nobel a partir da construção de um material que só contém Carbono, dois brasileiros, trabalhando no Paraguai ou em Jundiaí, também poderiam obter o mesmo resultado. Afinal, Carbono tem em todo lugar!

É nesta suposição válida apenas parcialmente que aparecem os hiatos a serem preenchidos a partir de agora, os buracos da estrada que ainda temos que tapar para que a epidemia de ciência, tecnologia e pesquisa se transforme em um eficaz agente de inovação e gere o capital necessário para financiar o seu próprio futuro. Afinal, na Ciência como Negócio, é preciso ter lucro, igualzinho a qualquer outro negócio.

O nome de um desses hiatos pode ser resumido em uma palavra: instrumentação. Assim, para transformar o Carbono que a gente conhece – preto, feio e quebradiço – em uma lâmina de Grafeno – flexível, resistente e transparente como esta da ilustração – é preciso contar com vários instrumentos! A pesquisa de vanguarda exige instrumentos sofisticados, caros, de manutenção delicada e que requerem operação feita por mãos e cérebros bem treinados. Instrumentos que certamente não existem na Rússia, nem em Jundiaí e muito menos no Paraguai, mas que existem em abundância nas universidades e centros de pesquisa da Inglaterra. Entendeu agora o que dois russos foram fazer em Manchester?!

Neste nosso maravilhoso país tropical, repleto de recursos naturais e gente talentosa, temos grandes cientistas, que conseguem compreender as mais complexas formulações teóricas, conseguem propor as mais criativas soluções conceituais, mas que infelizmente acabam não sendo capazes de atravessar a ponte entre a teoria e a implementação prática porque lhes faltam instrumentos. Falta a instrumentação. Vale notar que a definição de instrumentação evoluiu muito ao longo do tempo. No passado, chamava-se de instrumentação a área relacionada apenas com os aparelhos de medição e controle dos experimentos. Hoje, a instrumentação inclui instrumentos de intervenção nos materiais. E, não raro, esta intervenção é até destrutiva para permitir o conhecimento íntimo das estruturas.

De fato, é melhor dizer que falta ao país uma indústria produtora de instrumentos de apoio à pesquisa. Construir instrumentos, mesmo os gigantes como o Grande Colisor de Hádrons, exige conhecimentos muito específicos e uma mão de obra treinada para lidar com coisas bem delicadas e precisas. Esta também nos falta. Temos o macro, o gigante, o grosso. Mas nos falta o micro, o pequeno, o fino. Mais ou menos assim: temos toneladas intermináveis de jazidas minerais, mas nos falta a micromecânica para estudar um, apenas um átomo de Ferro. Milhões de barris de petróleo soterrados no pré-sal, mas falta a química fina, que melhora os catalisadores das reações na produção etanol.

Desenvolver esta indústria não é lá muito fácil. Fabricar instrumentos quase sempre exige a incorporação de conhecimentos e componentes já construídos anteriormente e protegidos por patentes. Daí, o investimento inicial é alto, mas a expectativa de retorno também é. O fabricante de instrumentos de precisão também tem que se dedicar a treinar a mão de obra que vai operar esses instrumentos para que eles funcionem adequadamente, o que faz dessa indústria uma criadora explosiva de empregos. Ela absorve gente na linha de montagem e mais gente que será entregue quase que dentro da mesma caixa dos instrumentos, para poder operá-los e mantê-los funcionando. De fato, não é fácil, mas é indispensável!

E, nesta época, em que se discutem um novo comando para o país e os rumos que serão trilhados daqui pra frente, parece também oportuno pensar no que seria necessário para desenvolvermos uma indústria que produzisse instrumentos de uso em pesquisa, suas peças de reposição e seus operadores qualificados.

Com este buraco bem tampado, desaparece o hiato entre a teoria e a prática, surge a ponte que vai permitir aos nossos cientistas aplicar a bem sucedida formulação teórica em um contexto prático. É aí, na prática, que a ideia inovadora vira produto, o produto vira dinheiro e o dinheiro alimenta e faz crescer o negócio da ciência.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_10_14&pagina=noticias&id=06004

ENSINO DE CIÊNCIAS AGORA É CHAMADO DE STEM

Fonte: The New York Times de 12.10.2010
Se você quiser falar sobre o reforço do ensino de matemática e ciências nas escolas americanas, vou gritar e agitar com prazer meus pompons virtuais .

A economia, o fascínio global e o futuro dos Estados Unidos dependem da força de sua estrutura científica.

Mas mencione o termo em inglês cada vez mais odiado "STEM education" que minha vibração de líder de torcida acaba de vez.

E não estou sozinha em meu descontentamento.

Para os leitores que até agora foram poupados da exposição a esta concatenação de letras maiúsculas, ou que muito compreensivelmente tenham interpretado mal seu significado, a sigla STEM em inglês significa Ciência, Tecnologia, Engenharia e Matemática, supostamente os principais grupos de uma educação científica abrangente.

Os aficionados pronunciam STEM exatamente como o nome em inglês para a parte da planta (caule), como o tipo de célula (tronco), como o que se faz com uma maré (conter) e que eu desejaria fazer com esta moda, mas provavelmente é tarde demais.

Participe de um congresso, simpósio ou encontro científico com o tema nefasto "ciência na sala de aula e por que nossos estudantes não vão tão bem nos testes internacionais como os de Cingapura " e você vai ouvir muito pouco sobre como ensinar trigonometria ou distribuir picolés durante as competições e gincanas esportivas, mas será bombardeado com referências ao STEM.

Um relatório recente do conselho de ciência e tecnologia do governo americano oferece muitas ideias interessantes para melhor a educação científica, como a criação de um "corpo especial" composto pelos melhores professores de ciências do país, que seriam responsáveis pelo treinamento dos demais professores.

Porém, a palavra STEM continua batendo em suas páginas como a gordura escorre de um sanduiche de queijo.

Mesmo aqueles que usam o termo STEM admitem que ele é profundamente falho.
Para os iniciantes, ele é confuso e sem graça.

"Todo mundo que conhece o termo sabe o que ele significa, e todos os outros não", diz Eric Lander, presidente adjunto do conselho consultivo do presidente dos Estados Unidos e chefe do Broad Institute do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade de Harvard.

Quando ouviu pela primeira vez a sigla, ele pensou que fosse uma referência demasiado bonita para a botânica."Eu pensei: educação caule? E a educação flor? ", conta ele.

Atualmente, devido à fixação do público nas células tronco embrionárias - células progenitoras, que dão origem a todos os diferentes tecidos do corpo - o potencial para confusão é ainda maior."As pessoas ouvem falar em educação STEM e pensam que algum embrião fora prejudicado no processo", diz Lander.

O termo também soa como jargão, motivo pelo qual Sally Ride, a ex-astronauta que agora viaja pelos Estados Unidos promovendo o sucesso da educação científica para meninas, disse que evita pronunciá-lo.

"Por causa de minha experiência na NASA, sou perfeitamente capaz de falar somente em siglas, incluindo os verbos", diz ela.

"Mas isso não é muito útil quando se fala para o público em geral." As impressões de Ride são bem fundamentadas.

De acordo com os resultados de uma pesquisa divulgada no mês passado pela ONG do Conselho das Indústrias de Entretenimento, em que cerca de 5.000 participantes foram questionados se sabiam o significado de "STEM education", 86 por cento disseram que não.

"Eles lembraram das células tronco, caules e talos de brócolis", relata Brian Dyak, presidente do grupo.

E acrescentou: "temos aqui um problema de marca." Mas é uma marca que vale a pena lançar? Alguns críticos consideram a sigla desnecessária e potencialmente autodestrutiva.

O que há de errado com o simples ensino de ciências ou, se necessário, com o ensino de ciências e matemática? O que aconteceu para que as disciplinas exigissem a invenção de um acrônimo? "O administrador de programas de ensino de uma fundação me perguntou recentemente: 'você trabalha com STEM ou com o ensino de ciências?'", relata Elizabeth Stage, diretora do Lawrence Hall de Ciências da Universidade da Califórnia em Berkeley.

"Então eu desenhei um diagrama de Venn, mostrando-lhe o que é central para as ciências e como isso se sobrepõe à tecnologia, à engenharia e à matemática." Stage, que é matemática de formação, acha que a sigla é uma "falsa distinção" para destacar as diferentes disciplinas e que prefiriria muito mais se concentrar no que estas áreas têm em comum, como a resolução de problemas, argumentação de provas e conciliação de pontos de vista conflitantes."Isso é o que deveríamos ter como objetivo central", disse ela.

A decisão de incluir engenharia e tecnologia no ensino foi feita na década de 90, quando a National Science Foundation - fundação americana dedicada à ciência - e outras agências do governo dos Estados Unidos passaram a elaborar normas nacionais para o ensino científico, especificando o que os alunos deveriam aprender durante o ano letivo, desde o jardim de infância até o fim do ensino médio.

"Lembro que foi explicitado que as ciências abrangem mais do que a disciplina de ciências em si.

Então começamos a receber pedidos para incluir tecnologia, matemática e engenharia", conta Stage.

Economia e pragmatismo também fazem parte da equação.

Como o governo americano se volta cada vez mais para as empresas, a fim de pedir ajuda para pagar as melhorias nos laboratórios de ciências das escolas, a necessidade de enfatizar a ligação entre um amplo ensino de ciências e a mão de obra técnica do futuro cresce por este motivo.

"Muitas empresas trocam informações sobre o que está se fazendo em relação à educação STEM", diz Stage, inclusive grandes empresas de engenharia e tecnologia, como a Exxon Mobil, a Intel e a Hewlett-Packard.

Lander afirma que que há um acordo tácito para o espírito que está por trás do STEM.

"A ciência está descobrindo as leis do mundo natural e a matemática não é isso.

Ela é lógica, sua verdade é dedutiva e suas experiências não contêm sinais de erro", diz ele.
"Mas quando você começa a estudar tecnologia e engenharia, conhece um mundo diferente daquele que fora descoberto", acrescenta.

Ele gostaria de encontrar um termo melhor do que o atual, mas disse que tentou "todas as quatro variações fatoriais" das letras e as alternativas são impronunciáveis ou já são utilizadas por times de beisebol.

Ride observa que uma versão anterior da sigla oficial era na verdade SMET e que "felizmente desistimos dela", conta.

Outras pessoas não enquadram a palavra "ciência" de forma tão restritiva.

A ciência sempre envolveu a base e a aplicação.

Além disso, os impulsos para explorar e inventar sempre estiveram ligados.

Galileu construiu um telescópio e praticou com o céu.

Os avanços tecnológicos iluminam cenários que vão além dos nossos sentidos naturais.

Tais conhecimentos, por sua vez, melhoram nossos brinquedos científicos.

Os engenheiros usam a matemática, a física e toda a mentalidade científica em seus projetos.

Mas aqueles que não o fizerem, por favor nos avisem, pois assim voaremos em outras aeronaves e não atravessaremos suas pontes.

O que aconteceu com a necessidade de um pensamento interdisciplinar? Por que promover uma marca que codifica a atomização? Além disso, as siglas incentivam os "eu-duismos".

Dyak conta que algumas pessoas têm feito lobby para a inclusão da medicina no programa escolar, acrescentando mais um M à sigla."Chamamos de STEM ao quadrado", diz ele.

"Mesmo as artes estão procurando uma posição ortográfica", acrescentou.

Educação STEAM (que inclui "arts" e passa a significar vapor): grandes livros, laboratórios e placas de computador.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_10_14&pagina=noticias&id=05999

A SÍNDROME DE VON NEUMANN

Fonte: Vida, Ciência e Tecnologia de 11.10.2010
No início da era da Computação, vários foram os esforços para que computadores mais eficientes fossem desenvolvidos, mas que principalmente houvesse um padrão de arquitetura. Arquiteturas heterogêneas implica em também diversas metodologias e paradigmas de programação.

Na década de 30 John Von Neumann, então professor e pesquisador da Universidade de Princeton, EUA, propôs uma arquitetura que revolucionou a computação. Desde então não se viu inovação que impactasse tanto a humanidade.

O que ele propôs foi que deveria haver uma memória que armazenasse tanto dados, como instruções a serem executadas por uma Unidade Central de Processamento (CPU). Tal unidade seria também responsável por ler a instruções dessa memória – armazenadas em código – decodificá-las e então executá-las. Essa proposta foi rapidamente acatada pela comunidade acadêmica e industrial devido a grande flexibilidade que isso significava. Como as instruções poderiam ser armazenadas em memória, fazer com que o computador executasse novas operações desejadas, bastaria escrever uma nova seqüência de instruções na memória. Daí se popularizou o software! Sendo assim, podemos dizer que Von Neumann é o pai do Software?

Aliada a essa inovação, uma outra criação veio revolucionar a humanidade. O transistor digital baseado em silício. Ele permitiu que computadores pudessem ser fabricados de larga escala. Com a miniaturização crescente dos transistores, processadores puderam ser fabricados cada vez menores e com mais transistores, portanto, com maior capacidade de processamento e maiores memórias para dados e a programas cada vez mais complexos.

Assim que os primeiros transistores começaram a ser fabricado, o cientista Gordon Moore, que acabava de fundar uma empresa com mais dois amigos para fabricação de microchips (a Intel) fez uma previsão no mínimo animadora. Ele previu que a tecnologia de fabricação de chips iria avançar tanto, que a cada 18 meses, o dobro de transistores seria colocado num chip sem que o preço de fabricação fosse modificado. E o que isso significava? Os processadores iriam dobrar sua velocidade a cada 18 meses! O mais lógico seria chamá-lo de ingênuo, ou simplesmente ignorá-lo. Isso se depois de um ano e meio depois sua previsão não tivesse se tornado realidade. Mais do que isso, sua previsão virou lei, sendo denominada Lei de Moore e tornou uma meta industrial! Toda a comunidade científica passou a buscar criar processadores cada vez mais rápidos, e parecia sempre muito gratificante ver o crescimento da tecnologia acompanhar a reta descrita por Moore. Mas uma falha muito óbvia em sua lei é que nada cresce para sempre! Tudo tem um fim.

Hoje em dia, a base da Arquitetura de von Neumann, o software, pode ser considerada um overhead. A vantagem do software é a flexibilidade que ele permite ao hardware. Cada instrução pode detalhar o que o hardware deve executar. Mas ao mesmo tempo, os passos básicos de processamento de instrução é geralmente muito custoso: carregamento, decodificação, carregamento de dados, execução e armazenamento de resultados. Como o avanço das memórias não acompanhou o avanço da velocidade de processamento, os processadores hoje são cerca de 3x mais velozes que as memórias mais rápidas.
Sendo assim, o excesso de dependência dos processadores de acesso a memória (típico da Arquitetura de von Neumann) torna os computadores máquinas de baixíssima eficiência, tanto no processamento, quanto no consumo de energia! Para se ter uma visão mais concreta dessa ineficiência, basta observar quanto tempo o processador passa realmente processando dados. Numa máquina RISC típica, 5 ciclos de clock são necessários para cada instrução. Desses, apenas um (20%) é usado na execução propriamente dita da instrução. Se os dados necessários não estiverem na Memória Cache, isso pode piorar, caindo para cerca de 14,3%. Essa ineficiência pode ser reduzida se o processador usar Pipeline, mas isso dependerá de um bom compilador, de boa técnica de programação e de como o usuário irá usar o sistema.

Uma pergunta que você deve estar fazendo no momento é, se os computadores que conhecemos hoje não são eficiente, o que seriam então? Estariam todos errados e apenas esse cara que escreve esse blog estaria certo?

Há outras arquiteturas de computadores mais eficientes do que os processadores que conhecemos. A Computação Reconfigurável é uma tendência muito forte nesse sentido. Ela pode ser muito mais rápida, mais barata e consumir menos energia do que os processadores que conhecemos. A diferença é que ela não é tão fácil (ainda) de programar, nem tão flexível quanto os softwares. Entretanto, pesquisas já têm mostrado que chips Dinamicamente Reconfiguráveis podem adicionar o grau de flexibilidade – e de competitividade – que essas arquiteturas precisavam para competir diretamente com processadores de propósito geral.

Mas se fôssemos adotar essas arquiteturas, o que nós profissionais precisaríamos? Mudar a arquitetura tão radicalmente necessitaria de novas linguagens, paradigmas e técnicas de programação. Esse é o principal problema! Teríamos que causar uma revolução na educação básica da computação! O que temos que nos perguntar é, vamos esperar os computadores entrarem em colapso para mudarmos de paradigma, ou devemos estar preparados para essa mudança? Se os computadores são tão ineficientes no uso da energia elétrica, o que diriam os grandes servidores espalhados pelo mundo?

Vamos nós da Ciência da Computação estarmos entre os principais causadores dos danos causados ao ambiente devido ao uso indevido da energia elétrica? Essas são questões que serão discutidas em outros momentos nesse blog. Mas uma coisa é certa, eu não vou ficar esperando quieto. E você?
fonte:http://www.sbpcpe.org/index.php?dt=2010_10_14&pagina=noticias&id=05982

Ética e pesquisa, editorial da "Folha de SP"

"A cautela não pode confundir-se com procrastinação"

Leia o editorial:

Pesquisas clínicas, um requisito para desenvolver e licenciar novos fármacos e tratamentos, tornaram-se um fator decisivo para estabelecer uma indústria farmacêutica inovadora. Tais estudos -que podem envolver milhares de pacientes e voluntários- constituem também uma atraente fonte de receita para profissionais e instituições de pesquisa.

Em que pesem algumas vantagens comparativas, esse mercado engatinha no Brasil, como assinalou em entrevista à Folha Antônio Britto, presidente-executivo da Interfarma (Associação da Indústria Farmacêutica de Pesquisa). Em 2009, a entidade já havia alertado que só 1,6% das pesquisas clínicas ocorrem no país.

O Brasil conta com uma riqueza valorizada pela indústria: diversidade. Com cerca de dois terços da população dos EUA, onde se realizam 63% dos testes, o país recebeu também várias etnias, mas comportou mais miscigenação. Resultados aqui obtidos seriam em princípio válidos para boa parte do mundo. Há mais: o país possui uma comunidade científica capacitada e pode realizar os testes com custo mais baixo.

Um dos problemas, segundo a Interfarma, está na morosidade da aprovação dos protocolos por órgãos como a Comissão Nacional de Ética em Pesquisa (Conep). Enquanto nos EUA isso ocorre em média em sete meses, por aqui pode demorar mais de um ano.

Em consequência, a comunidade científica nacional fica com as migalhas de um mercado global de R$ 50 bilhões anuais. Entre as razões comumente apresentadas pela Conep para não imprimir maior celeridade ao processo está a impossibilidade de um voluntário brasileiro compreender os termos técnicos dos formulários de consentimento.

A cautela não pode confundir-se com procrastinação. Indústria e Ministério da Saúde já debatem como aperfeiçoar o sistema. Se persistem falhas de estrutura e agilidade no processo de licenciamento, aí deve recair o foco da discussão, no interesse de todos -indústria, cientistas e pacientes.
(Folha de SP, 14/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74078

Bactéria é modificada para produzir droga anticâncer

Estudo modifica bactéria para obter medicamento usado contra tumores. Atualmente derivada de uma árvore que cresce muito lentamente, droga tem custo elevado

Usar microrganismos para produzir com baixo custo - tanto econômico como ambiental - um medicamento importante contra o câncer é o que propõem cientistas do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade Tufts, nos Estados Unidos.

O paclitaxel (comercializado com o nome Taxol) é empregado em quimioterapia em tratamentos de tumores de ovário, mama e pulmão. Foi descoberto em 1967, quando Monroe Wall e Mansukh Wani, do Research Triangle Institute, isolaram o componente da casca do teixo-do-pacífico (Taxus brevifolia) e notaram sua atividade antitumoral em estudos feitos com roedores.

O problema é que o teixo-do-pacífico é uma das árvores que crescem mais lentamente no mundo. Além disso, o tratamento de um único paciente requer o corte e processamento de duas a quatro árvores, que levam dezenas de anos para atingir o tamanho ideal de corte.

Atualmente, o paclitaxel também pode ser derivado do mais abundante teixo europeu ou de células das árvores em cultura. Mas ainda assim os processos são complexos e lentos. O resultado é que uma única dose da droga pode chegar a US$ 10 mil.

A novidade, descrita na revista "Science", surgiu a partir da experimentação com um dos principais laboratórios vivos, usados por cientistas em todo o mundo: a bactéria Escherichia coli, uma das mais comuns e que acompanham o homem há mais tempo. A bactéria já vinha sendo investigada para a produção do paclitaxel, mas o novo estudo conseguiu resultados em escala inédita.

Os cientistas do MIT e da Tufts modificaram geneticamente a E. coli de modo que produzisse em grandes quantidades um composto chamado taxadieno, um precursor do paclitaxel.

A sequência metabólica complexa que produz o paclitaxel envolve pelo menos 17 estágios intermediários e ainda não é totalmente compreendida. O objetivo dos autores do estudo era otimizar a produção de dois importantes intermediários: o taxadieno e o taxadieno-5-alfa-ol.

A E. coli não produz naturalmente o taxadieno, mas pode sintetizar um composto chamado IPP, que está a dois passos do taxadieno. Ocorre que esses dois passos são encontrados apenas em plantas.

Gregory Stephanopoulos, do MIT, e colegas decidiram modificar geneticamente a bactéria de modo a tentar fazer com que ela produzisse o composto desejado.

Para isso, adicionaram dois genes de plantas, também modificadas, para que pudessem funcionar em bactéria. A proposta era ver se os genes codificariam as enzimas necessárias para fazer as reações que constituiriam os dois passos que faltavam.

Os cientistas não apenas conseguiram como variaram o número de cópias dos genes de modo a encontrar a combinação mais eficiente. O resultado é que a produção do taxadieno foi multiplicada em 1 mil vezes em relação aos melhores resultados já obtidos com a E. coli.

Além disso, o estudo é o primeiro a dar outro passo em busca do paclitaxel que não derive do teixo-do-pacífico, com a conversão do taxadieno em taxadieno 5-alfa-ol. É a primeira vez que esse segundo composto é produzido em microrganismos.

Os autores do estudo ressaltam que há ainda muitos passos a se vencer antes de chegar ao paclitaxel sintético. "Mas, ainda que esse seja o primeiro passo, trata-se de um desenvolvimento muito promissor e que apoia a abordagem adotada", disse Blaine Pfeifer, professor em Tufts e outro autor do estudo.

"Se pudermos fazer um Taxol mais barato, será ótimo. Mas o que realmente nos empolgou é a perspectiva de usar essa plataforma para descobrir outros compostos terapêuticos, isso em um momento de declínio do surgimento de novos produtos farmacológicos e de grande elevação nos custos para o desenvolvimento de medicamentos", disse Stephanopoulos.

O artigo "Isoprenoid Pathway Optimization for Taxol Precursor Overproduction in Escherichia coli" (doi: 10.1126/science.1191652), de Gregory Stephanopoulos e outros, pode ser lido por assinantes da "Science" em www.sciencemag.org/cgi/content/full/330/6000/70
(Agência Fapesp, 14/10)
Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74077

quinta-feira, 14 de outubro de 2010

Nanotecnologia para transporte eficaz de medicamentos

14/10/2010

Por Fabio Reynol

Agência FAPESP – Uma nova geração de sistemas nanométricos capazes de levar medicamentos até o local do organismo no qual devem agir foi desenvolvida em um trabalho conjunto feito entre pesquisadores da Universidade de São Paulo (FFCLRP-USP) e do Instituto de Pesquisas Tecnológicas (IPT).

O trabalho gerou um depósito de patente feito com apoio do Programa de Apoio à Propriedade Intelectual da FAPESP e foi apresentado na 2nd Conference Innovation in Drug Delivery, em Aix-en-Provence, na França, na semana passada.

“Trata-se de um nanocarreador capaz de levar drogas hidrofílicas (solúveis em água), o que é inédito”, disse o professor Antonio Cláudio Tedesco, do Departamento de Química da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto (FFCLRP) da USP, à Agência FAPESP.

Ele conta que os nanocarreadores já desenvolvidos só obtiveram sucesso ao transportar substâncias hidrofóbicas, as quais não se dissolvem na água, o que limitava o campo de aplicação.

Tedesco é coordenador de um Projeto Temático FAPESP voltado ao desenvolvimento de nanocarreadores de fármacos aplicados à saúde (câncer, doenças degenerativas do sistema nervoso central, entre outros). O produto desenvolvido em parceria com o IPT surgiu do projeto de doutorado em desenvolvimento da bioquímica-farmacêutica Natália Neto Pereira Cerize, orientanda de Tedesco.

Natália tinha Bolsa de Doutorado Direto da FAPESP até o início de 2010, quando passou em um concurso para pesquisadora do Laboratório de Processos Químicos e Tecnologia de Partículas (LPP) do IPT. A pesquisa desenvolvida desde o início na USP em parceria com o instituto contou sempre com a coorientação da pesquisadora Maria Inês Ré, do LPP.

“Tivemos a preocupação de utilizar substâncias biocompatíveis, de modo que não apresentem problemas em uma futura aplicação em humanos”, afirmou Natália.

Ela também salientou a versatilidade do produto, que poderá ser empregado em diferentes partes do organismo, como pele e mucosas. “Por esse motivo, patenteamos o processo de fabricação do nanocarreador e não de um medicamento ou de uma aplicação específica”, explicou.

Diferentemente dos medicamentos convencionais, que precisam ser administrados em doses maiores a fim de que uma parte deles chegue ao local desejado, os nanocarreadores podem levar quantidades bem menores do princípio ativo.

Além de gerar economia de fármacos, essa característica reduz os efeitos colaterais causados pelas drogas. Isso ocorre porque as nanopartículas são projetadas para apresentar seletividade para um determinado alvo biológico.

Outra vantagem é que as partículas nanométricas executam uma liberação controlada do medicamento. Essa ação evita os picos de dosagem que ocorrem com os remédios convencionais. Ao serem liberados continuamente, os princípios ativos mantêm níveis constantes no organismo.

Escala industrial

O novo nanocarreador começou a ser aplicado em testes laboratoriais no tratamento de câncer de pele. A ideia é que uma solução tópica aplicada sobre a pele atinja as células tumorais. O estímulo para a ação do medicamento é dado pela exposição à luz, na chamada terapia fotodinâmica.

Ao serem expostas à luz, as substâncias utilizadas no medicamento dão início a um processo complexo que resulta na liberação de radicais livres, que funcionariam como disparadores da apoptose (morte celular programada) das células doentes.

“A célula neoplásica não dispara a apoptose. É como se ela se esquecesse de morrer e assim se reproduz indefinidamente. Ao receber um choque de radicais livres disparados por um flash de luz, a célula reativa o sistema de apoptose”, explicou Tedesco.

Natália ressalta que outra preocupação da equipe foi produzir um nanocarreador que pudesse ser fabricado em larga escala e com os equipamentos já existentes na indústria farmacêutica. “Há muita pesquisa que gera produtos eficazes, mas que são comercialmente inviáveis, pois apresentam incompatibilidade com a tecnologia farmacêutica atual”, pontuou.

No entanto, apesar de apresentar grande potencial, a tecnologia patenteada ainda terá de percorrer um longo caminho antes de ser disponibilizada nas farmácias, ressaltam os pesquisadores.

O grupo acaba de iniciar a etapa laboratorial dos testes e ainda virão as fases in vitro, in vivo em animais e, finalmente, testes clínicos, com muitos ativos de interesse.

“Trata-se de um produto inovador e promissor, com perspectivas de aplicação, mas que ainda precisa de muitos estudos para que seja disponibilizado no mercado”, disse Natália.
Fonte:http://www.agencia.fapesp.br/materia/12902/nanotecnologia-para-transporte-eficaz-de-medicamentos.htm

quarta-feira, 13 de outubro de 2010

Programa gratuito preserva dados digitais para o futuro

Redação do Site Inovação Tecnológica - 06/10/2010


O objetivo do novo software de código aberto é preservar os dados digitais "por um futuro indefinido".[Imagem: Caspar]


Cientistas europeus disponibilizaram gratuitamente um software desenvolvido com o objetivo de garantir que os dados armazenados digitalmente sejam preservados, acessados e compreendidos no futuro, sobrevivendo às contínuas mudanças tecnológicas.

Preservação do conhecimento

A ferramenta é resultado do CASPAR (Cultural, artistic and scientific knowledge preservation, for access and retrieval - preservação do conhecimento cultural, artístico e científico para o acesso e recuperação), um projeto que consumiu 8,8 milhões de euros de investimentos dentro do programa europeu Agenda Digital.

Os grandes volumes de dados eletrônicos, incluindo registros oficiais, arquivos históricos e resultados de pesquisas científicas estão se tornando ilegíveis ou correndo o risco de serem perdidos não apenas porque as novas tecnologias não conseguem lê-los, mas também porque os usuários não conseguem entender a informação.

O objetivo do novo software de código aberto é eliminar esse problema de uma vez por todas, "por um futuro indefinido", afirmam os pesquisadores.

Bases de dados do passado guardavam os registros em formatos diferentes e com precisão diferente das atuais, e as bases de dados do futuro também evoluirão com as necessidades e terão formatos diferentes dos atuais.

Por exemplo, os sinais da influência humana sobre o aquecimento global estão sendo coletados há várias décadas. Apesar da evolução das tecnologias de gravação de dados - dos cartões perfurados e das fitas magnéticas até os inúmeros servidores da computação em nuvem - é crucial para o progresso científico que esses dados sejam inteiramente acessíveis e possam ser diretamente comparados com os dados coletados no futuro.

Descrição dos dados

Com problemas como este em mente, os pesquisadores do CASPAR criaram uma ferramenta é capaz de descrever todos os tipos de dados para que os números possam ser extraídos no futuro - o equivalente a ser capaz de imprimi-los hoje.

O programa também garante que os números e os relacionamentos entre eles possam ser entendidos e manipulados em qualquer software, e para qualquer pesquisa que os cientistas possam querer.

As técnicas foram amplamente utilizadas e testadas com sucesso com diferentes tipos de dados científicos, culturais e artísticos, que serviram para validar a técnica.

O programa pode ser baixado gratuitamente no site do projeto CASPAR, no endereço www.casparpreserves.eu.
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=preservacao-dados-digitais-futuro&id=010150101006