Translate

sexta-feira, 17 de setembro de 2010

Manchas solares poderão desaparecer a partir de 2016

Redação do Site Inovação Tecnológica - 17/09/2010


Sem as penumbras, que podem ser vistas na imagem amarela, as atuais manchas solares estão se enfraquecendo magneticamente. [Imagem: William Livingston/NSO]


Pequena era do gelo

Cientistas que estudaram as manchas solares durante os últimos 20 anos concluíram que o campo magnético do Sol que as origina está diminuindo.

Se a tendência atual continuar, por volta de 2016 o Sol pode ficar totalmente sem manchas e assim permanecer ao longo de décadas.

Um fenômeno semelhante, que ocorreu no século 17, coincidiu com um período prolongado de resfriamento na Terra.

Conhecido como "Pequena Era do Gelo", o maior Mínimo Solar já registrado durou 70 anos. O chamado Mínimo de Maunder durou de 1645 a 1715, com a Terra experimentando temperaturas muito baixas.

Embora os mínimos solares normalmente durem cerca de 16 meses, o atual se estendeu por 26 meses, o mais longo em um século.

Campo magnético das manchas solares

As manchas solares surgem quando ressurgências do campo magnético do Sol aprisionam plasma ionizado em sua superfície. Normalmente, o gás superaquecido, eletricamente carregado, libera seu calor e mergulha de volta abaixo da superfície. Mas o campo magnético inibe este processo.

Em artigo publicado na revista Science, Phil Berardelli relata o trabalho dos astrônomos Matthew Penn e William Livingston, do Observatório Nacional Solar em Tucson, Arizona, que vêm estudando as manchas solares desde 1990.

Usando uma técnica de medição chamada Separação de Zeeman, os astrônomos analisaram mais de 1.500 manchas solares e concluíram que a intensidade do campo magnético das manchas solares caiu de uma média de cerca de 2.700 gauss para cerca de 2.000 gauss - a intensidade média do campo magnético da Terra tem menos de 1 gauss.

Eles não sabem explicar as razões para tal diminuição. Mas se a tendência continuar, a força do campo magnético das manchas solares vai cair para uma média de 1.500 gauss já em 2016.

Como 1.500 gauss é o mínimo necessário para produzir manchas solares, os astrônomos afirmam que elas poderão não ser mais geradas a partir de então. Foi justamente isso o que aconteceu durante o Mínimo de Maunder.

Previsões sobre o clima solar

Mas Livingston adverte que a previsão de zero manchas solares pode ser prematura. "Isso pode não acontecer," disse ele à Science. "Somente o tempo dirá se o ciclo solar vai decolar."

Ainda assim, acrescenta ele, não há dúvida de que as manchas solares "não estão muito saudáveis agora." Em vez dos fortes pontos rodeados por halos, chamados penumbras, como se viu durante o último máximo solar, a maior parte da safra atual parece "um pouco repicada", com poucas ou nenhuma penumbra.

Mas há quem discorde deles. O físico David Hathaway, do Centro de Voos Espaciais Marshall, da NASA, achou o estudo interessante, mas acha que os dois astrônomos podem ter deixado de lado pequenas manchas solares, o que pode ter elevado a média considerada por eles.

Hathaway é um crítico de longa data daqueles que acreditam que o comportamento do Sol está saindo do normal - veja O que há de errado com o Sol?.

Outra pesquisa recente mostrou que o impacto do Sol sobre a Terra vai além das manchas solares.

Bibliografia:

Long-term Evolution of Sunspot Magnetic Fields
Matthew Penn, William Livingston
arXiv
3 Sep 2010
http://arxiv.org/abs/1009.0784v1

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=manchas-solares-poderao-desaparecer&id=010125100917&ebol=sim

quinta-feira, 16 de setembro de 2010

Quer fazer parte da equipe Google?

São mais de 1000 vagas abertas no momento, mas não pense que é fácil garantir uma delas! Conheça todo o processo.
Stephanie Kohn

O processo de seleção da Google foi criado para contratar os profissionais mais talentosos, criativos e articulados do mercado. A cultura da Google é diferente e isso dá para perceber no momento em que se pisa no escritório da empresa. Existe muito mistério e informações erradas a respeito do processo de contratação, por isso que Don Dodge, Developer Advocate da empresa, resolveu dar a sua perspectiva de como as coisas funcionam por ali.

O império Google recebe mais de 1 milhão de currículos e contrata de 1 a 4 mil novos funcionários todos os anos, dependendo das condições da economia. A realidade nos números é uma só: menos de 1% das pessoas são contratadas. O que se pode fazer? Torcer para que este império cresça ainda mais e possa aumentar o número de vagas o quanto antes.

Como funciona o processo de seleção?
As vagas disponíveis podem ser vistas aqui, basta achar um trabalho que se encaixe com o seu perfil e mandar seu currículo. Todos os dados recebidos online serão avaliados.

Para entender melhor como funciona o recrutamento e tudo o que você deve esperar dele, confira o vídeo abaixo e leia tudo com atenção.



O começo de tudo

No primeiro passo do recrutamento, deve-se colocar todas as informações pedidas, como escolaridade, experiência, cursos e qualquer coisa que faça a Google ter certeza de que o candidato se encaixa no perfil. Caso ele não seja um funcionário em potencial para a vaga, receberá um educado recado avisando que não foi desta vez. O bom é que o currículo vai continuar no banco de dados da empresa e assim que surgir algo com a cara do candidato, eles irão chamá-lo para uma vídeo-conferência. Isso não é conversa mole, a Google realmente procura currículos já cadastrados.

Etapa seguinte: a vídeo-conferência

Se o currículo for selecionado, uma pessoa vai entrar em contato para explicar todo o processo. O recrutador pode perguntar sobre notas mesmo que o candidato tenha se graduado, ou pós-graduado, há 20 anos. A vídeo-conferência é feita por um colaborador da Google que tenha o cargo parecido com o pretendido e normalmente dura 30 minutos. O objetivo da entrevista é descobrir as habilidades técnicas, experiências anteriores e motivação do entrevistado.

A segunda entrevista

A segunda entrevista é feita com quatro a cinco pessoas e, pasmem, cada uma delas tem cerca de 45 minutos de conversa com o entrevistado. O bate-papo inclui o gerente e outros funcionários do departamento da vaga pretendida. Eles vão fundo nas habilidades e conhecimento do candidato, e se a posição for para uma vaga técnica, pedem para que o candidato resolva alguns problemas em tempo real. Já se a vaga for para Marketing ou Relações Públicas, há a possibilidade de ter que escrever textos ou achar soluções para assuntos delicados envolvendo a imprensa. Essa parte pode ser bastante tensa para uma pessoa despreparada, portanto, trate de ficar em forma antes da entrevista. O ideal é se divertir com os testes proporcionados e não perder o rebolado.

Próxima fase: o feedback

Todas as entrevistas geram um feedback com números e rankings. O próprio recrutador faz a avaliação e compara a performance do entrevistado com a dos outros candidatos para a vaga, ou vagas similares. A Google geralmente faz uma busca dos currículos dos pretendentes e funcionários e os compara, além de pedir a opinião dos colaboradores envolvidos no recrutamento. Se há um consenso entre todos, eles passam a pessoa para o comitê de contratação, que irá avaliar se vale a pena fazer uma oferta de trabalho.

Hora da verdade: o comitê de contratação

Existem comitês para todas as vagas mais importantes da empresa. Eles são formados por gerentes seniores, diretores e funcionários bastante experientes, que avaliam todos os potenciais colaboradores, revisam cada parte do formulário de feedback e analisam o currículo e experiências do candidato. Caso todos, eu disse, todos, concordarem em fazer a oferta, o felizardo segue para a próxima fase.

Análise do alto escalão

As pessoas com o mais alto cargo do departamento fazem uma nova análise da oferta. Se a revisão do executivo for favorável, o candidato vai para o aguardado comitê de remuneração.

Mais um comitê

Como é de se esperar, este comitê é quem determina qual será a remuneração adequada para o novo funcionário. Eles analisam todas as propostas já feitas pela Google, assim como os salários de outras empresas, para poder ter uma ideia do que seria justo.

A última revisão

Pode parecer brincadeira, mas é verdade. O principal executivo do Google analisa todas as ofertas da empresa antes de serem fechadas.

Finalmente, a remuneração!

O recrutador entra em contato com o candidato para lhe fazer a oferta e explicar todos os detalhes. Os benefícios da Google são completos e porque não dizer, generosos. A Google quer que o funcionário seja feliz, motivado e totalmente focado em seu trabalho, isso significa que todas as remunerações são altas e fogem dos padrões.

Mas, porque é assim?

A Google leva muito a sério as contratações, como deu para perceber. Apesar do processo ser um pouco lento e burocrático, Don garante que a empresa se esforça para que, durante o processo de contratação, os candidatos sejam informados de tudo o que está acontecendo.

Para manter essa fórmula mágica de contratações "perfeitas", quase todos os funcionários da Google já recrutaram, entrevistaram ou contrataram, pois isso faz parte de suas responsabilidades. Além de ser parte do trabalho, é medido. Os colaboradores recebem bônus cada vez que indicam um candidato que é aprovado. A maioria faz diversas entrevistas no mês e é obrigada a fazer um feedback por escrito.

Todos são orientados em como fazer entrevistas e como opinar de maneira mais esclarecedora. Fora isso, o sistema mantém o controle de todas as entrevistas, feedbacks e avaliações do candidato, e são analisadas pelo comitê de contratação. Isso mesmo, os feedbacks sobre candidatos geram feedbacks para os funcionários.

Claro que ao longo do tempo eles conseguem identificar quem são as pessoas mais indicadas para fazer as entrevistas, mas tudo isso deixa ainda mais claro como a contratação de novos funcionários é importante para a Google.

Existem muitas vagas abertas na Google e podem permanecer assim por um bom tempo. A empresa prefere deixar espaços do que contratar funcionários que não sejam perfeitos para eles. Os comitês de contratação jamais poderão escolher alguém rapidamente só porque o gerente do departamento está com pressa.

Tudo no Google é diferente, inclusive a definição de metas e objetivos. Lá eles estabelecem metas e medem o progresso a cada trimestre, e mesmo quando não alcançam os objetivos, os resultados ainda assim são impressionantes para o mercado. Para eles, atingir 60% do impossível é melhor do que 100% do normal, e é por isso que conseguir entrar nessa equipe de vencedores é difícil. No final das contas o grande segredo da Google é o seu povo.

Para tirar uma casquinha e saber como é fazer parte dessa equipe, confira o vídeo abaixo e, se rolou interesse, corra pro site da Google e cadastre seu currículo. Boa sorte!
Fonte:http://olhardigital.uol.com.br/produtos/mobilidade/celulares-verdes-sao-uma-alternativa-para-diminuicao-do-lixo-eletronico/13913

quarta-feira, 15 de setembro de 2010

Cinco motivos que colocam o Linux à frente do Windows em servidores

Por PC World/EUA
Publicada em 31 de agosto de 2010 às 07h45

Receita de hardware com Linux cresceu 30% no 2.º trimestre de 2010; virtudes em estabilidade e segurança sugerem que não foi por acaso.

O rápido crescimento do mercado para servidores x86 ocorrido no ano passado trouxe boas notícias tanto para o Linux como para o Windows, segundo um relatório divulgado na semana passada pela empresa de pesquisas IDC.

O que nem sempre é ressaltado, no entanto, é a significância que a porção de servidores Linux vem ganhando. As entregas de servidores Windows, em termos de unidade, cresceram 28,2% no segundo trimestre de 2010, quando comparadas com 2009.

Já a receita de sistemas Linux aumentou 30% no trimestre, para 1,8 bilhão de dólares. Os servidores Linux representam agora 16,8% de toda a receita de servidores, 2,5 pontos porcentuais a mais que no segundo trimestre de 2009.

Não é por acaso. O Linux é eminentemente melhor para uso como servidor do que o Windows – melhor que a grande totalidade dos concorrentes, eu diria. Por que? Vamos enumerar as razões.

1::Estabilidade
Os sistemas Linux são conhecidos por sua capacidade de funcionar por anos sem falhas. De fato, muitos usuários Linux nunca viram uma parada de sistema. Isso é ótimo para usuários de todo tipo, mas é particularmente interessante para pequenas e médias empresas, para as quais uma interrupção pode ter consequências desastrosas.

O Linux também lida com um grande número de processos simultâneos de forma muito melhor que o Windows – isso, aliás, é algo que colabora para degradar rapidamente a estabilidade do Windows.

E há a necessidade de reboot. Enquanto as mudanças na configuração do Windows exigem tipicamente um reboot – causando o inevitável downtime – geralmente não há necessidade de reboot no Linux. Quase todas as mudanças de configuração do Linux podem ser feitas com o sistema funcionando e sem afetar outros serviços.

De forma semelhante, se os servidores Windows precisam ser desfragmentados com frequência, no Linux isso foi praticamente eliminado.

2::Segurança
O Linux é nativamente mais seguro que o Windows, seja no servidor, no desktop ou em um ambiente embarcado. Isso se deve principalmente ao fato que o Linux, que é baseado no Unix, foi projetado do zero para ser um sistema operacional multiusuário. Apenas o administrador, ou usuário root, tem privilégios administrativos, e poucos usuários e aplicações têm permissão para acessar o kernel ou outros usuários e aplicações. Isso ajuda a manter tudo de forma modular e protegida.

É claro, o Linux também sofre ataques (menos frequentes) de vírus e malware, e as vulnerabilidades tendem a ser descobertas e consertadas mais rapidamente por sua legião de desenvolvedores e usuários. Até o bug de seis anos de idade do kernel que foi consertado recentemente, por exemplo – algo extremamente raro no mundo Linux – nunca havia sido explorado.

Enquanto isso, internamente, usuários de um sistema Windows podem algumas vezes ocultar arquivos do administrador do sistema. No Linux, o administrador sempre tem uma visão clara do sistema de arquivos e está sempre no controle.

3::Hardware
Enquanto o Windows exige tipicamente atualizações de hardware para acomodar suas demandas crescentes, o Linux é leve, magro, flexível e escalável, e funciona admiravelmente em praticamente qualquer computador, independentemente do processador e da arquitetura da máquina.

O Linux também pode ser facilmente reconfigurado para incluir apenas os serviços necessários para os propósitos de sua empresa, reduzindo ainda mais os requisitos de memória, melhorando o desempenho e mantendo as coisas ainda mais simples.

4::TCO
Não há como superar o Linux no custo total de propriedade, já que o software é geralmente gratuito. Mesmo uma versão corporativa comprada com serviço de suporte será mais barata, de forma geral, que o Windows ou outro software proprietário, que geralmente envolve a compra de licenças com base em números de usuários e uma gama de caros adicionais, especialmente em segurança.

5::Liberdade
Com o Linux, não há fornecedor comercial tentando travá-lo em certos produtos ou protocolos. Em vez disso, você está livre para misturar e combinar e escolher o que funciona melhor para sua empresa.

Em resumo, com todas as vantagens que o Linux fornece no campo dos servidores, não surpreende que governos, organizações e grandes empresas ao redor do mundo – incluindo Amazon e Google – confiem no sistema operacional de código aberto em seus próprios sistemas de produção.

Se você procura por uma distribuição Linux para instalar em seus servidores corporativos, vale a pena considerar o CentOS (ou RHEL, a versão paga da Red Hat na qual se baseia a CentOS), Slackware, Debian e Gentoo.

(Katherine Noyes)


Fonte:http://idgnow.uol.com.br/computacao_corporativa/2010/08/31/cinco-motivos-que-colocam-o-linux-a-frente-do-windows-em-servidores/#rec:mcl

Opinião: Por que o Linux nunca deverá vencer seus concorrentes

Por Brian Proffitt, da ITworld/EUA
Publicada em 15 de setembro de 2010 às 09h05
A História ensina que, para cada tecnologia que se diz vitoriosa, diversas outras surgem para tomar seu lugar. Por que com o Linux seria diferente?

Quando compareci esta semana à LinuxFest de Ohio (EUA) no último fim de semana, um tema recorrente na conferência foi: o que fazemos agora com o Linux, já que vencemos?

Devo explicar que não era esse o tema oficial dessa conferência regional que reuniu, no sábado (11/9), mais de mil pessoas. O tema era algo relacionado a como usar software livre para tornar o mundo melhor.

Mesmo assim, em quatro das palestras a que assisti, de quatro pessoas que trabalham em projetos e empresas completamente diferentes, eu ouvi a mesma expressão: “nós vencemos”.

Será que deixei escapar alguma informação?

Não me entendam mal. É verdade que o Linux deu grandes passos em diversos setores da tecnologia, especialmente em cloud computing, mobilidade e servidores. Nessas áreas, o Linux é um competidor forte, se não for o maior. Baseados nesses resultados - que são, de fato, impressionantes -, será justo afirmar que o Linux venceu?

No desktop tradicional, é muito difícil apontar para os números de qualquer pesquisa ou empresa e dizer que o Linux é um sucesso. O número mais recente que circula pela blogosfera é que um mero 1% dos desktops roda Linux. Eu meio que duvido deste número, mas o valor real não deve estar longe disso.

Números questionados
Claro que algumas vezes você encontra entusiastas do Linux que listarão números e cifras sobre as vantagens do Linux. Caitlyn Martin, da O’Reilly, tentou desmentir o número de 1% e concluiu que, já que as vendas de netbooks com Linux representaram um terço do total de netbooks vendidos, então as vendas totais de máquinas com Linux seriam de aproximadamente 6%.

Admito ter alguma dificuldade em estimar o impacto que apenas um ano de vendas em um único segmento teria em um mercado de desktops formado há mais de 20 anos por máquinas Windows e Mac. Ok, 2009 foi um ano decente, mas e as vendas e as instalações de sistemas operacionais em 2008? 2007? Essas máquinas são velhas e ainda estão sendo usadas por aí. Espero que Caitlyn esteja correta, mas neste caso acredito que esteja sendo apenas otimista.

Independentemente dos números que você escolha para acreditar, a questão por trás de quem ganhou não se resume a um jogo de números. E não é para ser, por duas razões muito simples: os números mudam tanto quanto o jogo.

Em 1980, o UNIX venceu. Ele capturou o mercado da computação por completo. Se alguém tivesse dito o contrário, seria considerado louco. E tem sido assim desde então.

Em 1995, o Windows venceu. Ele dominou o mercado desktop, e nunca mais haveria outro sistema que desafiaria seu domínio. O Windows permaneceria rei do desktop para sempre.

É o que as pessoas diziam em cada época. “Nós vencemos”, gritava a multidão em torno de sua tecnologia favorita. Daquele dia em diante, o futuro da tecnologia sempre seria (insira sua tecnologia favorita aqui).

O futuro, como antigamente
Olhe para o Unix hoje e tente repetir a mesma declaração de vitória de 1980. Olhe para o Windows e seu lento declínio e pense como será sua participação no mercado em alguns anos.

Esteja você falando sobre números, influência, impacto, ou qualquer outro aspecto da tecnologia, dizer “nós vencemos” não é apenas potencialmente impreciso, mas também violentamente perigoso. As pessoas que veem as coisas como uma situação binária do tipo "ganhar/perder" tendem a recuar quando atingem o objetivo de “ganhar”. Aí vem a complacência. As pessoas relaxam, perdendo a noção dos aspectos da tecnologia que a tornavam tão boa. Enquanto isso, para cada sistema que “ganhou”, há o despontar de um concorrente ávido por tomar seu lugar.

Você se lembra de quando o Linux era o estreante, e da forma como ele nos deixava loucos? Declarar vitória (que, aliás, seria algo nitidamente prematuro no estágio atual) simplesmente faz com que o Linux seja o alvo de nosso próximo estreante.

O Linux está indo bem? Sim, com certeza. Pode se dar melhor? Sim, sempre. Porque, mesmo que o Linux capturar o domínio do mercado em cada setor, ele deverá estar sempre pronto para se adaptar a novos consumidores, negócios ou necessidades tecnológicas. Crescimento, adaptação e mudança devem ser, para sempre, parte da mentalidade Linux (e, de fato, de qualquer projeto bem sucedido).

Porque o que não cresce, morre. E declarar-se vencedor em uma partida nunca vai significar que você vencerá automaticamente todas as outras.
Fonte:http://idgnow.uol.com.br/computacao_corporativa/2010/09/15/guerra-dos-sistemas-por-que-o-linux-nao-deve-vencer/

terça-feira, 14 de setembro de 2010

Os dez perfis de profissionais mais demandados em 2011

Levantamento da Computerworld detecta que 23% dos CIOs querem aumentar as equipes no próximo ano.
Por COMPUTERWORLD US
14 de setembro de 2010 - 07h00
O Natal chegou mais cedo para a diretora de sistemas de informação da Health Alliance – prestadora de serviços de saúde que atua no mercado norte-americano –, Nicole Thompson. Graças à exigência da implementação do prontuário eletrônico, o orçamento de sua área para 2011 prevê a contratação de 11 novos funcionários de TI.

Uma pesquisa global realizada pela Computerworld, entre junho e julho de 2010, detectou que, assim como Nicole, 23% dos CIOs pretendem incrementar suas equipes nos próximos 12 meses. Em contrapartida, 22% querem reduzir o número de profissionais e a maioria (55%) pretende manter o atual quadro de funcionários.

“As empresas voltaram a falar em contratação”, avalia o diretor-executivo do segmento de TI da consultoria em recrutamento Robert Half, Dave Willmer. “Organizações que cortaram equipes ou congelaram vagas estão percebendo que precisam de novos funcionários para melhorar os sistemas e se preparar para um potencial crescimento dos negócios”, complementa.

A seguir, acompanhe as dez áreas que mais demandarão profissionais de TI em 2011, de acordo com o estudo da Computerworld.

1. Programação e desenvolvimento de aplicação
Entre as empresas que pretendem contratar, cerca de 47% estão em busca de pessoas com experiência em programação ou desenvolvimento de aplicações. Na mesma linha, um estudo da empresa de recrutamento Monster.com mostra que 75% das vagas em aberto na área de TI demandam profissionais com experiência em aplicação.

Para o CEO e principal executivo de pesquisas da consultoria em TI Foote Partners, David Foote, essa demanda reflete a necessidade das empresas se reposicionarem no mercado e utilizarem a tecnologia para aumentar negócios.

2. Gestão de projetos
A vice-presidente de TI do banco Comerica, Kathleen Kay, colocou a contratação de gestores de projetos na lista das prioridades para 2011. Com 140 iniciativas de TI programadas para o próximo ano, ela informa que precisará de pessoas com conhecimento nas áreas de internet, mobilidade, gestão de soluções financeiras e administrar aplicativos legados.

Kathleen ressalta, no entanto, que a contratação de profissionais será acompanhada por uma política agressiva para retenção dos atuais talentos de TI. “Acreditamos que o sucesso depende do investimento no conhecimento das pessoas”, complementa a executiva.

A capacidade em gerenciar projetos aparece como uma característica desejada por 43% das empresas que responderam à pesquisa da Computeworld e que planejam realizar novas contratações em TI.

3. Help desk/suporte técnico
Só 20% dos usuários da Microsoft migraram para o Windows 7 até julho de 2010. “Isso significa que existe espaço para que 80% realizem essa mudança. E não é uma questão de escolha”, avalia o diretor da Robert Half, Dave Willmer. Por conta disso, existe uma espectativa de que profissionais especializados em help desk e suporte técnico sejam altamente demandados em 2011.

Outra questão que justifica o fato de que 42% das corporações que responderam ao estudo da Computerworld buscam profissionais com esse perfil é que muitos segmentos, como o caso de saúde, precisam se adequar a novas regras, o que exigirá mudanças nos sistemas.

4. Rede
O conhecimento em networking (rede) será uma exigência para 38% das empresas que planejam realizar contratações em 2011. E esse perfil representa a principal demanda para 1,4 mil CIOs consultados em uma pesquisa da consultoria em recrutamento Robert Half.

“Isso está muito ligado à tendência de virtualização”, justifica Willmer, da Robert Half. Para ele, existe um número crescente de empresas que buscam suprir a lacuna por profissionais capacitados a fazer a migração para ambientes virtuais.

5. Segurança
“Segurança é a única área na qual não houve uma desaceleração na demanda por profissionais capacitados, mesmo durante a recente crise”, analisa David Foote, da Foote Partners. Para ele, esse cenário tem sido motivado pelo próprio cenário de mercado, que exige das empresas um maior controle das vulnerabilidades e da privacidade.

Entre os itens mais demandados nos profissionais do setor estão a capacidade para gerenciar e identificar acessos, vulnerabilidades e ameaças. Ao mesmo tempo, existe uma busca por pessoas que conheçam criptografia, prevenção da perda de dados, análise de incidentes, governança, adequação regulatória e auditoria.

6 – Data Center
Dentre os pesquisados que contratarão profissionais no próximo ano, 21% responderam que conhecimento em data center, incluindo experiência com armazenamento, será a principal demanda.

De acordo com a CIO do SAS Institute, Suzanne Gordon, além de armazenamento, as empresas exigem que os profissionais tenham habilidade para analisar o ambiente, com o intuito de verificar o impacto dos investimentos e fazer ajustes no data center. "Inclusive, para garantir que o dinheiro gasto em backup e em segurança está adequado", completa Suzanne.

7 – Web 2.0
Profissionais de TI com a habilidade para lidar com ambientes colaborativos na internet serão procurados por 17% das empresas que responderam à pesquisa da Computerworld. O domínio de linguagens como Adobe Flex, JavaScript, Adobe Flash, AJAX e JavaScript Object Notation será um diferencial para atuar no setor.

Na indústria de serviços financeiros, por exemplo, o espaço para produtos ligados à Web 2.0 e mobilidade é gigantesco, de acordo com a vice-presidente de TI do banco Comerica. “Temos muitos projetos em andamento nessas áreas”, avisa Kathleen Kay.

8 – Telecomunicações
A Palmetto Health, empresa de saúde sediada na Carolina do Sul (Estados Unidos) quer contratar pessoas com habilidades em comunicações unificadas, assim como 16% dos pesquisados pela Computerworld.

A corporação procura profissionais para projetar infraestrutura e integrar diversas ferramentas de comunicação, incluindo aplicativos de mensagens instantâneas, telefones IP e acesso remoto.

Para a CIO da companhia, Michelle Edwards, hospitais têm uma demanda urgente por esse tipo de infraestrutura como diferencial para melhorar o atendimento. “Precisamos contratar gente que nos ajude nisso, além de compreender as questões de segurança envolvidas”, detalha.

9 – Business Intelligence
Com a proliferação de dados e o departamento de TI preocupado em encontrar novas maneiras para aumentar a lucratividade, as habilidades em business intelligence continuarão a ser muito procuradas em 2011, de acordo com 11% dos pesquisados.

A Palmetto Health está usando um sistema de registro eletrônico de saúde e a equipe incorporou uma cultura de inserir informações nesse ambiente, de acordo com Edwards. “Agora, temos o dever de realizar um trabalho melhor ao lidar com as informações que estamos coletando e compartilhá-la por meio de redes colaborativas que abranjam toda a companhia”, acrescenta a CIO.

10 – Arquitetura de colaboração
A empresa de alimentos Campbell Soup coloca a arquitetura de colaboração no alto da lista de principais habilidades demandadas por sua equipe de TI. De acordo com a diretora sênior da área, Donna Braunschweig, a organização procura constantemente por pessoas que ajudem a melhorar experiência do usuário final ao integrar portais, Web e áudio, com o intuito de facilitar a colaboração em toda a companhia.

A Campbell é usuária de diversas ferramentas de colaboração hospedadas em provedores de serviço, mas mesmo assim a companhia precisa de funcionários que possam gerenciar fornecedores e entender a tecnologia, relata Braunschweig.

fonte:http://computerworld.uol.com.br/carreira/2010/09/14/os-dez-perfis-de-profissionais-mais-demandados-em-2011/

Pele eletrônica artificial terá uso em robôs e humanos

Redação do Site Inovação Tecnológica - 13/09/2010


Os cientistas conseguiram dar uma elevada flexibilidade aos materiais inorgânicos, muito eficientes, mas geralmente quebradiços. [Imagem: Takei et al./Nature Materials]


Pesquisadores da Universidade da Califórnia em Berkeley, nos Estados Unidos, sintetizaram um novo material eletrônico sensível à pressão a partir de nanofios semicondutores.

A conquista abre caminho para o desenvolvimento de um novo tipo de pele artificial para uso em robôs e, no futuro, também em humanos.

"A ideia é fazer com que o material tenha funcionalidades semelhantes à da pele humana, o que implica incorporar a capacidade de tocar e de sentir objetos", disse Ali Javey, coordenador da pesquisa.

O material, batizado de e-skin (pele eletrônica) por seus criadores, é o primeiro feito de semicondutores inorgânicos cristalinos.

Pele artificial robótica

Uma pele artificial sensível ao toque ajudará a superar um grande desafio na robótica: controlar a quantidade de força necessária para segurar e manipular uma ampla gama de objetos.

"Os humanos sabem como segurar um ovo totalmente frágil sem quebrá-lo. Se quisermos que um robô faça isso, ou lave as louças, por exemplo, precisamos ter certeza de que ele não quebrará as taças de vinho no processo. Mas também queremos que o mesmo robô seja capaz de segurar com firmeza uma chaleira sem derrubá-la", disse Javey.

Um objetivo mais distante é usar a pele eletrônica para restaurar o sentido do tato em pacientes que precisam de membros protéticos. Mas essas novas próteses ainda exigirão avanços importantes na integração dos sensores eletrônicos com o sistema nervoso humano.

Em 2008, a mesma equipe havia criado o primeiro chip sensorial, integrando sensores e circuitos eletrônicos em uma mesma plataforma.

Pele eletrônica inorgânica

Tentativas anteriores de desenvolver pele artificial se basearam em materiais orgânicos, por serem flexíveis e de processamento relativamente simples.

"O problema é que os materiais orgânicos são semicondutores ruins, o que significa que dispositivos eletrônicos feitos com eles precisarão frequentemente de altas tensões para que seus circuitos funcionem", disse Javey.

Já os materiais inorgânicos, como o silício cristalino, têm propriedades elétricas excelentes, podem operar com baixa potência e são quimicamente estáveis. "Mas, historicamente, esses materiais têm-se mostrado sem flexibilidade e fáceis de quebrar," disse Javey.

"Nesse aspecto, trabalhos de vários grupos de pesquisa, inclusive o nosso, têm mostrado recentemente que fitas ou fios minúsculos de materiais inorgânicos podem se tornar altamente flexíveis, isto é, ideais para eletrônicos flexíveis e sensores," afirma o pesquisador.


Os transistores foram integrados sob uma borracha sensível à pressão, de modo a se inserir a funcionalidade sensorial. [Imagem: Takei et al./Nature Materials]
Como é feita a pele eletrônica

Para fabricar a pele eletrônica, inicialmente os cientistas cultivaram nanofios de germânio e silício, com espessura nanométrica (bilionésimos de metro), em um tambor cilíndrico. Em seguida, o tambor foi rolado em um substrato pegajoso.

O substrato usado foi um filme polimérico de poliimida, mas os pesquisadores afirmam que a técnica pode funcionar com diversos materiais, incluindo outros plásticos, papel ou vidro.

À medida que o tambor rolava, os nanofios eram depositados no substrato de maneira ordenada, formando a base a partir da qual folhas finas e flexíveis de materiais eletrônicos podem ser construídas.

Os pesquisadores imprimiram os nanofios em matrizes quadradas com 18 por 19 pixels, medindo 7 centímetros de cada lado. Cada pixel contém um transistor feito de centenas de nanofios semicondutores. Os transistores foram integrados sob uma borracha sensível à pressão, de modo a se inserir a funcionalidade sensorial.

A matriz precisou de menos de 5 volts de eletricidade para funcionar e manteve seu rendimento após ter sido submetida em testes a mais de 2 mil ciclos de dobras.

Segundo os pesquisadores, a pele eletrônica foi capaz de detectar pressões de 0 a 15 quilopascals, uma faixa comparável à força usada para atividades diárias, como digitar em um teclado de computador ou segurar um objeto.

Bibliografia:

Nanowire active-matrix circuitry for low-voltage macroscale artificial skin
Kuniharu Takei, Toshitake Takahashi, Johnny C. Ho, Hyunhyub Ko, Andrew G. Gillies, Paul W. Leu, Ronald S. Fearing, Ali Javey
Nature Materials
12 September 2010
Vol.: Published online
DOI: 10.1038/nmat2835
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=pele-eletronica&id=010180100913&ebol=sim

Pesquisadores criam robôs capazes de fraudar e enganar

Abby Vogel Robinson - 13/09/2010


Ronald Arkin e Alan Wagner ignoraram todas as discussões éticas sobre a robótica feita até agora, e parecem felizes ao transferir para seus robôs a capacidade de fraudar e enganar. [Imagem: Gary Meek]


Fraude automatizada

Pesquisadores do Instituto de Tecnologia da Geórgia, nos Estados Unidos, desenvolveram robôs capazes de fraudar e enganar.

Segundo os pesquisadores, os robôs foram projetados para criar pistas falsas, gerar comunicações fraudulentas e se esconder de forma a se beneficiarem e não serem encontrados.

"Nós desenvolvemos algoritmos que permitem que um robô determine se ele deve enganar um homem ou outra máquina inteligente e criamos técnicas que ajudam o robô a selecionar a melhor estratégia para ludibriar e reduzir a chance de ser descoberto," conta Ronald Arkin, que criou os robôs juntamente com seu colega Alan Wagner.

Quem é o inimigo

Em uma pesquisa totalmente aberta a questionamentos éticos, os pesquisadores exploraram o fenômeno da fraude e do engano de uma perspectiva geral, o que faz com os resultados possam ser aplicados tanto a interações entre humanos e robôs quanto a interações entre robôs.

A pesquisa está voltada para o desenvolvimento de robôs militares, que objetivam enganar um inimigo. O problema reside em deixar que o robô - o programa de computador que o controla - decida quem é o inimigo.

"A maioria dos robôs sociais provavelmente apenas raramente usará a capacidade de enganar, mas ainda assim esta é uma ferramenta importante no arsenal interativo dos robôs porque robôs que reconhecem a necessidade de usar artimanhas têm vantagens em termos de resultados em comparação com os robôs que não reconhecem a necessidade de fraudar," diz o professor Wagner, sem enumerar quais vantagens seriam essas.

Os pesquisadores centraram-se nas ações, nos pressupostos e nas comunicações de um robô tentando se esconder de um outro robô. A seguir eles desenvolveram programas que geraram comportamentos que buscam enganar os outros.

Jogos perigosos

O primeiro passo foi ensinar ao robô como reconhecer uma situação que justifique a utilização de artifícios e fraudes deliberadas, o que foi feito usando teoria da interdependência e teoria dos jogos.

A situação tinha que satisfazer duas condições básicas para justificar a fraude - deve haver um conflito entre o robô que vai enganar e quem, ou o quê, o está procurando, e o enganador deve se beneficiar da fraude.

Definida a fraude como meta, o robô começa a gerar comunicações falsas de forma a enganar o outro, seja um robô ou um humano.

Usando dois robôs autônomos, os pesquisadores verificaram que o robô enganador teve sucesso em 75% dos testes.

"Os resultados são uma indicação preliminar de que as técnicas e algoritmos descritos em nosso artigo podem ser usados para produzir com sucesso um comportamento fraudulento em um robô," diz Wagner.

Ética robótica

Os pesquisadores concordam que há implicações éticas que precisam ser consideradas para garantir que suas criações sejam consistentes com as expectativas e o bem-estar da sociedade.

"Ficamos preocupados desde o início com as implicações éticas relacionadas com a criação de robôs capazes de fraudar e entendemos que há aspectos benéficos e maléficos," diz Arkin. "Nós encorajamos firmemente a discussão sobre a adequação dos robôs enganadores para determinar quais, se houver, regulamentos ou orientações deverão condicionar o desenvolvimento desses sistemas."

Na verdade, apesar do discurso, os dois pesquisadores parecem ter ignorado toda a discussão sobre ética robótica que já é feita no ambiente científico e até político há muito tempo.
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=robos-capazes-fraudar-enganar&id=020180100913&ebol=sim

Raio trator começa a se tornar realidade

Redação do Site Inovação Tecnológica - 13/09/2010


O laser oco funciona como um duto, ao longo do qual as partículas absorvedoras de luz podem ser movimentadas para frente e para trás a distâncias de até um metro. [Imagem: Shvedov et al./APA]


Pesquisadores da Universidade Nacional Australiana conseguiram mover nanopartículas no ar ao longo de grandes distâncias, utilizando apenas um feixe de laser especialmente projetado para a tarefa.

Embora eles se refiram ao feito como o primeiro passo rumo a um "raio trator", uma forma de capturar naves espaciais ou asteroides, muito difundida em filmes de ficção científica, o experimento não funcionaria no vácuo do espaço.

Contudo, o feito pode ter grande impacto aqui na Terra, se não para arrastar pedras e carros, pelo menos para ajudar na delicada montagem de micro e nanomáquinas e de componentes eletrônicos em nanoescala e para lidar com amostras biológicas.

Raio laser oco

A equipe do professor Andrei Rode usou um feixe oco de laser para capturar micro e nanopartículas em seu núcleo escuro.

O laser oco funciona como um duto, ao longo do qual as partículas absorvedoras de luz podem ser movimentadas para frente e para trás a distâncias de até um metro.

"Quando as pequenas partículas são capturadas neste núcleo escuro, coisas muito interessantes começam a acontecer," conta o Dr. Rode. "Como a gravidade, as correntes de ar e os movimentos aleatórios das moléculas do ar ao redor da partícula empurra-a para fora do centro. Um dos seus lados fica iluminado pelo laser, enquanto o outro fica no escuro."

Como as partículas são sensíveis à luz, a diferença cria um pequeno empuxo, conhecido como força fotoforética, que empurra a partícula pelo túnel de luz.

"Além do efeito de aprisionamento, uma parte da energia do feixe e a força resultante empurra a partícula ao longo do duto oco do laser," diz o pesquisador.

Os experimentos foram feitos com nanopartículas de carbono com dimensões entre 100 nanômetros e 10 micrômetros, que foram aprisionadas e movimentadas por um laser de baixa potência, na faixa dos microWatts.

Usos práticos do raio trator

O raio trator se mostrou bastante preciso, posicionando a partícula com uma precisão de 2 micrômetros tanto na transversal quanto na longitudinal.

Outro elemento importante do experimento é que a estratégia de aprisionamento segura as partículas na intensidade mínima do laser, reduzindo assim o aquecimento a que elas ficam sujeitas e inibindo alterações em suas propriedades induzidas pela luz.

Os pesquisadores destacam que isto é um ponto importante para estudar diretamente as propriedades das partículas e para usar o raio trator para capturar células vivas.

E o Dr. Rode prevê ainda várias outras aplicações práticas para o seu raio trator.

"[As aplicações possíveis] incluem dirigir e ajuntar partículas no ar, manipular micro-objetos, capturar amostras de aerossóis atmosféricos, além de capturar e manusear materiais sem contato e com baixo nível de contaminação.

"Além disso, o feixe de laser oco poderá ser utilizado para transportar substâncias perigosas e micróbios, em pequenas quantidades", prevê ele.

Bibliografia:

Optical vortex beams for trapping and transport of particles in air
V. G. Shvedov, A. S. Desyatnikov, A. V. Rode, Y. V. Izdebskaya, W. Z. Krolikowski, Y. S. Kivshar
Applied Physics A
Vol.: 100, Number 2, 327-331
DOI: 10.1007/s00339-010-5860-4
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=raio-trator&id=010165100913&ebol=sim

segunda-feira, 13 de setembro de 2010

O cérebro fala: Sinais neurais são convertidos em palavras

Redação do Site Inovação Tecnológica - 09/09/2010


Esta é uma foto do experimento real, mostrando dois tipos de eletrodos postos sobre o cérebro de um paciente que sofre de epilepsia grave.[Imagem: University of Utah Department of Neurosurgery]


Pesquisadores da Universidade de Utah, nos Estados Unidos, conseguiram pela primeira vez traduzir sinais do cérebro em palavras.

O experimento, utilizando dois implantes neurais inseridos diretamente sobre o cérebro de um paciente, é um primeiro passo rumo à possibilidade de que pessoas paralisadas comuniquem-se usando suas próprias palavras, eventualmente sintetizadas por um computador.

Implantes cerebrais

"Conseguimos decodificar palavras usando somente sinais do cérebro, com um dispositivo que potencialmente poderá ser utilizado a longo prazo em pacientes paralíticos incapacitados de falar," diz Bradley Greger, professor de bioengenharia e membro da equipe que está fazendo os experimentos.

Apesar dos experimentos com implantes cerebrais estarem sendo feitos há vários anos, o método invasivo ainda encontra problemas, sobretudo com rejeição, o que leva os pesquisadores a salientarem que ainda serão necessários alguns anos de pesquisas para que se possa chegar a testes clínicos em larga escala.

Os implantes cerebrais - duas grades de microeletrodos com 16 sensores cada um - foram inseridos diretamente sobre o centro cerebral da fala de um voluntário com graves crises epilépticas.

O homem no qual foram feitos os testes estava sendo submetido a uma craniotomia - a remoção parcial e temporária do crânio - para a colocação de eletrodos convencionais que pudessem detectar a fonte de suas convulsões, na tentativa de interrompê-las cirurgicamente.

Sinais do cérebro em palavras


Uma imagem por ressonância magnética (MRI) do cérebro do paciente é sobreposta com a localização dos dois tipos de eletrodos usados: os quadrados vermelhos mostram a localização dos microimplantes usados no experimento de interpretação da fala. [Imagem: Spencer Kellis, University of Utah]
Aproveitando a cirurgia, os cientistas implantaram também os microeletrodos. Com o paciente já acordado, eles registraram os sinais cerebrais quando o paciente repetia cada uma de 10 palavras consideradas úteis para uma pessoa com paralisia total: sim, não, quente, frio, fome, sede, olá, adeus, mais e menos.

Mais tarde, eles tentaram descobrir quais sinais cerebrais representavam cada uma das 10 palavras. Quando compararam quaisquer dois sinais do cérebro, os cientistas foram capazes de distinguir os sinais cerebrais correspondentes a cada palavra com grande precisão: 76% no caso da palavra "sim" e 90% no caso palavra "não", por exemplo.

Quando eles analisaram todos os 10 padrões de sinais cerebrais ao mesmo tempo, algo essencial para um sistema prático, conseguiram identificar as palavras com um índice de correção entre 28% e 48% - um pouco melhor do que o mero acaso, que seria de 10%, mas ainda insuficiente para um aparelho que pretenda traduzir pensamentos de uma pessoa paralisada em palavras faladas por um computador.

"Esta é uma prova de conceito," afirma Greger. "Nós provamos que esses sinais podem dizer o que a pessoa está expressando bem acima do mero acaso. Mas precisamos ser capazes de identificar mais palavras com mais precisão antes que se torne algo que um paciente realmente ache útil."

Com os necessários avanços, os pesquisadores vislumbram no futuro um equipamento sem fios que possa converter em palavras os pensamentos de pacientes paralisados por derrames, acidentes, esclerose lateral amiotrófica etc.

Microeletrodos cerebrais


O implante neural consiste em uma matriz de 16 microeletrodos, com um espaçamento de 1 milímetro, instalados sobre uma base de silicone. [Imagem: Spencer Kellis, University of Utah]
O experimento utilizou um novo tipo de implante neural cujos microeletrodos se apoiam sobre o cérebro sem perfurá-lo. Esses eletrodos são conhecidos como microECoGs, porque são uma versão miniaturizada dos eletrodos usados em exames de electrocorticografia, ou ECoGs, desenvolvidos há mais de 50 anos.

Para o tratamento de pacientes com crises epilépticas graves e não controladas por medicação, os cirurgiões removem parte do crânio e colocam uma base de silicone contendo eletrodos ECoG sobre o cérebro. Esses eletrodos ficam lá durante dias ou semanas, com o crânio apenas colocado no lugar, sem ser fixado.

Apesar de não penetrar no cérebro, os eletrodos ECoGs são sensíveis o suficiente para detectar atividades elétricas anormais, permitindo que os cirurgiões localizem e retirem uma pequena porção do cérebro que está causando as convulsões.

O próximo passo da pesquisa será testar implantes com um número maior de eletrodos, com um menor espaçamento entre eles, de forma a aumentar a resolução dos sinais cerebrais captados.

Em vez dos 16 eletrodos do implante atual, os pesquisadores estão construindo uma grade com 121 eletrodos, dispostos em uma matriz de 11 por 11.

Bibliografia:

Decoding spoken words using local field potentials recorded from the cortical surface
Spencer Kellis, Kai Miller, Kyle Thomson, Richard Brown, Paul House, Bradley Greger
Journal of Neural Engineering
October 2010
Vol.: 7 056007
DOI: 10.1088/1741-2560/7/5/056007
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=implante-neural-converte-sinais-cerebrais-palavras&id=010110100909&ebol=sim

Mapas hiperbólicos mostram a internet como você nunca viu

Redação do Site Inovação Tecnológica - 09/09/2010


Atlas hiperbólico da internet. O mapa hiperbólico da internet é semelhante a uma rede sintética einsteiniana, vista no segundo mapa, abaixo.[Imagem: Boguna et al./Nature]


Coordenadas da internet

Um grupo internacional de cientistas criou uma nova técnica para traçar mapas que mostrem as coordenadas da internet.

Para Marián Boguñá e seus colegas da Universidade de Barcelona, os mapas refletem as diferentes conexões que formam a rede, o que permite simplificar os protocolos de transferência de informações usados hoje, sobretudo para aumentar sua eficiência.

O mapa hiperbólico é capaz de representar as redes principais que formam a arquitetura da internet, normalmente administradas pelas grandes empresas de telecomunicações ou por provedores.

Em vez de usar o espaço euclidiano tradicional, o mapa representa um hemisfério em um plano circular, onde cada elemento é desenhado com dimensões menores conforme se afasta do centro. Assim, nenhum dado ficará fora do espaço hiperbólico, por mais insignificante que seja, porque ele será sempre menor do que a distância que falta para chegar à borda do círculo.

Atualmente existem aproximadamente 24.000 sistemas dessa categoria, interligados por cerca de 60.000 conexões, em uma estrutura muito complexa, mas capaz de se auto-organizar.

Cada ponto no mapa representa um sistema autônomo. Os maiores contêm até mesmo a identificação da empresa à qual pertencem. Na parte externa está o nome dos países, com um tamanho de letra proporcional ao número de sistemas lá existentes. Cada país está localizado em uma posição média com relação ao número de sistemas autônomos que possui. Como se pode ver, os países com maior número de sistemas mais autônomos são os Estados Unidos, Reino Unido e Rússia.


Rede sintética no Modelo Einsteiniano. A rede modelada ilustra a conexão entre a geometria hiperbólica e a topologia de redes complexas sem escala. [Imagem: Boguna et al./Nature]
Espaço hiperbólico

"Estes mapas foram obtidos a partir de um modelo da rede em um espaço hiperbólico, de modo que, se dois nós estão próximos um do outro neste espaço, é muito mais provável que eles estejam interligados na rede real," explica Boguñá.

Por outro lado, "ao comparar as informações dos países onde estão localizados esses sistemas autônomos com as suas coordenadas no mapa, você pode ver que existem comunidades virtuais estreitamente relacionados, que refletem sua situação geopolítica no mundo," acrescenta o pesquisador.

Especialistas estimam que o protocolo atual de transferência de informações da Internet pode não suportar outra década na atual taxa de crescimento: 2.400 sistemas autônomos acrescidos à rede a cada ano.


Mapa hiperbólico dos sistemas-chave da internet. O crescimento exponencial do número de pessoas no piso hiperbólico ilustra a expansão exponencial do espaço hiperbólico. Todas as pessoas têm o mesmo tamanho hiperbólico. [Imagem: Boguna et al./Nature]
Rede dinâmica

Hoje, para transmitir informações entre dois computadores localizados em sistemas autônomos diferentes, todos os sistemas devem ter informações completas sobre todas as rotas entre todos os possíveis destinatários.

Como a Internet é uma rede dinâmica, sempre que ocorre uma mudança, o sistema deve recalcular todas as rotas afetadas por esta mudança, um processo de cálculo que leva cada vez mais tempo.

"Com o mapa que criamos, para determinar a melhor rota para as informações, você só tem que conhecer as coordenadas dos vizinhos mais próximos e determinar qual delas minimiza a distância até o ponto de destino," explica Boguñá, que acredita ser viável a adoção dos seus mapas hiperbólicos para a administração real da internet.

Bibliografia:

Sustaining the Internet with hyperbolic mapping
Marián Boguñá, Fragkiskos Papadopoulos, Dmitri Krioukov
Nature
07 September 2010
Vol.: Nature Communications
DOI: 10.1038/ncomms1063

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=mapas-hiperbolicos-internet&id=010150100909&ebol=sim

Robôs ganham capacidade de aprender com a experiência

Redação do Site Inovação Tecnológica - 10/09/2010


O robô Nao, controlado pelo sistema Xpero, tenta aprender pela experiência o que funciona e o que não funciona. [Imagem: Xpero]


Aprendizado de máquina

Deixe uma criança de um ano de idade brincar por algum tempo e ela facilmente descobrirá que é capaz de colocar uma bola sobre uma caixa, mas jamais conseguirá manter a caixa em cima da bola.

Proponha-se ensinar a mesma lição a um robô e prepare-se para um trabalho muito árduo.

Os cientistas sabem que, se querem fazer avançar a inteligência artificial, eles devem desenvolver uma espécie de "aprendizado artificial", ou aprendizado de máquina - como programas que permitam que um robô adquira conhecimento sobre seu ambiente simplesmente manipulando-o, como faz uma criança.

"Ensinar conceitos como mobilidade e estabilidade a um robô é um desafio descomunal," resume Björn Kahl, roboticista da Universidade Bonn-Rhein-Sieg, na Alemanha.

Mas a dificuldade não desanimou os cientistas. Por isso, Kahl e seus colegas se reuniram no projeto Xpero, que acaba de apresentar seus resultados.

Sistema cognitivo para robôs

O objetivo do projeto Xpero foi desenvolver um sistema cognitivo para um robô que lhe permita explorar o mundo à sua volta e aprender através da experimentação física, testando hipóteses logicamente.

O primeiro passo foi criar um algoritmo que permite que um robô explore e reconheça o ambiente a partir dos dados recebidos dos seus sensores.

Para que isto fosse possível, os pesquisadores tiveram que instalar um "conhecimento" predefinido no robô, na forma de noções básicas de lógica - ou seja, para ser capaz de aprender, o robô precisa "nascer" com um background que alimente seu processo cognitivo.

Mas robôs são máquinas controladas por computadores, e computadores são binários. Assim, no estágio atual, o robô apenas consegue entender as coisas como verdadeiras ou falsas - não há talvez. Mas, mesmo com essa limitação, o programa representou um avanço impressionante para os robôs.

Conforme se movimenta, o robô utiliza os dados dos seus sensores para testar seu conhecimento. Quando ele descobre como sendo falso algo que ele esperava que fosse verdadeiro, ele começa a fazer experiências para descobrir por que sua expectativa é falsa, e assim corrigir suas hipóteses.

Conceito de tempo para robôs

O maior problema que os pesquisadores enfrentaram foi selecionar os fatores importantes no fluxo maciço e contínuo de dados captados pelos sensores do robô - um problema que seria muito maior se eles tentassem escapar da "personalidade binária" do robô, inserindo noções como "talvez" ou "pode ser".

O segundo desafio foi encontrar uma forma para fazer com que um sistema baseado em lógica lidasse com o conceito de tempo - nada filosófico, apenas algo que pudesse permitir que o robô antevisse que uma caixa iria cair se ele tentasse colocá-la sobre uma bola - uma espécie de aula básica de causa e efeito para robôs.

Inicialmente o robô não tinha nenhuma visão de futuro. Mas, com cada observação, ele começou a aprender hipóteses melhores, que poderiam ser usadas para prever os efeitos de suas ações.

O problema é que, ao descobrir uma hipótese errada, o programa ficava frente a um número literalmente infinito de possibilidades do que poderia ser a solução correta.

A equipe teve que encontrar uma forma de curto-circuitar o processo, impedindo que o robô gastasse uma quantidade infinita de tempo testando cada possibilidade. A solução foi transformar o fluxo contínuo de informações que chegavam dos sensores do robô em situações estáticas definidas a cada poucos segundos - é como se os cientistas tivessem transformado um filme em fotografias.

Além disso, quando uma hipótese se mostrava falsa, os pesquisadores reduziram o número de possíveis soluções fazendo com que o robô construísse uma nova hipótese que mantivesse os conectores lógicos da sua hipótese falsa, alterando apenas as variáveis. Isso reduziu drasticamente o número de soluções possíveis.

Repositório de conhecimentos

Um desenvolvimento marcante obtido pelo projeto Xpero foi dar ao robô a capacidade para construir uma base de conhecimento. "Ele não faz distinção entre os conhecimentos prévios e os conhecimentos adquiridos," explica Kahl. "Esta possibilidade de reutilização do conhecimento é muito importante. Sem isso não haveria aprendizagem incremental."

Nas demonstrações, os robôs controlados com o sistema cognitivo Xpero moveram-se com desenvoltura pelo ambiente, mexeram e reposicionaram os objetos e acumularam um conhecimento crescente sobre ambiente.

Mostrando um desenvolvimento que entusiasmou os cientistas, um dos robôs começou a usar objetos como ferramentas, usando um objeto para mover ou manipular outro objeto que não estava ao seu alcance.

Embora esses robôs exploradores encenem um show digno de se ver, os cientistas afirmam que os desenvolvimentos mais excitantes do projeto Xpero estão no aprendizado que a equipe obteve sobre o processo de aprendizagem de máquina em si.

"Nós ganhamos um bocado de insights sobre os desafios da aprendizagem e de como a aprendizagem de máquina realmente funciona. Meramente fazer o robô perceber que algo não está certo exigiu percepções fundamentais do ponto de vista da pesquisa." disse Kahl.

Os pesquisadores agora estão planejando um novo projeto, no qual dois robôs ficarão rodando o sistema durante um tempo muito maior - talvez meses - para ver como seu conhecimento avança.

"Mas embora o Xpero represente um grande avanço na aprendizagem de máquina, ele ainda está muito aquém das capacidades de um bebê," diz Kahl. "É claro que o robô agora pode aprender o conceito de mobilidade. Mas ele não entende o que significa mobilidade no sentido que um humano entende."

Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=aprendizado-maquina-robos-capacidade-aprender&id=010180100910&ebol=sim

Google lança busca que mostra resultados enquanto usuário digita

BBC - 09/09/2010



Busca na velocidade do pensamento

O Google agilizou sua ferramenta de busca ao lançar nesta quarta-feira um novo produto, o Clique Google Instant, que mostra os resultados enquanto o usuário digita o que procura. O mecanismo promete economizar de dois a cinco segundos em cada busca.

Anteriormente, os resultados da busca só apareciam após apertar a tecla "Enter" ou clicar em "Busca". A nova ferramenta também "prevê" o que se está buscando com mais precisão do que ocorria antes.

"Essa é uma busca na velocidade do pensamento", afirmou Marissa Mayer, vice-presidente do Google para ferramentas de busca, durante a apresentação do produto no Museu de Arte Moderna de São Francisco.

Vida acelerada

Durante a demonstração, ela digitou a letra "w" e uma lista de links sobre o tempo (weather, em inglês) apareceu na tela, juntamente com imagens mostrando a temperatura. "Estamos adivinhando qual o termo é provável que você esteja procurando e oferecendo resultados para essa busca."

Ao se digitar a letra "g", as primeiras opções incluem Gmail, Google Maps e Google.com. A digitação do "m" traz msn na terceira posição.

O Google calcula que um usuário comum gaste nove segundos digitando o que pretende procurar e outros 15 segundos olhando para os resultados encontrados.

O Google Instant já está disponível para as versões do buscador dos Estados Unidos, Grã-Bretanha, França, Alemanha, Itália, Espanha e Rússia para quem usa os navegadores Chrome 5 ou 6, Firefox 3, Safari 5 para Mac e Explorer 8. A ferramenta para as outras versões será lançada nos próximos meses.

A empresa informou que usuários de domínios que não sejam o Google.com podem acessar a nova ferramenta apenas se eles estiverem conectados em sua conta do Google.

Cutucando a Microsoft

Para Harry McCracken, do blog Technologizer.com, o Google está apostando todas as fichas na crença de que velocidade é tudo.

"Economizar alguns segundos não é lá essas coisas. Uma das minhas primeiras impressões é a de que verei resultados que não quero até eu digitar o suficiente para que ele saiba o que eu quero exatamente", afirmou McCracken em entrevista à BBC.

O especialista em tecnologia Robert Scoble afirmou que o Google Instant traz um grande desafio para a Microsoft e seu buscador, o Bing.

"A ferramenta muda dramaticamente a maneira como eu faço minhas buscas. Acredito que é um grande salto, que acaba deixando o Bing bem menos interessante e obriga a Microsoft a agir."
Fonte:http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=google-busca-instantanea&id=010175100909&ebol=sim

50 ANOS QUE ABALARAM O MUNDO

Fonte: Sérgio Mascarenhas (*)
Após a invenção dos raios-X por Rontgen em 1895, o que tomou a fronteira no desenvolvimento científico foi o campo da radioatividade. Os estudos começaram com Antoine Becquerel (1852-1908), cientista francês, que pela primeira vez detetou a radioatividade em sais de urânio. Porém sem identificar claramente a natureza das radiações, que hoje sabemos serem partículas (alfa e beta) e radiação eletromagnética (raios-gama).

Porém a grande contribuição veio de Marie (1867-1934) e Pierre Curie (1859-1906), que além de determinarem a natureza das radiações descobriram novos elementos radioativos como o Radium e o Polônio.

Marie Sklodowka Curie, nasceu na Polônia ocupada e é um exemplo espetacular de paixão pela ciência, capacidade inacreditável de trabalho e naturalmente criatividade. Mas o que a faz única é que foi a primeira mulher a ganhar tal expressão científica num mundo não apenas masculino, mas machista. Contar a história de Madame Curie, como passou a ser conhecida pelo público, é impossível nesta curta crônica , tais são os eventos tão dramáticos e intensos que permearam sua vida! Estudar a vida de Madame Curie é uma obrigação histórica e cultural. Foi uma das cientistas a ganhar dois prêmios Nobel (de Física e de Química)! Lutou bravamente por seus ideais ao lado de seu esposo Pierre, morto dramáticamente por atropelamento por uma carruagem em Paris.

Com sua filha Irene , seguiu-se outra bela história que contarei em outra crônica, sob o tema Mulheres na Ciência. Irene também recebeu o Premio Nobel, pela descoberta da radioatividade artificial, com seu esposo Joliot-Curie (sobrenome por ele adotado espontâneamente). Mas escolhi para a minha usual metáfora com Janus, o Deus romano, bifronte, da ilustração, que mira o passado e o futuro, uma outra figura feminina Hipatia (séc. IV DC) , grande matemática e cientista grega de Alexandria.

A razão que me induz a cotejar as duas grandes mulheres da ciência é ainda o drama da vida da ciência e da sociedade. Hipatia era cientista, filósofa e professora na famosa Biblioteca de Alexandria no Egito. Adotava a filosofia grega denominada neoplatonica, que resumidamente implicava em que o ser humano pode se aperfeiçoar e conquistar a felicidade no mundo, em sua vida. Isto se opunha drasticamente à filosofia católica em ascensão que o homem é imperfeito e que a felicidade somente pode ser alcançada no Paraíso religioso, óbviamente católico!

Hipatia tinha dado contribuições na Geometria, afinal foi representada na famosa Escola de Atenas de Rafael, próxima a Euclides, também de Alexandria! Aí deu-se a tragédia: O bispo católico de Alexandria, Cirilo, instigou a multidão a assassinar Hipatia, que foi apedrejada e queimada pelo ódio religioso e por sua paixão pela ciência material contrária ao “espiritualismo” católico de

Aí estão as duas Hipatia e Madame Curie, exemplos notáveis para as jovens mulheres do século XXI que buscam na ciência a sua afirmação e independência criativa!

Sérgio Mascarenhas (*) – Físico, Professor da USP. sm@usp.brentao
Fonte:http://www.sbpcpe.org/index.php?dt=2010_09_02&pagina=noticias&id=05843

NOVO CAMINHO PARA ENVELHECER BEM

Fonte: Júlia Dias Carneiro, Ciência Hoje Online de 02.09.2010
Descoberta de uma enzima que afeta a produção de placas no cérebro pode indicar um caminho para tratar o mal de Alzheimer, que afeta milhões de pessoas no mundo.

A doença de Alzheimer é uma das principais ameaças a uma velhice saudável. Ela provoca a perda de memória e da capacidade de cognição e afeta principalmente pessoas a partir dos 60 anos de idade.
Há mais de um século o mal de Alzheimer desafia a ciência. Sua primeira descrição foi feita em 1906 pelo alemão Alois Alzheimer (1864-1915), a partir do grave quadro de demência que encontrou na paciente Auguste Deter, em 1901, e acompanhou até sua morte, aos 56 anos, em 1906.

Hoje, estima-se que mais de 20 milhões de pessoas sejam vitimadas pelo mal, que afeta sobretudo indivíduos com mais de 60 anos – um universo cada vez maior de pessoas, num mundo em que a expectativa de é vida crescente. A Organização Mundial de Saúde (OMS) prevê aumento de 66% na ocorrência de Alzheimer e outras formas demência até 2030, em comparação aos números de 2005.

Pesquisadores descobriram proteína ligada à produção do beta-amiloide no cérebro, elemento-chave para o mal de Alzheimer.

Pesquisas incansáveis buscam entender a doença, que ataca a capacidade cognitiva e causa a degeneração progressiva da memória. Agora, uma pesquisa publicada pela Nature nesta semana aponta um caminho promissor para se chegar a uma saída.

Pesquisadores norte-americanos descobriram uma nova proteína que está diretamente ligada à produção nociva do beta-amiloide no cérebro, um elemento-chave para o mal de Alzheimer.

O acúmulo do beta-amiloide, um segmento de proteína, é considerado um dos principais fatores associados à doença, compondo as placas senis que se formam no cérebro das vítimas da doença.

Um dos líderes da pesquisa, Paul Greengard, do Laboratório de Neurociência Molecular e Celular na Universidade Rockefeller, em Nova York, conta que já foram feitas muitas tentativas para reduzir a sua formação no passado. Mas a tarefa não é simples: “Geralmente se procura conter sua produção a partir da inibição da gama-secretase, que é a enzima responsável pela produção do beta-amiloide”, explica ele à CH On-line. “Porém, essas tentativas tiveram pouco sucesso, em parte porque a inibição de gama-secretase pode levar a efeitos colaterais graves, incluindo sangramento gastrointestinal e câncer de pele.”

Inibição parcial

Explica-se: o beta-amiloide é um segmento proteico formado a partir da quebra (ou clivagem) de uma proteína transmembrana conhecida como APP. A quebra é feita por uma enzima – gama-secretase. Inibir esta enzima, assim, poderia impedir a produção indesejável do segmento proteico. Porém, a mesma enzima é indispensável para o desenvolvimento e equilíbrio do organismo, explica Greengard.

“A gama-secretase converte muitas proteínas precursoras em moléculas ativas que têm papel fundamental para manter o nosso sistema imunológico, o trato digestivo e para inibir o desenvolvimento do câncer”, diz o neurocientista, um dos vencedores do Nobel de Medicina ou Fisiologia em 2000.

Índices do beta-amiloide e desenvolvimento de placas ligadas ao Alzheimer diminuíram no cérebro de camundongos

E se fosse possível inibir a gama-secretase de forma seletiva, mirando apenas na formação do beta-amiloide? Foi mais ou menos esse efeito que os pesquisadores conseguiram obter a partir da nova enzima que descobriram, a GSAP – sigla em inglês para ‘proteína ativadora de gama-secretase’.

A inibição da GSAP foi testada em camundongos, que tiveram o gene para a enzima silenciado.

Passados seis meses, os pesquisadores verificaram que os índices do beta-amiloide no cérebro dos animais haviam diminuído significativamente (em torno de 40%), assim como o desenvolvimento das placas ligadas ao Alzheimer.

“Como a GSAP se mostrou muito seletiva em relação à formação do beta-amiloide sem influenciar outras funções da gama-secretase, ela oferece, potencialmente, uma abordagem muito mais segura para tratar a doença”, considera Greengard. “Ainda há muito a fazer antes de testar seu efeito em humanos, mas estamos otimistas em função de seu mecanismo seletivo.”

Remédio contra câncer

Os pesquisadores chegaram à nova enzima ao estudar os efeitos de um medicamento usado contra determinados tipos de câncer, o imatinib (conhecido como Gleevec, seu nome comercial). Em 2003, eles descobriram que o fármaco reduzia significativamente a produção do beta-amiloide, mas o mecanismo para tal era desconhecido.

“Agora, demonstramos que a GSAP é a proteína sobre a qual o medicamento influi para reduzir o beta-amiloide e a formação de placas. Assim, a enzima oferece um alvo terapêutico novo e imediato para o tratamento do mal de Alzheimer”, ressalta.

"Estamos confiantes de que este novo caminho pode levar a tratamentos bem-sucedidos para essa doença intratável e importante”

Há, porém, uma barreira imposta pelo próprio organismo a se superar: o medicamento não consegue ultrapassar a barreira hematoencefálica, a fronteira que ‘filtra’ as substâncias químicas presentes no sangue antes de chegarem ao sistema nervoso central.

Segundo Greengard, a equipe está procurando desenvolver derivados relacionados à droga que possam entrar no cérebro e reduzir a formação do beta-amiloide com eficácia. Outra opção, aponta, será silenciar o gene da GSAP para prevenir a produção de placas do beta-amiloide no cérebro.

Antes disso, porém, é preciso conhecer melhor os papeis desta enzima, sobre a qual pouco se sabe. “Temos que avaliar a fundo suas funções fisiológicas antes de adotar uma solução como esta”, diz Greengard. “Ainda há um longo caminho para que as nossas descobertas se traduzam em práticas clínicas. Porém, estamos confiantes de que este novo caminho pode levar a tratamentos bem-sucedidos para essa doença intratável e importante”, destaca.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_09_02&pagina=noticias&id=05843

RUMO À COMPUTAÇÃO VERDE

Fonte: Ana Lúcia Moura, da UnB Agência
Há pelo menos 40 anos, o cientista alemão Reiner Hartenstein estuda os computadores. Naquela época, as máquinas que hoje dominam o mundo eram artigos de luxo, enormes e caros. Hoje, os computadores são baratos, portáteis, velozes, cabem na palma da mão e armazenam milhões de informações. Ninguém vive sem eles. O resultado é um consumo de energia nunca antes imaginado e que pode tornar insustentável seu uso no futuro.

Reiner Hartenstein assistiu a essa evolução dos computadores inquieto. Há quase duas décadas ele busca alternativas para tornar mais econômica a performance dos computadores sem perder eficiência. É a chamada computação verde, uma nova área da ciência. Da inquietude nasceram várias descobertas e parcerias, uma delas com o Departamento de Computação da Universidade de Brasília, onde o cientista está desde segunda-feira.

Em entrevista exclusiva à UnB Agência, Reiner Hartenstein revelou que somente os servidores da Google consomem 2% de toda a energia usada no planeta. “A reconfiguração dos computadores traria resultados maiores do que todas as demais propostas relacionadas à mudança climática”, contou ele, que é considerado um dos pais da computação reconfigurável, uma nova forma de desenvolver os computadores que exige menos capacidade de processamento e, em consequência, menor gasto de energia.

O tema foi detalhado em palestra na quarta-feira, 28 de julho, exclusiva para especialistas da área no Departamento de Ciência da Computação. Nesta quinta-feira, 29 de julho, o cientista falará novamente, desta vez em encontro aberto a especialistas de todos os setores, às 10h, no auditório da Reitoria, em inglês.

A seguir, a entrevista exclusiva de Reiner Hartenstein à UnB Agência:

UnB Agência – Por que a computação, como funciona atualmente, é insustentável no futuro?
Reiner Hartenstein – Os computadores estão em toda a parte, nas fábricas, nos carros, nos edifícios. Um avião de passageiros tem mais de mil processadores. Há o crescimento da internet, com mais e mais coisas carregadas na rede, videos on demand (compra de filmes pela internet para exibição no próprio computador), TV. E está chegando o cloud computing (os programas não ficam mais nos computadores e sim em grandes servidores, acessíveis pela internet). Empresas como Google, Yahoo e IBM têm um consumo de energia equivalente ao de uma cidade inteira. O Google agora está querendo vender eletricidade e terá suas próprias geradoras. Uma reportagem da revista Time mostrou que o Google sozinho responde por 2% do consumo mundial de energia. O custo da eletricidade é superior ao próprio custo dos servidores. Em 2005, quando ainda era pequena, a conta de eletricidade do Google era de US$ 50 milhões por ano.

UnB Agência – Podemos imaginar se os usuários terão que pagar por isso?
Reiner Hartenstein – Há relatos de que chegamos ao pico da produção de petróleo, o que tem impactos sobre o custo da energia. É de se esperar, pelo menos, preços maiores de energia. Talvez em 10 anos as contas fiquem impagáveis. Até aqui, a economia baseou-se no aumento da performance dos processadores. Mas isso acabou em 2005, porque os microprocessadores aquecem demais – e não é possível ter resfriamento a água nos laptops. Começaram, então, a ser usados vários processadores num mesmo chip. Mas o problema é a programação. Será preciso reescrever os softwares e reconfigurar os computadores para a computação paralela, algo que não existe. Mas não há mão de obra especializada.

UnB Agência – Como a computação verde pode reduzir o consumo de energia?
Reiner Hartenstein – Desde 15 anos atrás, os cientistas passaram a pesquisar os ganhos de produtividade com FPGA (dispositivo que pode ser programado pelo usuário, diferentemente da grande maioria dos chips encontrados no dia a dia, que já vêm pré-programados, isto é, com as suas funcionalidades definidas na fabricação). Há muitas publicações mostrando que o desempenho é espetacular em algumas tarefas. No caso da quebra de códigos criptografados, os ganhos são de 28 mil por cento. E gastando 3 mil vezes menos energia para a mesma tarefa. Com resultados assim, pode-se dispensar até o uso de ar condicionado nas máquinas.

UnB Agência – Se os resultados são tão bons, o que segura esse desenvolvimento?
Reiner Hartenstein – Existem poucos cientistas que sabem como fazer a programação. O programador típico não sabe. É preciso reformular a educação em Ciência da Computação. Trata-se de um grande esforço que leva anos para ser implementado. Também leva anos para o desenvolvimento de ferramentas de software que dão suporte a isso. Mas a reconfiguração dos computadores traria resultados maiores do que todas as demais propostas relacionadas à mudança climática. A Pegada de Carbono (total de emissões de carbono associadas a uma organização, país, etc) da internet é maior do que todo o tráfego aéreo mundial.

UnB Agência – O que precisa ser mudado na educação?
Reiner Hartenstein – É preciso que os programadores entendam paralelismo. E precisam entender que o hardware é mais complexo se há vários processadores, entender como esses processadores se comunicam entre si, como o FPGA se comunica com os processadores. Mas são coisas que os programadores nunca aprenderam. O ensino clássico da Ciência da Computação criou uma divisão entre software e hardware. O lado do software não sabe muito sobre hardware. Tanto que, quando as pessoas do hardware se deparam com um problema de programação, passam a programar eles mesmos. Os programadores não gostam que se diga isso, mas nunca se consegue ensinar hardware a um programador, mas se consegue ensinar programação a alguém do hardware. Isso foi causado pelo modo tradicional como a Ciência da Computação é tratada.

UnB Agência – Onde esses conceitos de computação verde estão mais avançados?
Reiner Hartenstein – Computação verde é uma espécie de selo para quem adota medidas de conservação, mas tem efeito limitado quando comparado à reconfiguração, que tem um efeito muito maior. Nos próximos seis ou sete anos, talvez o impacto seja de uma redução por um fator de três, no máximo. É importante, mas não resolve tudo. Os ganhos da reconfiguração, ainda que mais difíciis, são maiores. Naturalmente, os novos softwares terão que rodar em equipamentos diferentes. Isso é complexo porque diferentes indústrias precisam cooperar para implementar isso. E é preciso um esforço grande para que essas indústrias cheguem à conclusão de que devem se unir a esse esforço.
Fonte:http://www.sbpcpe.org/index.php?dt=2010_09_02&pagina=noticias&id=05843

CARTA DE UM PROFESSOR DOENTE.

Fonte: Robério Anastácio Ferreira (*)
Aracaju - SE, 27 de Agosto de 2010.

Estou doente...

Produzo mais papéis e máquinas e menos seres humanos, indivíduos! A nossa era se chama “PRODUÇÃO CIENTÍFICA”...

Quanto? Preciso estar “on line” e ligado 24 horas para produzir: 5 artigos por ano, pelo menos 1 Qualis A e os demais podem ser A2, B1 ou B2, mas o resto não interessa; pelo menos 1 livro e um capítulo de livro por ano.

Ah! Não posso esquecer das comunicações em eventos! Devem ser preferencialmente trabalhos completos, publicados nos anais em Congressos Internacionais porque os resumos expandidos e os simples não contam nada na nossa avaliação. E se forem em eventos regionais ou locais menos ainda.

Devo participar de 2 Programas de Mestrado como efetivo e um terceiro como Colaborador.

Devo ministrar 4 ou 5 disciplinas na Graduação, ou se não for assim preciso ter 4 ou 5 turmas, com pelo menos 50 vagas ofertadas para ministrá-las. Muitas das vezes, em espaços que comportariam muito menos... Quantos créditos: 12, 16, 20 ou 24 por semestre?

Devo ministrar também 1 ou 2 disciplinas na Pós-Graduação. Preciso orientar os trabalhos de conclusão de curso (4 ou 5, às vezes só um pouco mais por semestre). Preciso orientar pelos menos dois estudantes de Mestrado por ano... Ah! Eles precisam defender suas dissertações em 24 meses... O ideal já seria defender em 18 meses! E os Co-orientados? Quantos?

Tenho ainda os estágios, os projetos de fomento e de PIBIC. Ainda faltam as comissões e os cargos administrativos!

Precisamos de mais cursos, mais disciplinas e mais estudantes, mais cargos e mais comissões... Assim, ganhamos mais TRABALHO e temos menos VIDA. Meu tempo está acabando... O dia é muito curto e as 24 horas já não me são mais suficientes.

Que tal repensarmos o nosso Calendário? O dia poderia ser um pouco maior e o ano poderia ter mais alguns meses... Puxa! Como seria feliz por isto... PODERIA TRABALHAR MAIS! Muito mais, pois ainda preciso ser bolsista de produtividade. Quero também ser pesquisador!

Antigamente, o Professor era Senhor ou Senhora, um segundo pai ou uma segunda mãe, um tio ou uma tia. Era também um EDUCADOR. Um erudito e um verdadeiro HERÓI. Hoje o professor “brother”, “chapa”, “meu”, “brô” e “véio”, entre outros... Muitos outros!

O bom é que temos mais professores. Muito mais! Por outro lado, temos menos salas e dividimos os nossos 15m2 (chamado gabinete) com mais 3 ou 4 e todos os seus orientandos também. Pelo menos não posso reclamar de solidão no trabalho, nem de monotonia. A vida de Professor é pura agitação... Altas baladas como dizem.

Meu dia de trabalho terminou na Instituição... A jornada de trabalho de um celetista é de 44 horas por semana, com tendência natural de reduzi-la. E a nossa de professor? Isto é muito pouco!

Além da nossa rotina diária, ao chegarmos em casa precisamos continuar TRABALHANDO! Tem as correções de provas, aulas e notas de aulas para serem preparadas, seminários, palestras, etc.. Ou melhor, fazer invencionices para melhoramos a nossa performance para nossos estudantes.

As aulas não são mais atrativas... Eles dizem: melhor seria estar com a Galera ou a Turma... Atender celular, passar minhas mensagens, jogar meus novos games do celular, msn, orkut, facebook, mostrar meu aparelho de celular novinho ... Tem muito mais opções! Perder tempo com estas aulas? Que tédio! Tudo está na Internet mesmo.

Esqueci da elaboração dos projetos! Preciso de recursos financeiros para realizar alguns trabalhos e o prazo se encerra amanhã. Ainda bem que o envio é on line. O sistema, hoje em dia, em alguns editais recebem até 24 horas depois... UFA! Vai dar tempo.

Aqueles que precisam da nossa atenção em casa: mãe, pai, esposa, marido, filha, filho, neta, neto, noiva, noivo, namorada, namorado... Gato, cachorro, peixe, papagaio, periquito... etc? ELES PODEM ESPERAR!

E as minhas necessidades: físicas e fisiológicas? E o meu lazer e meu prazer? Confesso que às vezes me sobra um tempinho para isto tudo, apesar de serem atividades menos nobres.

Preciso dormir, mas tenho que TRABALHAR! Preciso acordar, antes de dormir. Estou doente! Não tenho tempo de ir ao médio... Depois vejo isto! Estou gravemente doente, mas não posso me curar. Preciso TRABALHAR e PRODUZIR mais papéis (textos, livros, artigos, relatórios, etc...). Meu CURRÍCULO LATTES está desatualizado!

Tenho que produzir mais máquinas também, pois o mercado assim exige.

Fico triste no final. A maior parte de toda a minha produção permanece intocável e, na maioria das vezes, enfeitando estantes e gavetas. Poucos realmente lêem aquilo que é fruto de uma vida inteira de total entrega ao sistema. Ou no caso das máquinas, algumas ficam sem emprego.

Ah! Eu não posso me queixar, pois apesar desta pequena carga de trabalho tenho um bom salário.

“Não sois máquinas! Homens é o que sois” é uma famosa frase de Charles Chaplin, ou ainda “O que somos é conseqüência do que pensamos” de Buda. Acredito que isto é coisa do passado... Está fora de moda!

Podemos ver que a geração atual não os conhece, pois seus mais recentes ídolos e sua identidade são diferentes: “Exterminador do Futuro – Arnold Schwarzenegger”, “Rambo – Sylvester tallone”, “Indiana Jones – Harrison Ford”, “007 - Daniel Craig”, etc. Estes são os verdadeiros heróis: imbatíveis, incansáveis e imortais.

Estou doente... Gravemente doente... Incurável...

E no fim!

AQUI JAZ um EX-PROFESSOR que um dia sonhou ser PESQUISADOR.

(*)Prof. Dr. Robério Anastácio Ferreira
Universidade Federal de Sergipe
Departamento de Ciências Florestais
Mestrado em Agroecossistemas
Mestrado em Ecologia e Conservação
Demais informação: acessar Currículo Lattes
raf@ufs.br; raf@infonet.com.br
* 06/01/1970
† incógnita
Fonte:http://www.sbpcpe.org/index.php?dt=2010_09_02&pagina=noticias&id=05843