Translate

sábado, 27 de novembro de 2010

Plano Nacional de Educação 2011 - 2020 será lançado na segunda-feira

O ministro da Educação, Fernando Haddad, apresentará na próxima segunda-feira, 29 de novembro, o Plano Nacional de Educação 2011 - 2020, em cerimônia no Palácio do Planalto

O presidente Luiz Inácio Lula da Silva estará presente ao evento, que incluirá a inauguração simultânea de 25 campi de universidades federais e 30 campi dos Institutos Federais de Educação, Ciência e Tecnologia (Ifets).

O novo Plano Nacional da Educação (PNE) desperta expectativas nos especialistas do setor. Com o lançamento marcado para a próxima segunda-feira (29), o PNE passará pela apreciação dos parlamentares no Congresso Nacional ainda neste ano, para, então, servir de diretriz para as políticas educacionais brasileiras - em todas as esferas de poder - de 2011 a 2020.

Poucas informações a respeito da nova lei foram divulgadas pelo ministério. O que já se sabe é que o texto será composto por poucas metas - ponto em que o novo PNE difere bastante do plano vigente, este último composto por 295 objetivos.

"Será um conjunto de 20 metas que se desdobram em várias estratégias. O ministério buscou um modelo mais sintético em relação às metas, mas ainda não sabemos o conteúdo delas. O compromisso era que esse plano se alimentasse das resoluções da Conferência Nacional de Educação (Conae)", afirma Denise Carreira, coordenadora do programa Diversidade, Raça e Participação da Ação Educativa e relatora nacional de Educação.

A Conae aconteceu de 28 de março a 1º de abril deste ano e contou com a participação de mais de 3 mil representantes da sociedade, que discutiram os rumos da Educação Brasileira e elaboraram um documento final.

Segundo Denise, entre os pontos destacados durante a conferência, está a constituição do Sistema Nacional de Educação, que ela espera ver contemplada no novo PNE: "O sistema organizado é estruturante para a política de Educação. Ele nos dará mais condições de operar as metas", diz.

Atualmente, a participação das prefeituras, dos Estados e da União na Educação brasileira não está clara - o que dificulta a responsabilização dos gestores e a conquista de melhores resultados de aprendizagem.

Responsabilização de gestores

Para Cesar Callegari, membro do Conselho de Governança do Todos e integrante do Conselho Nacional de Educação (CNE), um aspecto que não pode faltar no novo plano são ferramentas para responsabilizar os gestores pela qualidade do ensino e pelo desenvolvimento das políticas públicas do setor.

"Tenho a expectativa de encontrar no texto dispositivos que obriguem as unidades da federação e os municípios a criarem ou adequarem seus planos de Educação. E isso com um prazo fixado", diz ele. Ainda hoje, após uma década da vigência do atual PNE, há muitos municípios que não elaboraram seus planos - segundo o Instituto Brasileiro de Geografia e Estatística (IBGE), em 2009, 44% das cidades ficaram sem planejamento educacional.

Segundo Callegari, uma forma de punir estados e municípios que não adaptarem os planos seria interromper o repasse de transferências voluntárias da União. Denise ressalta, no entanto, que os mecanismos de responsabilização dos gestores devem ser precisos para não penalizarem a população.

"Os planos de Educação são muito importantes para o país, e a discussão sobre eles deve ganhar o espaço público", aponta a especialista. Ela afirma ainda que parte das cidades fizeram planos de Educação sem o debate com a sociedade. Isso resultou em um processo pouco participativo e sem envolvimento da comunidade local.

Diversidades e financiamentos

O novo PNE deverá fixar uma proporção do Produto Interno Bruto (PIB) a ser investida na Educação. No entanto, para Denise, a medida é insuficiente para garantir uma Educação de qualidade para todos. "É necessário avançarmos e estabelecermos o Custo Aluno Qualidade (CAQ)", afirma. O conceito do CAQ vem sendo debatido no País e estabelece um valor mínimo de investimento, sem o qual uma escola não teria condições adequadas de funcionar nem os alunos de aprender.

Na opinião de Denise, o novo PNE também deve contemplar metas que tratem do enfrentamento da diversidade na sala de aula , principalmente da questão racial. "Existe racismo nas escolas, que opera de forma explícita ou silenciosa, e ele precisa ser trabalhado, pois afeta a autoestima e a aprendizagem". Uma forma de tratar a questão, sugere, seria implementando, de fato, a lei que obriga o ensino da cultura e da história afrobrasileira.
(Com informações do Todos pela Educação)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74936

sexta-feira, 26 de novembro de 2010

Crise provoca mudanças permanentes no mercado de trabalho

Empresas têm mais dificuldade em reter profissionais. Falta de reconhecimento é a maior queixa entre os insatisfeitos.

As companhias seguraram salários, treinamento, bônus e jogaram mais trabalho em cima dos funcionários em resposta aos tempos da crise. Com o mercado voltando ao normal, as táticas empregadas podem ter um efeito negativo de turnover: o desgaste pode fazer com que os profissionais busquem outro empregador.

Para os líderes de TI a perspectiva é clara: se medidas não forem tomadas, os funcionários podem largar os cargos atuais para buscar algo melhor. Um dos aspectos importantes, embora cada vez menos fundamental, é o salário dos profissionais. De acordo com o diretor de software corporativo em uma empresa de manufatura dos EUA, John Moore, as companhias que não querem perder equipe devem buscar reconhecer os profissionais de alguma forma. “Dinheiro não é tudo. Mais do que nunca, as empresas precisam se comunicar mais abertamente e dar aos profissionais a certeza de que investem em um trabalho que será valorizado e que faz a diferença”, avalia.

Apesar de haver uma mudança no mercado para os profissionais, principalmente no Brasil, a crise mudou a forma como os profissionais são contratados. Os anúncios agora são muito mais específicos e incluem habilidades detalhadas.

Com isso, os profissionais devem se preparar para serem claros, principalmente para primeiros contatos. Uma prática comum é realizar uma primeira entrevista por telefone, já que as empresas querem investir tempo em entrevistas pessoais mais certeiras.

Conseguir empregos no alto da pirâmide também está mais complicado. Esses profissionais, quando empregados, têm dificuldades maiores em manter o emprego e o avanço profissional.

De acordo com um profissional da indústria de energia, que preferiu não se identificar, as pessoas mais jovens têm mais segurança porque custam menos ao empregador. Enquanto isso, os baby boomers (profissionais acima de 50 anos) estão sob constante risco.

Para alguns empregadores, o candidato ideal a emprego é aquele que reúne habilidades muito distintas. Há quem diga que existe até exagero no que se espera dos profissionais, mas todos concordam que voltar aos bancos escolares para se atualizar no que há de mais moderno em sua área é algo essencial nos dias de hoje.

E se a busca pelo emprego tem a ver com salário, a educação se multiplica em importância. A COMPUTERWORLD/EUA levantou que um dos principais mestrados profissionais em tecnologia dos EUA, na Universidade da Carolina do Norte, rendeu ofertas de emprego para 97% dos formados em apenas 90 dias após a graduação. Os empregos tiveram uma média de salário inicial de 94 mil dólares, mais do que suficiente para cobrir o custo do próprio programa, que fica em torno de 21 mil dólares.

Entre as 70 Melhores Empresas para Trabalhar em TI e Telecom no Brasil, levantadas pela COMPUTERWORLD em parceria com o Great Place to Work, o impacto das turbulências na economia internacional foi muito menor do que no resto do setor. “Elas passaram melhor pela crise. Isso demonstra que as organizações erram, quando, nos momentos difíceis, deixam de lado a preocupação com as pessoas e focam apenas na solução dos problemas financeiros”, avalia o CEO do Great Place to Work no País, Ruy Shiozawa.

Ponto de atenção

A boa notícia é que, ao menos as melhores empresas de TI para trabalhar no Brasil, conseguiram incrementar o sentimento de orgulho, de confiança e de equilíbrio entre vida pessoal e profissional. A ruim é que seus funcionários se sentiram menos satisfeitos com as iniciativas de ‘reconhecimento’.

“Os dados representam um sinal de alerta para as empresas, já que é importante que os funcionários sintam que seu trabalho está sendo reconhecido”, pontua o CEO do GPTW. “E isso não significa que as pessoas esperam reconhecimento financeiro. Elas só querem que seus resultados sejam vistos pelo resto da organização”, acrescenta Shiozawa.

Fonte:http://computerworld.uol.com.br/carreira/2010/11/25/crise-provoca-mudancas-permanentes-no-mercado-de-trabalho/

Telefonia com qualidade de FM começa ser oferecida na Europa

Relatório da GSA aponta que presença do recurso em novos aparelhos têm levado operadoras a oferecer o serviço de HD Voice em um número maior de países.

Cada vez mais operadoras de telefonia móvel estão lançando serviços de voz em alta definição (HD), permitindo chamadas com qualidade de voz bem superior ao dos padrões tradicionais, apontou um relatório recente da Global Mobile Suppliers Association (GSA).

De acordo com o estudo, esse aumento é resultado da quantidade cada vez maior de aparelhos que oferecem esse recurso, o que tem incentivado as operadoras a investir.

"O interesse atual entre as operadores está relacionado ao número atual de dispositivos que podem realizar e receber chamadas de voz em HD. Muitas pessoas não sabem, mas para que essa tecnologia funcione, os dois telefones precisam utilizar redes e aparelhos com suporte a AMR-WB", explicou o presidente da GSA, Alan Hadden.

O AMR-WB (Adaptive Multi-Rate-Wideband) é um algoritmo de compressão de voz, que duplica a rede de frequências de vozes transmitidas, resultando em um som comparável ao de rádios FM, segundo a empresa francesa Orange.

Embora o primeiro teste da tecnologia em uma rede comercial tenha ocorrido em 2006, pelas empresas Ericsson e T-Mobile, somente nos últimos meses ela começou a conquistar um pouco mais de espaço no mercado.

A Orange, por exemplo, lançou o Mobile HD Voice em sete países do mundo: Moldávia, França, Armênia, Reino Unido, Espanha, Bélgica e Egito (no Cairo). Em 2011, outros quatro países Suíça, Egito, Luxemburgo e República Dominicana também serão capazes de fazer ligações com alta definição, segundo a operadora.

"Outras companhias que também estão adicionando o recurso são: SFR na França, Vipnet na Croácia, Tata DOCOMO na Índia e Megafon na Rússia, de acordo com a GSA. Telstra na Austrália e 3 no Reino Unido, também completam essa lista", comentou o presidente da GSA, Alan Hadden.

No início, o Nokia 6720c foi o único telefone que poderia oferecer a tecnologia. No entanto, atualmente, a Orange já a oferece no N8 e E5 da Nokia. Além disso, outros também já oferecem suporte como o Samsung Omnia 7, o HTC HD Desire, o Nokia 5230 e E72 e o Elm, da Sony Ericsson, declarou a empresa.

Fonte:http://computerworld.uol.com.br/telecom/2010/11/26/telefonia-com-qualidade-de-fm-comeca-ser-oferecida-na-europa/

Aprovada a revisão dos contratos de concessão das teles fixas

Com renovação a cada cinco anos, novas regras estabelecem obrigações e direitos das operadoras para prestação dos serviços no período de 2011/2015.

O Conselho Diretor da Agência Nacional de Telecomunicações (Anatel) aprovou nessa quarta-feira, 24/11, em sessão pública realizada em Brasília, proposta de revisão dos Contratos de Concessão da Telefonia Fixa (STFC) para o período 2011/2015.

Os contratos estabelecem os direitos e os deveres das prestadoras de telefonia fixa, outorgando a elas o direito de explorar a concessão por sua conta e risco, submetendo-se a condicionamentos, dentro do regime de competição estabelecido na Lei n.º 9.472/97 e no Plano Geral de Outorgas.

A revisão dos contratos a cada cinco anos é prevista na cláusula 3.2 e abrange as modalidades de serviço Local, de longa distância nacional e internacional.

Para subsidiar sua deliberação de ontem, a Anatel submeteu a proposta de revisão à apreciação da sociedade, por meio da Consulta Pública n.º 11, de 31 de março de 2009. Foram recebidas 632 contribuições e todas foram analisadas pelo órgão.

Em 2009, a Agência promoveu seis audiências públicas (Manaus, Salvador, São Paulo, Brasília, Florianópolis e Rio de Janeiro) a respeito do assunto, nas quais a sociedade pôde apresentar sugestões, críticas e comentários.

A sessão pública de ontem foi realizada no Espaço Cultural Anatel e contou com a participação de 141 pessoas, das quais oito se manifestaram de forma oral.

A proposta de revisão dos contratos foi relatada pelo conselheiro João Rezende, recebeu contribuições dos demais conselheiros (Ronaldo Sardenberg, presidente do Conselho diretor; Emília Ribeiro e Jarbas Valente) e será publicada nos próximos dias no Diário Oficial da União.

Fonte:http://computerworld.uol.com.br/telecom/2010/11/25/anatel-aprova-revisao-dos-contratos-de-concessao-de-teles-fixas/

Bradesco, BB e Santander integram rede de caixas eletrônicos

Testes para uso compartilhado dos ATMs começou nesta quinta-feira,25/11, envolvendo 700 máquinas das três instituições.
O Banco do Brasil (BB), Bradesco e Santander iniciam nesta quinta-feira, 25/11, os testes para o uso comum de caixas eletrônicos instalados fora do ambiente das agências. Serão compartilhados ATMs localizados em shopping centers, aeroportos, postos de combustíveis, farmácias e supermercados.

Segundo a assessoria do BB, nesta etapa foram colocadas em operação cerca de 700 máquinas dos três bancos, que poderão ser identificadas com adesivo contendo a logomarca dos bancos participantes.

A interligação dos terminais que fazem parte do teste conceito será realizada pela TecBan Tecnologia Bancária S.A. e deve durar cerca de 180 dias, mas pode ser prorrogada. Durante esse período, os bancos darão continuidade aos estudos e às negociações iniciadas em fevereiro deste ano, para análise de eventual implementação de modelo de compartilhamento das redes de terminais de autoatendimento.

Com informações da Agência BrasiL.
Fonte:http://computerworld.uol.com.br/negocios/2010/11/25/bradesco-bb-e-santander-integram-rede-de-caixas-eletronicos/

Claro passa a vender plano de dados para celulares pré-pagos

Pacotes custam entre R$ 6,90 e R$ 11,90, com a possibilidade de baixar até 300MB para navegar pela Internet.

A Claro anunciou nesta quinta-feira (25/11) que passará a vender plano de dados para celulares pré-pagos, para que os clientes deste formato de plano também possam acessar a Internet.

Segundo a operadora, o modelo funcionará da seguinte forma:

- Pacote de R$6,90: válido por 15 dias com 150MB de franquia - o cliente pré poderá navegar por apenas R$0,46/diários;

- Pacote de R$11,90: válido por 30 dias com 300MB de franquia - o cliente pré poderá navegar por apenas R$0,39/diário.

Os interessados nos pacotes devem ligar para o número*525 a partir do seu celular ou enviar um SMS com a palavra INTERNET para o número 767. Ligação e Torpedo são gratuitos.

Fonte:http://idgnow.uol.com.br/telecom/2010/11/25/claro-passa-a-vender-plano-de-dados-para-celulares-pre-pagos/

Jornal usa Twitter para separar fatos de boatos em conflito no Rio

Diário "Extra" publica, em site e no microblog, notícias com as tags #everdade ou #eboato para informar população atingida pelo confronto.

O blog Caso de Polícia, do jornal carioca Extra, vem prestando um serviço adicional nesta quinta-feira (25/11), voltado à população do Rio de Janeiro atingida pelo confronto entre policiais e traficantes.

Desde esta quinta-feira o site publica suas notas no blog (e no Twitter) acrescentando as tags #everdade ou #eboato, para identificar as notícias confirmadas e também as desmentidas após apuração.

Segundo a diretoria de Redação do jornal, a intenção é usar a rede social para informar, separando os fatos dos boatos que circulam pela Internet.

A conta do Caso de Polícia no Twitter é www.twitter.com/casodepolicia.

Fonte:http://idgnow.uol.com.br/internet/2010/11/25/jornal-usa-twitter-para-separar-fatos-de-boatos-em-conflito-no-rio/

E-commerce: Ponto Frio adere à Black Friday brasileira

Site da rede de lojas promete divulgar durante toda a sexta-feira (26/11), pelo Twitter, ofertas com descontos em diversos itens.

O site de comércio eletrônico Pontofrio.com.br, ligado ao Grupo Pão de Açúcar, anunciou nesta quinta-feira (25/11) que promoverá uma versão local da Black Friday, evento promocional americano realizado tradicionalmente no dia seguinte ao Dia de Ação de Graças.

A loja promete divulgar amanhã, sexta-feira (26/11), descontos especiais em eletroeletrônicos, portáteis, eletrodomésticos, informática, móveis, utensílios domésticos e brinquedos. Os anúncios serão feitos via Twitter, pela conta www.twitter.com/pontofrio.

Segundo a rede varejista, a intenção é reforçar as vendas no período do Natal e estreitar o relacionamento com seus clientes via redes sociais.É também pelas redes sociais que a loja vem oferecendo produtos com descontos de até 30%. As ofertas são anunciadas pelo Twitter, entre meia-noite e 4 horas da manhã.

A Black Friday é uma iniciativa do varejo americano voltada para promover as compras de Natal em lojas físicas. Para as lojas online, o setor promove a Cyber Monday, que este ano deverá reunir quase 90% dos sites de e-commerce do país. A Cyber Monday será realizada em 29/11, primeira segunda-feira após o Dia de Ação de Graças.

Fonte:http://idgnow.uol.com.br/internet/2010/11/25/e-commerce-ponto-frio-adere-a-black-friday-brasileira/

Timidez? Twitter para que te quero

A mídia social menos prolixa da internet é mais do que bem-vinda na hora de conhecer pessoas e conquistar seguidores.

É difícil encontrar oportunidade melhor de ampliar a rede de contatos profissional do que eventos. Neles, várias pessoas de interesse comum ouvem exposições de gente relevante do cenário, tudo ao alcance de seu braço, no mesmo local, ao mesmo tempo.

Ocorre que nem todo mundo tem uma personalidade extrovertida. Existem os tímidos que, em meio a dois mil participantes de congressos, sentem-se sufocados e terminam pelos cantos sem fazer contato de 3º grau com outros colegas e/ou potenciais parceiros. Para o consultor e palestrante de mídias sociais, Patrick O´Malley, o Twitter pode amenizar essas barreiras.

Além de ser uma excelente fonte de informações para quem vai aos eventos, especialmente para os tímidos e reservados. “É uma das vantagens das mídias sociais”, diz O´Malley. “Você não precisa ter qualidades especiais para ser lembrado no Twitter; ele te oferece a oportunidade de participar ativamente de conversas sem parecer intrometido, ou coisa semelhante”.

Siga essas cinco dicas de como usar o Twitter de maneira profissional:

1. As #hashtags

É um dos elementos mais importantes de sua rede no twitter. Saiba sempre quais são os Trending Topics (TTs) de sua área de atuação. A maioria dos eventos vai providenciar um código desses para consolidar os tweets. Caso não seja divulgada nenhuma hashtag exclusiva do mesmo, procure no site search.twitter.com e descubra de que forma os participantes se referem ao acontecimento. Se não encontrar nenhuma hashtag, use a sua própria e inicie um movimento de organização.

2. Comece o Buzz

Antes do evento começar, dê uma pesquisada no Twitter em como andam os comentários sobre a conferência. Entre na conversa. Pode também inserir a hashtag em alguns tweets próprios para medir a ressonância. O´Malley sugere que uma simples mensagem do tipo “Alguém vai ao evento #XPTO?“ deve dar início a conversas de 140 caracteres.

3. Seja um líder, mesmo que não se sinta um

“É outra vantagem do Twitter. Mesmo quem não tem o menor perfil de liderança, pode se tornar um sem que ninguém saiba”, diz O´Malley. Uma maneira de isso acontecer é tuitar suas intenções de ir a tal bar depois do evento para tomar um guaraná; aproveite e pergunte se mais alguém quer ir.

Se conseguir unir uma turma, você será o macho alfa do círculo, mesmo que pequeno. Nas conversas tente extrair dos novos contatos suas impressões sobre o evento e as palestras.

4. Seja prestativo

Ao acompanhar a timeline do twitter referente ao evento, seja prestativo e procure ajudar quem dá sinais de estar “enrascado”.

Segundo O´Malley “se alguém tuita uma mensagem de frustração, sobre a duração da bateria do laptop, por exemplo, responda e diga que você tem um cabo suplementar”. Pelo resto do evento as pessoas olharão para você como alguém que se expõe e participa de maneira ativa.

5. Faça um resumo do dia e partilhe

Ao terminarem as sessões do dia, escreva um pequeno post em seu blog e tuite a URL do resumo para seus seguidores (não esqueça de marcar com a hashtag). Bastam umas 200 ou 300 palavras sobre as partes mais relevantes do dia. Esse tweet será valioso àqueles que por algum motivo não puderam comparecer ao evento. Ao usar a hashtag apropriada, seu resumo servirá de norte para os outros participantes; uma forma descomplicada de se orientarem. O´Malley diz que o criador do resumo irá se espantar com o volume de retweets que esse tipo de participação gera.

(Kristin Burnham)

Fonte:http://idgnow.uol.com.br/internet/2010/11/25/timidez-twitter-para-que-te-quero

5 aplicativos que merecem ser integrados aos seus Google Apps

Se você usa os Google Apps no trabalho, vale a pena dedicar algum tempo garimpando acessórios no Apps Marketplace, muitos deles gratuitos.

Quando a Google lançou seu Apps Marketplace, em março, ela convocou os desenvolvedores a criar software corporativo para uso na nuvem que completasse o acervo já oferecido pelos Google Apps.

Os apps do Marketplace podem acessar os dados de seus apps existentes. Dessa forma, você pode usar sua lista de contatos de e-mail, por exemplo, ou suas planilhas.

O começo foi um tanto lento, mas hoje o Marketplace parece saudável e merece, sim, uma visita. Alguns aplicativos, como os cinco da lista abaixo, são gratuitos, e podem aumentar em muito a eficiência de empresas pequenas e médias.

Para usar esses apps, você vai precisar de seu próprio domínio Google Apps. Eles não podem ser utilizados com as contas padrão da Google (aqueles com um endereço gratuito de Gmail), mas funcionam bem com a versão gratuita de 50 usuários dos Google Apps.

Algumas vezes um pouco de configuração é necessária. Mas, uma vez instalado, você pode acessar os apps a partir do menu More, no canto superior esquerdo de qualquer página dos Google Apps.

1. Rhino Accounting

Desenvolvido especialmente para o seleto grupo de contadores sênior, o aplicativo permite confrontar entrada e saída de dinheiro das contas, criar faturas (para enviar por e-mail) e controlar a folha de pagamentos. Como não tem opções de configuração descomplicadas, o Rhino é sugerido para contadores com alguns anos de experiência; novatos se perdem ao tentar usar de maneira otimizada a solução.

É possível integrar aos Google Apps. Mas, por enquanto, quem quiser usar terá de criar entradas para cada empresa de maneira independente. A vantagem consiste no fato de cada empresa ter de ser adicionada uma única vez.

O aplicativo, assim como o suporte, é gratuito.

2. Appogee Bookmarks

O sucesso de uma empresa pode ser mensurado pelo volume de informações que compartilha com seus funcionários. Um jeito de fazer isso é partilhar websites úteis ao negócio da organização. URLs de conteúdo interessante podem ser partilhadas com contatos do Google Apps, por meio do Appogee Bookmarks. Ele adiciona um painel à interface de seu iGoogle ou à lista de mensagens em sua caixa de entrada. Qualquer usuário pode adicionar mais links à lista. A lista é visível a todos os usuários pertencentes ao seu domínio.

Depois de habilitado o serviço, você deve liberar uma função pertencente ao Google Labs que permitirá adicionar gadgets de acordo com sua URL. Isso é feito através do item de configurações em sua caixa de entrada. Em seguida, acione o item Labs e marque a caixa correspondente a “Add Any Gadget buy URL”. Salve as alterações e volte ao menu de configurações acionando a lista de gadgets. No campo URL, você insere o domínio de seu grupo, assim: http://appogeebookmarks.appspot.com/gadget?hd=seudomínio.com.

Clique no botão Adicionar e retorne para sua caixa de entrada. Nela você deve se deparar com o aplicativo de favoritos. Marque a caixa correspondente ao domínio que deseja partilhar com seu usuários. Se não fizer isso, ele permanacerá como um link privado, visível somente para você.

3. Triplt Travel Organizer

Acompanhar a agenda de colegas em deslocamento pode ser um pesadelo. Apesar do Calendar permitir que se partilhe informações sobre reuniões, muitos detalhes acabam sendo passados via e-mails do tipo “leia já”.

O Triplt Travel Organizer vem para dar conta desse ingrato e confuso afazer. Ele permite a integração entre o Google Apps e o site. O serviço não acompanha apenas as reservas de vôos e de hotel. Ele compõe todas as informações em uma espécie de rede social integrada ao serviço de e-mails para facilitar a partilha das informações.

Uma vez instalado, o aplicativo varre o conteúdo de sua caixa de entrada em busca por confirmações de passagens e de reservas iguais as emitidas por companhias comuns. De posse dessas informações, o Triplt monta um plano de viagem em seu site. Completo, com agenda de reuniões e tudo mais. Essas informações são integradas ao Calendar de sua companhia.

Uma vez instalado, o aplicativo solicita que seja criada a conta de um determinado grupo no site do Triplt. Qualquer participante da rede que instalar o aplicativo será adicionado automaticamente. Isso permite aos participantes, monitorar o andamento da viagem e dos compromissos. O recurso possui ainda uma ferramenta para localizar geograficamente o usuário.

4. RapidTASK

Todo gerente de negócios precisa, vez por outra, abraçar a gestão de um projeto. Dadas as dificuldades em aprender de forma satisfatória como trabalhar com aplicativos do tipo MS Project, o RapidTASK facilita a vida ao compor uma rotina de gestão de projetos baseada em uma lista de afazeres. Você deve presumir, corretamente, que o RapidTASK permite partilhar a relação de tarefas entre os participantes do Google Apps. Caso precise, pode também atribuir determinadas tarefas a outros participantes da rede.

Depois de instalado, o usuário deve configurar a integração entre o RapidTASK e o Google Apps Calendar, para adicionar os deadlines de tarefas cumpridas. Se quiser, pode configurar o aplicativo para enviar e-mails de forma automática aos colegas assim que lhes forem atribuídas tarefas. Basta configurar.

Para usufruir de maneira completa do RapidTASK, todos os participantes devem ter o aplicativo instalado e configurado de maneira apropriada.

5. YouCanBook.Me

Desenvolvido para atender todos aqueles que trabalham com reuniões pré-agendadas, o YouCanBook.Me integra o Calendar do Google Apps a um site de nome igual ao do aplicativo. Assim que algum contato seu desejar, poderá marcar uma reunião com você. Quando isso ocorrer, uma mensagem será encaminhada para sua caixa de entrada, avisando detalhadamente sobre a proposta de reunião.

O aplicativo pode, se você assim desejar, enviar lembretes aos contatos envolvidos no evento agendado. Esses recados são enviados via SMS ou e-mail.

É um recurso muito fácil de ser usado por você e seus contatos. Vale ressaltar que você deve avaliar muitíssimo bem para quem vai passar o link e os direitos de marcar compromissos em sua agenda.

Como a interface usada para marcar compromissos no Calendar é um tanto rudimentar, uma boa opção consiste em personalizá-la clicando no link exibido nas páginas do Google Apps.

(Keir Thomas)

fonte:http://idgnow.uol.com.br/computacao_corporativa/2010/11/25/5-aplicativos-que-merecem-ser-integrados-aos-seus-google-apps

quinta-feira, 25 de novembro de 2010

Brasileiros fazem rato voltar a andar

Técnica criada por pesquisadores de Curitiba combina terapia com células-tronco e exercícios físicos intensos

Uma nova técnica, que combina terapia com células-tronco e exercícios físicos intensos, conseguiu recuperar os movimentos de ratos paraplégicos.

Desenvolvido por pesquisadores brasileiros, o método fez com que ratos com baixíssima capacidade motora conseguissem voltar a andar, ainda que "mancando".

Em uma escala que vai de zero (animais totalmente paralisados) a 21 (mobilidade excelente), alguns bichos foram do nível dois para o nível 17 em um mês e meio.

Os cientistas provocaram, em laboratório, lesões por trauma nos ratos, simulando as que acontecem na maioria dos acidentes de trânsito.

As cobaias tratadas foram divididas em dois grupos. Um começou a receber a terapia 48 horas após a lesão. O outro as recebeu 14 dias depois do trauma na coluna.

Eles receberam um preparado de células-tronco retiradas da própria medula óssea. Esse material foi injetado no local dos ferimentos.

Uma vez no organismo, as células-tronco se transformaram em células neurais e ajudaram a regenerar as regiões afetadas.

"Por serem autólogas [retiradas do próprio animal], não há risco de rejeição", disse a criadora do método, Katherine Athayde de Carvalho, do Hospital Pequeno Príncipe, em Curitiba.

"A técnica já mostrou que essas células não saem de controle e não se diferenciam em outros tecidos, o que é um problema em outros tratamentos", completou.

Segundo a pesquisa, não houve diferença no resultado final entre os dois grupos. "Isso mostra que é possível recuperar os movimentos mesmo após a estabilização da lesão", disse Carvalho.

Paralelamente, os ratos também foram submetidos a um trabalho de condicionamento muscular intenso, com exercícios na piscina.
Ao contrário da fisioterapia, onde os exercícios são passivos, nessa modalidade as atividades são ativas e têm maior impacto físico.

Essa diferença, segundo Ricardo da Cunha, doutorando em educação física que desenvolveu as séries, "foi fundamental para a alta taxa de recuperação" dos bichos.

Os animais fizeram seis sessões semanais na piscina, com uma hora de duração cada, durante seis semanas.

Quase todos conseguiram recuperar parte dos movimentos das patas traseiras.

Os testes já realizados comprovam a segurança do método. Agora, os pesquisadores se preparam para pedir autorização ao Conep (Comissão Nacional de Ética em Pesquisa), para realizar testes em humanos.
"Deve acontecer a curtíssimo prazo", disse Carvalho.

Na Turquia, cientistas usando o mesmo protocolo já testam em fase preliminar a terapia com células-tronco criada pela brasileira.

Embora a quantidade de voluntários tratados ainda seja muito pequena para resultados conclusivos, três dos quatro pacientes turcos conseguiram recuperar parcialmente os movimentos dos membros inferiores.
(Giuliana Miranda)
(Folha de SP, 24/11)

fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74889

Softwares open source chegam à maturidade

Não é uma questão puramente financeira. Empresas já avaliam predominantemente as funções, os recursos e o desempenho.


Há três anos, o diretor de TI Jim Wenner procurava por uma solução de BI. Ele não pensava em contratar o Cadillac dos serviços, pois tudo que precisava fazer era gerar relatórios para a rede de lojas de conveniência Sheetz, avaliada em 4,9 bilhões de dólares. Depois de verificar as opções, Wenner decidiu-se pela suíte de BI da empresa Pentaho Corporation, uma solução de código aberto. A escolha foi motivada pela presença de funções requisitadas e pelas oportunidades de economia.

De natureza prática, Wenner havia planejado um plano B para o caso de o produto não ser tão eficiente “Nós estabelecemos uma meta. Se entre seis e nove meses depois de implementada, a solução não trouxesse os resultados no nível que esperamos, poderíamos substituí-la por outro programa”, explica.

Agora, passados dois anos, a parceria entre a Sheetz e o provedor da suíte de BI permanece em andamento. Wenner diz que houve curvas de aprendizado que desafiavam a expertise dos desenvolvedores. Atualmente apenas em software, Wenner investe algo em torno de 50 mil dólares anuais. “Não somos adoradores de plataforma de código aberto, apenas tentamos lidar com nossos recursos de maneira sábia”, diz.

Não é coisa de fã

Está evidente que fanatismo e adoração não têm mais nada a ver com a adoção de plataforma abertas no meio corporativo. Um estudo recente conduzido pela Accenture PLC evidenciou que metade das 300 empresas de grande porte pesquisadas já está comprometida com soluções de código aberto, ao passo que 28% ainda realizam testes ou têm empregado esse tipo de software em casos específicos. No geral, 69% dos respondentes afirmou avaliar a possibilidade de aumentar os investimentos em soluções open source.

O chefe do departamento de arquitetura de TI da Accenture, Paul Daugherty, diz que a participação de softwares de código aberto é mais evidente em níveis mais baixos, como servidores de aplicativos web, “mas sua participação em ambientes menos técnicos tem aumentado. Agora percebem-se empresas que buscam por integração de soluções de código fonte aberto, como frameworks e outros”, afirma.

O que chama atenção na pesquisa da Accenture é o fato de as empresas terem citado qualidade, segurança e confiabilidade como fatores mais atraentes na escolha por softwares open source. O que se esperava era o fator custo na liderança das motivações de escolha por produtos de código aberto, já que por muito tempo foi assim.

Segundo Daugherty “isso é um sinal de que esse modelo de software se aproxima da maturidade e que as empresas avaliam predominantemente as funções, os recursos e o desempenho ante aos custos relacionados com a adoção das plataformas open source”.

Na ótica do diretor de TI da American Nuclear Society, Joseph Koblich, o incentivador da tranquilidade que gestores de TI têm ao integrar soluções open source em suas estruturas é o fato de existirem milhares de comunidades em que se compartilham informações e conhecimento. “Uma base extensa assim dá aos administradores maior certeza de suas estruturas não naufragarem por falta de quem lance a bóia salva-vidas”, ressalta.

Koblich e sua equipe interna de TI desenvolveram um fluxo eletrônico de documentos baseados em ferramentas de código aberto como MySQL; também usam servidores Linux há mais de dez anos.

Por vezes, o diferencial entre os softwares de código aberto e os comerciais está em sua flexibilidade. Por dois anos a empresa Mitre Corp, sediada no estado norteamericano de Massachussets, aplica soluções open source no desenvolvimento de sua rede social interna. Batizada de Handshake, a plataforma exigia uma interface com o portal intranet da empresa. Tal solução não era encontrada em nenhum produto comercial padrão; a saída mais lógica foi partir para uma opção de código aberto.

O CIO da Mitre Corporation, Joel Jacobs, queria estar em sintonia com a evolução. “Não podemos realizar modificações profundas no portal comercial na velocidade que gostaríamos. Decidimos, então, migrar para uma plataforma de código aberto e baseamos nossa aproximação com releases sucintos de tamanho padrão e na análise dos comentários de nossos usuários”.

Metodologia

A equipe de TI conduziu um experimento de seis meses de duração para desenvolver um software de código aberto mais flexível que a interface comercial que usavam até então. Terminado com sucesso, o projeto deve ir ao ar até o final do ano, substituindo a versão comercial.

Jacobs reconhece que há seis anos jamais teriam considerado partir para um modelo de infra estrutura lógica desse tipo. “É um a mudança radical em nossa filosofia”, afirma o executivo que reconhece a impossibilidade dessa substituição acontecer com os softwares instalados nos servidores de RH e de finanças da empresa. “Mas, quando o assunto é interface com usuários via web, estaremos sempre dispostos a avaliar as opções disponíveis”, ressalta.

A empresa de pesquisas Gartner antevia o crescimento das plataformas abertas e sua chegada ao disputado mercado. O analista da organização, Mark Driver, porém, reconhece que a maturidade da plataforma open source é algo que deve ser apreciado com moderação e cautela, pois não se aplica a todas as soluções que permeiam o mercado.

O mesmo pode ser dito do volume de informações sobre cada pacote diferente. “Partir da premissa de sucesso garantido para todas os aplicativos dessa plataforma leva inevitavelmente a decepção”, alerta.

“É algo com que me deparo diariamente. As organizações dizem que economizaram volumes absurdos de recursos com o Linux e afirmam estar satisfeitas. Assim que as empresas se livram das inconvenientes licenças da Oracle e DB2 os problemas começam em efeito dominó. A adoração pelo código livre é tamanha, que não avaliam os riscos de gestão intrínsecos às mudanças desse tipo”, adverte Driver.

Segundo o analista, as organizações baixam todo e qualquer aplicativo que encontram na internet, os instalam e, sem se aproximar do fornecedor do produto, acreditam que se a solução se transformar em problema, serão capazes de resolvê-las com uma ou duas pesquisa no Google. “O que, muitas vezes, não é o caso”, conclui.

Por esses e outros motivos as Accenture adverte aos clientes que utilizem distribuições de plataformas open source com contratos de suporte do fornecedor. “Somente assim você terá certeza de que poderá contar com o apoio necessário”.
Fonte:http://computerworld.uol.com.br/gestao/2010/11/24/softwares-open-source-chegam-a-maturidade/

quarta-feira, 24 de novembro de 2010

Sete em cada dez funcionários já roubaram dados das empresas

Pesquisa de empresa de segurança de dados revela que 72% admitiram ter copiado informações sem autorização em USB, notebooks e celulares.
Sete em cada dez funcionários (72%) admitiram já ter roubado informações de seus empregadores, revela pesquisa da Imperva, empresa especializada em proteção de dados.

Um em cada quatro (26%) também já obteve informações sobre os clientes dessas empresas sem o devido consentimento. Ficaram pouco à frente dos responsáveis pelos recursos humanos ou pelo marketing das companhias, ambos com índice de 25%.

Entre os equipamentos usados para o roubo dos dados, os mais populares são os dispositivos USB e notebooks (23%), seguidos pelos celulares (13%).

A resposta mais alarmante, no entanto, foi quanto a uma possível vingança dos empregados. Também sete em cada dez afirmaram que roubariam informações da companhia em que trabalham se soubessem que seriam demitidos.

“Que os funcionários roubam dados, tanto de empresas quanto de clientes, não é novidade. Mas é surpreendente constatar que eles pensam que não há problemas em fazê-lo”, disse Amichai Shulman, diretor de Tecnologia da Imperva.

A situação fica mais grave ao se considerar que 85% dos empregados possuem informações sensíveis sobre a empresa na qual trabalham em seus computadores ou smartphones pessoais. Seis em cada dez, aliás, afirmam que não há nenhuma política de suas companhias que tratam da ilegalidade de se levar dados confidenciais consigo ao abandonar o emprego.

“Criar um estatuto significa notificar todos do que pode acontecer a eles caso atitudes como essa sejam tomadas”, afirmou Shulman.

Fonte:http://computerworld.uol.com.br/seguranca/2010/11/24/sete-em-cada-dez-funcionarios-ja-roubaram-dados-das-empresas/

terça-feira, 23 de novembro de 2010

Cientistas desenvolvem comunicação em tempo real com uso de hologramas

A tecnologia tornou-se conhecida em filmes de ficção científica como Guerras nas Estrelas e servirá para reduzir despesas nas empresas.

Cientistas da Universidade de Arizona desenvolveram um novo sistema de telepresença holográfica que projeta imagens 3D em tempo real, sem a necessidade de utilizar óculos especiais. A tecnologia é semelhante a comunicação via hologramas apresentada em filmes de ficção científica como Guerras nas Estrelas.

"Digamos que eu queira realizar uma apresentação em Nova York. Tudo que eu precisarei são de algumas câmeras e uma conexão rápida com a Internet. Com apenas isso, em qualquer outro local da cidade, seria possível visualizar em 3D o conteúdo filmado através do nosso sistema a laser ", disse o professor de ciências ópticas da entidade, Nasser Peyghambarian, em um comunicado.

Na prática, as imagens são gravadas com câmeras normais, cada uma de um ângulo diferente. Após capturadas, o sistema usa rápidos impulsos a laser para criar hologramas ou pixels das mesmas.

Para Pierre-Alexandre Blanche, professor-adjunto de pesquisa na universidade, a chave do desenvolvimento é "uma tela feita de um novo material fotorefrativo, capaz de atualizar os hologramas a cada dois segundos".

Os sistemas de telepresença estão ganhando popularidade entre as grandes corporações, que querem cortar despesas usando a tecnologia 3D. Segundo Dan Olds, analista do Gabriel Consulting Group Inc, ela poderá ser utilizada em diversos contextos dentro do ambiente corporativo.

"Ela poderá ser útil de diversas formas. Será possível, por exemplo, permitir que profissionais observem o protótipo de um novo produto em 3D sem a necessidade de investimentos na construção física dele", analisou Olds.

(Sharon Gaudin)

Fonte:http://idgnow.uol.com.br/internet/2010/11/22/cientistas-desenvolvem-comunicacao-em-tempo-real-com-uso-de-hologramas/

A grave patologia da educação brasileira, artigo de Viviane Senna

"Levamos mais de 300 anos para editar o primeiro livro e fundamos nossa primeira universidade apenas no século 20, 300 anos depois da primeira universidade da América Latina"

Viviane Senna, formada em psicologia pela PUC-SP, é presidente do Instituto Ayrton Senna e membro do Conselho de Desenvolvimento Econômico e Social da Presidência da República. Artigo publicado na "Folha de SP":

Em 20 anos de prática clínica, observei que os sintomas são nossos aliados. E tão melhores quanto mais nos incomodem. Como verdadeiros sistemas de alarme, sinalizam que alguma coisa está em risco. Portanto, são eles que nos permitem mudar o desfecho de uma história, de nossa história. Desde que os ouçamos.

Quanto mais egossintônico é um sintoma para um indivíduo, pior será o seu prognóstico. Do mesmo modo, quanto mais confortável uma sociedade se sente com seus distúrbios, piores serão as chances de superá-los.

O Brasil se destaca como um "case" de egossintonia secular, em relação a disfunções e sintomas graves, como a falta de equidade, de ética e de educação.

Prova disso é que levamos mais de 300 anos para editar o primeiro livro e fundamos nossa primeira universidade apenas no século 20, 300 anos depois da primeira universidade da América Latina e 400 anos após a primeira universidade da América do Norte, Harvard.

Ninguém sentiu desconforto com isso ou com o fato de que essa universidade foi criada apenas para conceder o título honoris causa ao rei da Bélgica. Não é à toa que, em 1950, convivíamos pacífica e confortavelmente com taxas de 50% de analfabetos absolutos, enquanto a Argentina e os EUA tinham, respectivamente, 14% e 3% de analfabetos.

Tudo isso sem contar que, em 1900, essa taxa era de 65%, o que significa que levamos meio século para reduzi-la em 15 pontos percentuais! No primeiro censo escolar, de 1932, o índice de repetência na primeira série era de 60%. Quase 50 anos depois, no censo de 1980, esse índice foi reduzido para incríveis 50%. Hoje, essa taxa para o ensino fundamental é de cerca de 20%, colocando-nos atrás de países como Uganda, Ruanda e Haiti.

No entanto, continuamos convivendo pacificamente, também, com consequências dessa realidade: a evasão e o abandono.

De cada dez crianças que entram na primeira série do ensino básico, só três o concluem. E mais: apenas uma em cada dez sabe o que deveria saber para o terceiro ano do ensino médio. E um quinto desses alunos tem, em matemática, nível de quarta série do fundamental.

E qual é a reação diante desse quadro? As pesquisas mostram que 70% das famílias de alunos de escolas públicas estão satisfeitas com o ensino que seus filhos recebem. Fica difícil decidir o que é mais grave: o cenário da educação ou nossa reação diante dele.

É possível, no entanto, suplantar esse padrão histórico de egossintonia com situações graves como essa. Como mostra o movimento Todos pela Educação, até 2022 podemos atingir o padrão de desempenho escolar da média dos países da OCDE (Organização para Cooperação e Desenvolvimento Econômico). Para isso, precisamos aliar compromisso ético com competência técnica.

Estudo feito por Ricardo Paes de Barros, com cerca de mil municípios parceiros do Instituto Ayrton Senna, mostra que é possível acelerar o desenvolvimento educacional entre seis e 11 anos a cada ano de trabalho, não importando as condições adversas e a região do país.

Altamira, no Pará, tinha 70% de seus alunos atrasados. Hoje, esse número está em torno de 20%. Em São Vicente (São Paulo), o antigo índice de 16% de alunos com distorção de idade e de série está em 3%.

A rede de ensino de Boca do Acre (Amazonas) reduziu a taxa de defasagem de 70% para 19%, alcançando o primeiro lugar no Ideb (Índice de Desenvolvimento da Educação Básica) da rede estadual (4,4).

Assim, a despeito da extrema seriedade do quadro educacional brasileiro, é possível rever o curso. Basta ouvir os sintomas e aliar a vontade ético-política à competência técnica, transformando incômodo em resultados para mudar toda uma história. A nossa história.
(Folha de SP, 22/11)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74818

Em crise, magistério atrai cada vez menos

Levantamento dos últimos censos escolares do Inep mostra que, de 2005 a 2008, caiu 12,4% o número de concluintes de cursos superiores de "formação de professores de matérias específicas"

Com a professora de História doente, e sem que a escola conseguisse substituto, o jeito foi os alunos fazerem as vezes de professor: em julho de 2009, três alunos do 3º ano do ensino médio da Escola Estadual Ernesto Faria deram aula dessa disciplina para colegas que estavam no 1º e no 2º ano.

A falta de professores que atinge os ensinos fundamental e médio é um problema que começa nos bancos das universidades, onde os alunos não querem mais se formar como professor.

Um levantamento dos últimos censos escolares do Inep mostra que, de 2005 a 2008, caiu 12,4% o número de concluintes de cursos superiores de "formação de professores de matérias específicas" - o item, no censo escolar, que abriga licenciaturas como as de Português, Matemática, Química e Física.

Se eram 77.749 em 2005, foram para 68.128 em 2008 - ano que viu 817 alunos concluírem cursos de "formação de professores em Português", enquanto o de Direito formou 85 mil, e cursos de Administração, 103 mil.

O dado vai ao encontro de números da Fundação Carlos Chagas que dão conta de que, em média, 70% dos alunos que entram em cursos de licenciatura desistem antes de completá-lo.

Diminuiu ainda o número dos que entram nas faculdades para cursá-los: de 2005 a 2009, o número de alunos ingressando nesses cursos caiu 23,7% na rede privada e de 11,4% na rede pública, segundo o Sindicato das Entidades Mantenedoras de Estabelecimentos de Ensino Superior no Estado de São Paulo (Semesp). Nesse período, o número total de matrículas em cursos de licenciatura nas redes pública e privada também caiu 8,1%.

- Já seria preocupante se esse número não tivesse crescido, mas caiu. E isso porque temos déficit de professores, não excesso - sublinha Rodrigo Capelato, diretor-executivo do Semesp.

O déficit de professores, apenas da 5ª série do fundamental ao 3º ano do ensino médio, é de 246 mil no país. O quadro é mais crítico em Física, Química, Matemática e Biologia.

Para os professores que permanecem na carreira, fica a sobrecarga. Segundo dados do Inep, do Ministério da Educação, 753,8 mil professores no país na educação básica (redes pública e privada) davam aula para cinco ou mais turmas em 2009. No ensino médio, 72.241 lecionam para dez ou mais turmas.

Uma professora para 12 turmas

Professora de História, Wânia Balassiano, de 45 anos e há 25 na rede estadual, tem 12 turmas na Escola Estadual Ernesto Faria, outras cinco numa escola particular e ainda dá aulas em casa:

- Fico sobrecarregada, já adoeci e sei que a qualidade da aula seria melhor com menos turmas. A carreira não é valorizada, o estado não incentiva que a gente faça mestrado, os salários são baixos. Amo o que faço, mas a sensação é que escolhem o magistério porque não têm coisa melhor para fazer.

Ou porque não acham algo melhor. Estudo da Fundação Carlos Chagas em 2009 mostra que 68% dos alunos que cursam licenciatura vêm de escolas públicas.

- A maioria não conseguiu passar para outra carreira. E os melhores não vão para a sala de aula, preferem fazer mestrado - diz Mozart Ramos, do movimento Todos pela Educação.

- Minha turma começou com 20 alunos. Hoje somos cinco - conta Rodrigo Barreto, no 3º período da licenciatura de Letras da Uerj.

Em outro setor da universidade (Física), João Pedro Brasil, de 20 anos, faz licenciatura, mas também bacharelado, como outros cinco colegas. Fazendo apenas licenciatura, só conhecem na turma Sofia de Castro, de 19:

- Já fui monitora de colégio e vi que dar aula era o que queria - diz ela. Perguntada sobre quanto imagina ganhar, responde: - É melhor não pensar.

Entrave maior para a valorização da carreira, o salário tem piso nacional que não chega a R$ 1.100 para 40 horas semanais. Mas esse valor não está sendo aplicado por muitos governos porque a lei está sob análise do Supremo Tribunal Federal, após estados entrarem com pedido de revisão do texto.

- Não adianta falar em salário ideal quando a gente não consegue implementar nem o mínimo - observa Paulo Corbucci, pesquisador de educação do Ipea.

Presidente da Confederação Nacional dos Trabalhadores em Educação, Roberto Leão defende que os problemas não sejam atacados de forma isolada:

- Professor precisa de plano de carreira, escolas com estrutura e a chance de se atualizar.

Secretária de Educação Básica do MEC, Maria do Pilar Lacerda admite que "houve desinteresse muito grande pela carreira", mas aponta ação para valorizá-la:

- A criação de um piso nacional, que trouxe também tempo mínimo obrigatório para o professor se dedicar à reciclagem.

Pilar diz ainda que o MEC prevê 300 mil vagas para a Plataforma Freire, um programa para professores que já estavam dando aula mas não tinham formação adequada. Até agora, há cem mil - um terço - inscritos.
(Alessandra Duarte e Carolina Benevides)
(O Globo, 21/11)

Fonte:http://www.jornaldaciencia.org.br/Detalhe.jsp?id=74816

Google inicia testes de plug-in que integra Office ao Docs

Com o software, que será gratuito, será possível editar documentos e planilhas de forma colaborativa na nuvem da Google sem sair da suíte da Microsoft.

A Google começou a testar, com um número limitado de usuários do Microsoft Office, um plug-in que permite compartilhar e editar documentos de forma colaborativa, armazenando-os na infraestrutura de nuvem da própria Google.

A Google obteve a tecnologia do plug-in por meio da aquisição da DocVerse, em março de 2010. O produto, que deverá estar disponível a todos os usuários da Google no ano que vem, foi rebatizado como Google Cloud Connect.

O plug-in funciona com Office 2003, Office 2007 e Office 2010. Uma vez que o documento tenha sido armazenado nos servidores da Google, diversos outros usuários do Office podem acessar e editar simultaneamente a partir da interface da suíte da Microsoft.

O Cloud Connect mantém um registro de todas as mudanças e permite que o usuário desfaça edições. Ele também mostra alertas se uma mesma porção de um documento foi alterada de forma diferente por mais de um usuário, oferecendo a opção de aplicar apenas uma das edições.

A partir de seu PC e de navegadores móveis, mesmo usuários que não tenham o Office poderão acessar e ler os documentos, mas não editá-los. Cada documento na nuvem ganha uma URL única e fica associada à conta Google Docs de seu autor.

Falhas de formatação
Há anos a Google permite que seus usuários importem documentos do Microsoft Office em seu Docs. Lá, eles podem ser editados de forma colaborativa para, depois, serem baixados e utilizados no Office. Mas o processo de importação, exportação e conversão de arquivos prejudica detalhes de formatação.

Tais problemas são evitados com este plug-in porque os usuários trabalham nos documentos usando o próprio Office e não o Docs, explicou Jonathan Rochelle, gerente de produto do grupo Google Docs.

O plug-in gratuito estará disponível para usuários finais por meio de sua conta Google, e também para usuários corporativos por meio da suíte de colaboração e comunicação Google Apps.

Claro que a Google prefere que as pessoas deixem de uma vez o Office para aderir ao Docs. Mas, para usuários e empresas que precisam do Office, este plug-in oferece alguns benefícios de colaboração na nuvem com um produto desktop, disse o gerente.

“O plug-in apenas introduz uma camada de armazenamento. Ele não muda a natureza do produto [Office]”, explicou Rochelle.

A Microsoft vem ressaltando os recursos de colaboração no Office 2010 como uma forma de incentivar a migração dos que possuem as versões 2003 e 2007, mas o Google Cloud Connect é capaz de preencher a lacuna das versões mais antigas no que diz respeito a colaboração, acrescentou.

Upgrade "desnecessário"
“Nós estamos à beira de um ponto de inflexão com a atualização para o 2010”, disse. “O único benefício do Office 2010 é a capacidade de colaboração. Você não precisa do upgrade”, conclui.

É evidente que a Microsoft não concordaria com essa afirmação. Mas a posição da Google mostra como tem sido intensa a competição no mercado de comunicação e colaboração empresarial à medida que o modelo de cloud computing ganha força.

A Microsoft – que, segundo críticos, tem sido vagarosa em integrar seus programas ao cenário da computação em nuvem – oferece o Office Web Apps, uma versão mais simples da suíte hospedada na nuvem.

No ano que vem a empresa planeja lançar o Office 365, que vai acrescentar à sua Business Productivity Online Suite (BPOS) os Web Apps e, em alguns casos, a suíte Office completa.

Atualmente o BPOS inclui versões hospedadas na nuvem do Exchange, SharePoint e Lync.

Gostei

Fonte:http://pcworld.uol.com.br/noticias/2010/11/22/ja-esta-em-testes-o-plug-in-que-integra-office-ao-google-docs/

Fundador da web afirma que "redes sociais são uma ameaça"

Sir Tim Berners-Lee também criticou a Apple e o iTunes pelo seus métodos restritivos e centralizadores.
O fundador da Web, Sir Tim Berners-Lee, criticou o uso das redes sociais afirmando que elas são "uma grande ameaça aos princípios da internet".

De acordo com Berners-Lee, o Facebook e as demais mídias sociais encorajam os usuários a fornecerem suas informações. No entanto, não compartilham estes dados com os outros websites.

"Na verdade, elas [as redes sociais] são mecanismos que restringem as informações dos internautas, impedindo sua utilização pelo restante da web", disse ele à revista Scientific American.

"As redes sociais se tornaram uma plataforma central de conteúdo fechado. Quanto mais esse tipo de arquitetura ganhar espaço, mais a web se tornará fragmentada e, consequentemente, menor será o ambiente onde as pessoas poderão compartilhar conteúdo de modo universal", analisou Berners-Lee.

Além disso, ele também criticou a Apple e o iTunes pelo seus métodos "restritivos e centralizadores".

"Você só pode acessar um link do iTunes utilizando o próprio programa patenteado pela Apple. Você não está mais na web, na verdade, você está restrito a uma loja e não em uma ambiente aberto. Apesar de todas as características incríveis, sua evolução é limitada ao desejo de uma única companhia", analisou ele.

Já sobre neutralidade na web, outro tema polêmico, Berners-Lee declarou que ela não só deve existir, como também deve incluir neutralidade nas linhas fixas e de banda larga móvel.

Seus comentários vêm apenas alguns dias depois do ministro da Cultura do Reino Unido, Ed Vaizey, sugerir que o país tivesse um projeto contrário as regras de democracia na rede, para que provedores e internautas, que pagam pelo acesso, tenham prioridade sobre o tráfego.

No entanto, Vaizey voltou atrás e alegou que seus comentários estão de acordo com os pensamentos de Berners-Lee.

fonte:http://pcworld.uol.com.br/noticias/2010/11/22/fundador-da-web-afirma-que-redes-sociais-sao-uma-ameaca/

25 anos do Windows em imagens

Veja como o sistema operacional mais popular no mundo evoluiu ao longo do último quarto de século
Há 25 anos atrás, em 20 de Novembro de 1985, a Microsoft lançava a primeira versão do Windows . Poucas pessoas fora da imprensa especializada ou da indústria de tecnologia notaram o fato. Eventos de lançamento que custam centenas de milhões de dólares ainda estavam a anos de distância.

O que mudou no Windows nos últimos 25 anos? Muito. Neste guia visual, vamos conhecer as várias “caras” do sistema ao longo das últimas décadas e contar o que aconteceu durante cada estágio de seu desenvolvimento.

1985: Windows 1.0


Imagem cortesia da Microsoft

O Windows nasceu em 1981 como um projeto chamado Interface Manager e sofreu uma série de atrasos até ficar pronto. E quando ele finalmente foi lançado no final de 1985 como Windows 1.0, não chamou muita atenção. Era necessário rodá-lo sobre o DOS (o sistema operacional mais popular na época), havia poucos aplicativos escritos para ele e as janelas na tela não podiam ser sobrepostas, e tinham de ser arranjadas lado a lado.

Ainda assim, o software (que na época não era um sistema operacional propriamente dito) permitia a multitarefa entre aplicativos Windows (mas não entre aplicativos DOS) e, embora poucos tivessem consciência disso na época, se tornou a fundação para o império chamado Microsoft.

O Windows 1.0 vinha com um punhado de aplicativos, incluindo o editor de textos Notepad, um calendário rudimentar e o programa de desenho Paint. Para rodar o software era necessário um PC com o sistema operacional MS-DOS 2.0, 256 KB de memória e uma placa de vídeo. Ele podia ser executado a partir do HD ou de dois disquetes acessados simultâneamente. Ou seja, eram necessários dois drives, e não era possível simplesmente trocar um disco pelo outro quando necessário.

1987: Windows 2.0



Imagem cortesia da Microsoft


O Windows 2.0 foi lançado dois anos depois da primeira versão, em Novembro de 1987. Entre os novos recursos na versão 2.0 estavam a capacidade de empilhar as janelas dos aplicativos e uso de memória aprimorado. Também era novidade o Dynamic Data Exchange (DDE), que permitia que os aplicativos Windows automaticamente compartilhassem e atualizassem informações. Por exemplo, o DDE permitia que a informação em uma planilha do Excel fosse automaticamente atualizada sempre que ela fosse modificada em uma segunda planilha.

O Windows 2.0 também exigia mais do PC: precisava de 512 KB ou mais de RAM e exigia o MS-DOS 3.0. Uma versão posterior, a 2.11, foi a primeira a exigir a presença de um disco rígido.

Foi na versão 2.0 que começaram a surgir mais aplicativos para o Windows, incluindo o Microsoft Excel e Microsoft Word. O software de editoração Aldus PageMaker, originalmente escrito para rodar no Mac, também ganhou versão para o Windows.

O Windows 2.0 também ficou famoso por outro motivo - em 17 de Março de 1988 a Apple Computer processou a Microsoft, alegando que a aparência e comportamento do sistema operacional do Macintosh era protegida por copyrights, e que o Windows 2.0 os violava. Anos mais tarde, o processo terminou com uma decisão a favor da Microsoft.

1990: Windows 3.0



Imagem cortesia da Microsoft.


Lançado em 1990, o Windows 3.0 - e seu sucessor, o Windows 3.1 de 1992 - deu os primeiros sinais de que o Windows poderia se tornar o sistema operacional dominante no mundo. A interface foi redesenhada, e embora hoje em dia possa parecer feiosa e desengonçada, na época era amplamente considerada limpa e elegante.

Os ícones foram redesenhados para tirar proveito das 16 cores possíveis com monitores e placas de vídeo no padrão VGA. O gerenciamento de memória foi melhorado e um modo “enhanced” foi adicionado, que aceleravao acesso à memória e permitia que múltiplos programas DOS rodassem simultâneamente em “máquinas virtuais” individuais, cada um em sua janela. O Windows 3.0 também permitia que os aplicativos usassem mais memória RAM do que fisicamente disponível, ao criar uma área de “memória virtual” no disco rígido.

O Windows 3.0 exigia 640 KB de “memória convencional” e 256 KB de “memória extendida”. A versão 3.00a do Windows foi feita com suporte a multimídia, e foi a primeira a possibilitar o uso de CD-ROMs. O Windows 3.0 também foi a primeira versão a incluir o maior destruidor de produtividade da história da informática: o jogo “Paciência”.

O Windows 3.1 trouxe suporte a fontes TrueType, para melhor legibilidade na tela e impressão em alta qualidade, bem como uma tecnologia chamada Object Linking and Embedding (OLE), uma melhoria em relação ao DDE para compartilhamento de dados entre aplicativos. A versão 3.11 também adicionou suporte a redes no padrão dominante da época, NetWare.
1993: Windows NT 3.1



Imagem cortesia do GUIdebook


O Windows NT 3.1, lançado em Julho de 1993, foi feito para empresas em vez de usuários domésticos e foi projetado para ser mais seguro e estável. Ele usava uma arquitetura de 32-bits em vez dos 16-Bits do Windows 3.0. A 3.1 foi a primeira versão da família NT do sistema: a Microsoft “pulou” os números menores para que a numeração da versão corporativa do sistema se igualasse à do sistema para os consumidores domésticos.

O Windows NT 3.1 exigia um PC com processador 80386, 12 MB de memória RAM (16 MB eram recomendados) e 90 MB de espaço em disco. A família NT teve três outras versões: Windows NT 3.5 em 1994, Windows NT 3.51 em 1995 e Windows NT 4.0 em 1996, antes da Microsoft migrar para uma nomenclatura de versões baseada no ano de lançamento, a partir do Windows 2000.

1995: Windows 95



Imagem cortesia da Microsoft


Lançado em Agosto de 1995, o Windows 95 combinava o DOS e o Windows em um só pela primeira vez. Em vez de instalar o Windows sobre o DOS, você instalava apenas o Windows 95. Também a primeira versão “doméstica” do Windows a iniciar a migração de uma arquitetura de 16-bits para os 32-bits. Em outras palavras, ele era uma “mistureba” de código de 16 e 32-bits.

O sistema trouxe muitas melhorias na interface, incluindo várias que sobrevivem até hoje, como a barra de tarefas e o menu iniciar. O suporte a nomes de arquivos com mais de oito caracteres (como “Relatório para o Chefe.txt” em vez de “RELCHEFE.TXT”) também fez sua estréia nesta versão.

O Windows 95 era muito mais estável que as versões anteriores e foi a primeira a suportar o padrão Plug and Play da Intel, projetado para facilitar a instalação de hardware e periféricos ao seu PC. A idéia era que o sistema iria reconhecer e instalar automaticamente qualquer periférico conectado. Foi um passo à frente mas nem sempre funcionava, o que levou muitas pessoas a apelidar o sistema de “Plug and Pray” (algo como: “plugue e reze”).

Para rodar o Windows 95 precisava de no mínimo um processador 80386 DX com 4 MB de RAM e 120 MB de espaço em disco, embora tivesse o mesmo desempenho de uma carroça nestas condições. O ideal era um PC com um processador 80486 e 8 MB de RAM, configuração cara e sofisticada para a época.

O Windows 95 também se tornou notório por outra razão - a gigantesca campanha de marketing que acompanhou seu lançamento, que dizem ter custado US$ 300 milhões e inclui a compra dos direitos sobre a música “Start me Up” dos Rolling Stones como canção-tema, o desfraldar de um banner de mais de 90 metros na CN Tower em Toronto, no Canadá, a iluminação do Edifício Empire State com as cores amarela, vermelha e verde e a criação de um vídeo institucional promocional estrelado pelos atores Jennifer Anniston e Matthew Perry, da série de TV Friends.

1198: Windows 98



Imagem cortesia da Microsoft


Lançado em Junho de 1998, o Windows 98 não foi uma evolução tão grande em relação ao Windows 95 quanto este foi em relação ao Windows 3.1. As mudanças foram incrementais, embora tenha havido algumas novidades significativas.

A mais notável tinha a ver com o suporte à Internet. Pela primeira vez a API Winsock - que adicionava ao Windows o suporte a redes TCP/IP - foi incorporada diretamente ao sistema operacional, em vez de ser instalada separadamente como um add-on. E também foi a primeira vez em que o Internet Explorer foi incluso como parte do sistema operacional, o que eventualmente levou o Departamento de Justiça dos Estados Unidos a processar a Microsoft por violação da regulamentação antitruste.

O Windows 98 também tinha suporte muito melhor ao padrão USB que o Windows 95. Um recurso chamado Active Desktop foi projetado para entregar conteúdo da web em tempo real no desktop, mas se mostrou instável e foi removido das versões seguintes do Windows.

O Windows 98 exigia um PC com pelo menos um processador 486DX2 de 66 Mhz, 16 MB de RAM (24 MB eram recomendados) e 500 MB de espaço em disco.
000: Windows 2000



Imagem cortesia do GUIdebook


Windows 2000, o sucessor do Windows NT 4.0, foi lançado em Fevereiro de 2000. Projetado para uso corporativo em vez de pessoal, estava disponível em múltiplas versões, incluindo várias delas para servidores. Ele levou muitos dos recursos do Windows 98 para a família NT, incluindo o Internet Explorer e Plug and Play. O sistema Windows File Protection, que protegia arquivos importantes do sistema, foi lançado junto com o Encrypting File System, que melhorava a segurança criptografando arquivos automaticamente, e o Active Directory, uma tecnologia corporativa para fornecer serviços de rede e de domínios.

Os requisitos de sistema para o Windows 2000 variavam de acordo com a versão do sistema sendo instalada, para servidores ou para desktops (chamada Windows 2000 Professional). O Windows 2000 Professional exigia pelo menos um processador Pentium de 133 MHz (ou equivalente), 32 MB de RAM (64 MB eram recomendados) e um disco rígido de 2 GB com 650 MB de espaço disponível.

2000: Windows ME



Imagem cortesia do GUIdebook


O Windows ME (também conhecido como Windows Millenium Edition) foi lançado em Setembro de 2000 e rapidamente se tornou um dos sistemas operacionais mais criticados da Microsoft por causa de problemas de instalação, bugs e incompatibilidades com hardware e software. Críticos afirmam que ele foi lançado apenas para fins de marketing, para dar à Microsoft alguma coisa para vender durante a temporada de fim de ano de 2000.

O Windows ME foi a última versão do Windows baseada na arquitetura do MS-DOS. Durou menos de um ano, até o lançamento do Windows XP. O sistema exigia um PC com um processador Pentium de 150 MHz ou equivalente (um modelo de 300 MHz era recomendado), 32 MB de RAM (64 MB eram recomendados) e 320 MB de espaço livre em disco (2 GB recomendados).

2001: Windows XP



Lançado em Agosto de 2001, o Windows XP foi uma revolução em vários aspectos. Foi a primeira versão do Windows que não utilizava o DOS como base de sua arquitetura, e o primeiro a ser oferecido em versões de 32 e 64-bits. O XP combinava a versão desktop do seguro e estável Windows NT/2000 com a facilidade de uso das versões do Windows para o consumidor final.

Ele era muito mais estável que as versões anteriores do Windows e tinha uma interface significativamente remodelada que era mais brilhante, colorida e contemporânea. Os rótulos do ícones ganharam sobras, as janelas ficaram mais arredondadas e efeitos visuais como “fade” e menus deslizantes foram adicionados. O Windows XP também trouxe vários novos recursos, incluindo temas para a interface e o recurso de desktop remoto, que permite que um PC seja controlado remotamente através de uma rede doméstica, corporativa ou da internet.

O Windows XP foi lançado em múltiplas versões, entre elas o Windows XP Home Edition e o Windows XP Professional. Mesmo tendo sido lançado nove anos atrás, o Windows XP ainda é a versão do Windows mais usada, e está disponível como opção de “downgrade” para novos PCs que saem de fábrica com o Windows 7 Professional ou Ultimate.

Para rodar o Windows XP era necessário no mínimo um PC com processador Pentium de 233 MHz ou equivalente, 64 MB de RAM e pelo menos 1.5 GB de espaço livre no disco rígido. A configuração recomendada incluia um processador de 300 MHz e 128 MB de RAM.

2006: Windows Vista



Lançado no final de 2006, o Windows Vista é provavelmente a versão do Windows mais criticada e odiada em todos os tempos. Lançado mais de cinco anos após o Windows XP, o Vista sofria inicialmente com incompatibilidade generalizada de hardware e não rodava em PCs mais antigos.

A interface do Vista era significativamente diferente da interface do XP. Uma das mudanças mais notáveis foi chamada Windows Aero, uma série de melhorias visuais que incluiam janelas transparentes e animações. Também haviam vários outros recursos, incluindo a Windows Sidebar, Desktop Gadgets, a Windows Photo Gallery e busca aprimorada. Algumas pessoas não gostaram da interface “pesada” do Vista, e mesmo os que gostaram nem sempre podiam tê-la: muitos PCs vendidos como “Vista Capable” (“Capazes de roda o Vista) não rodavam a versão completa do sistema operacional, o que levou a processos de consumidores contra a Microsoft.

O Windows Vista estava disponível em seis versões diferentes, mas a maioria dos PCs foi vendida com o Vista Home Premium. O sistema exigia um processador de 32 ou 64-bit e 1 GHz, 1 GB de memória RAM, 15 GB de espaço livre no disco rígido e uma placa de vídeo compatível com o sistema Aero.

2009: Windows 7



Lançado em Outubro de 2009, o Windows 7 é a versão mais recente do sistema operacional da Microsoft. Muitas pessoas acreditam que ele é o que o Vista deveria ter sido. Ele manteve a interface Aero e outras melhorias que estrearam no Vista, mas em vez de adicionar uma tonelada de novos recursos ao sistema, a Microsoft focou em corrigir as falhas do Vista.

O Windows 7 é geralmente considerado mais estável que seu ancessor, e a maioria dos usuários do Vista que migraram para o novo sistema não experimentou os problemas encontrados durante a atualização do XP para o Vista.

Entre as novidades mais notáveis do Windows 7 estão a barra de ferramentas aprimorada, um menu iniciar levemente redesenhado e um trio de atalhos de navegação conhecidos como Aero Peek, Aero Snap e Aero Shake. Mas alguns recursos do Windows Vista foram removidos, como o Windows Photo Gallery e o Windows Mail.

O Windows 7 vem em múltiplas versões, incluindo o Windows 7 Home Premium, Windows 7 Professional e Windows 7 Ultimate. Para rodar o sistema é necessário um PC com um processador de 32 ou 64-Bit de 1 GHz ou mais rápido, 1 GB de memória RAM, 16 GB de espaço livre no disco rígido (20 GB para a versão de 64-Bit) e uma placa de vídeo compatível com o Aero.

O que vem por aí?

Ninguém, talvez nem a Microsoft, sabe qual forma o Windows irá tomar nos próximos 25 anos, porque não há como prever com tanta antecedência o comportamento da tecnologia. Entretanto, é seguro apostar que o Windows de daqui a 25 anos será radicalmente diferente da versão atual.

De fato, é razoável esperar que o Windows mude mais nos próximos 25 anos do que mudou nos 25 anos anteriores. Isto acontece porque, apesar de todas as mudanças na tecnologia, nas últimas décadas o computador pessoal, seja um desktop ou laptop, foi o principal “dispositivo de computação” das pessoas. Não está claro se isso ainda será verdade nos próximos 25 anos, dada a popularização dos smartphones e o surgimento dos tablets.

Várias questões vem à mente. Como o Windows irá se adaptar ao papel cada vez mais importante dos serviços e computação em nuvem? Será que os sistemas operacionais serão sequer importantes no futuro? Irá o Windows migrar para um modelo modular, com componentes que você pode escolher conforme necessário?

Por enquanto, a Microsoft permanece em silêncio. Nesse meio tempo, poderemos dar nossa primeira espiada no futuro do Windows quando a primeira versão Beta do Windows 8 for lançada, em algum momento do ano que vem.



Fonte:http://pcworld.uol.com.br/noticias/2010/11/22/25-anos-do-windows-em-imagens/

segunda-feira, 22 de novembro de 2010

Robôs do sexo começam a se espalhar pelo mundo

Quem vai querer uma?
Por Daniel Pavani
A indústria sexual também gosta de tecnologia e uma prova disso são os robôs do sexo que estão começando a cair no gosto de pessoas por todo o mundo.
Em janeiro de 2010, o site Crunch Gear contou sobre o inventor americano, Douglas Hines, que apresentou a Roxxxy, uma robô capaz de fazer sexo e até mesmo simular um orgasmo (!). Uma rápida busca no YouTube resulta em diversos vídeos sobre a robô, mas neste link há uma entrevista com o inventor da Roxxxy que vale a pena conferir.
Agora, parece que a moda pegou e outro americano, Scott Maclean, desenvolveu seus próprios robôs - a Suzie Software e o Harry Harddrive - segundo conta o jornal The Sun . Scott afirma que recebeu inúmeras propostas de compra de pessoas no Reino Unido e mais países da Europa e Ásia. Ele ainda conta que muitos pedem para que ele faça robôs parecidos com celebridades, como Angelina Jolie, Pamela Anderson e Michael Jackson. O inventor, porém, afirma que não pode fazer isso sem o consentimento dos artistas.
Os robôs de Scott possuem um preços previsto de cerca de R$ 5mil. Porém, ao contrário da Roxxxy, eles não falam. Neste aspecto, a robô de Hines pode ser considerada mais completa. Além de simular o orgasmo, ela fala, reage ao toque e possui 5 modos de operação, inclusive um selvagem.
A Roxxxy está a venda no site Truecompanion.com (apenas para maiores de 18 anos), pelo valor de U$ 1499 (cerca de R$ 2500), com envio para o Brasil. O interessante mesmo é imaginar este item tão peculiar chegando em casa pelo correio – ou passando pela alfândega.

Pessoal, realmente estamos no futuro, o que outrora era imaginação de alguns "lunáticos" está tornando realidade.

Fonte:http://br.tecnologia.yahoo.com/article/19112010/7/tecnologia-robos-sexo-comecam-se-espalhar.html

Senador ameaça bloquear projeto de proteção de direitos autorais

Caso a proposta seja aprovada, o governo poderá censurar os internautas norte-americanos, diz congressista.

O senador norte-americano, Ron Wyden, prometeu na última quinta-feira (18/11) que lutará com todas as suas forças, contra a aprovação de um polêmico projeto de lei de proteção aos direitos autorais nos Estados Unidos (EUA). Caso aprovado, ele permitiria ao governo do país bloquear sites suspeitos de hospedar conteúdos ilegais.

De acordo com Wyden, ele só não tentará bloquear o projeto - em inglês, Combating Online Infringement and Counterfeits Act (COICA) - se a atual legislação for alterada.

A aprovação ou não será, em última instância, decidida pelo Senado, já que na última quinta-feira (18/11) o Comitê Judiciário do Senado o aprovou, por votação de 19-0, e o enviou ao Congresso.

As críticas do senador estão relacionadas, principalmente, às possíveis ações do governo diante destas "violações" de direitos autorais, já que permitiria ao Departamento de Justiça do país, exigir, com uma ordem judicial, o registro de domínio de um site e paralisar suas atividades, sob a acusação de publicar materiais ilícitos.

Além disso, permitirá ao Departamento ordenar às empresas de telefonia que redirecionem o tráfego de sites estrangeiros com conteúdo não aprovado, resultando em possíveis atos de censura aos cidadãos norte-americanos.

Já os defensores dizem que o projeto será um passo importante nas práticas de combate às incontáveis violações das marcas e das leis de direitos autorais.

"A internet é um elemento fundamental dentro da economia global. No entanto, também se transformou em uma ferramenta para criminosos, que vendem produtos pirateados e lucram centenas de milhões de dólares, infringindo a propriedade intelectual", comentou o senador Orrin Hatch, autor do projeto.

"A COICA tem apoio bipartidário e ajudará que indústria e policiais coordenem melhor seus esforços no combate a pirataria", acrescentou Hatch.

(Grant Gross)
Fonte:http://idgnow.uol.com.br/internet/2010/11/19/eua-senador-ameaca-bloquear-projeto-de-protecao-de-direitos-autorais/