sexta-feira, 28 de agosto de 2009

Spaceport America ficará pronto no final de 2010

Dois anos depois de anunciado, começa nesta sexta-feira, a construção do primeiro porto espacial do mundo, o Spaceport America, no novo México (EUA). O porto servirá de base de lançamento para viagens espaciais de empresas privadas.
A Virgin Galatic que realiza viagens espaciais faz parte do projeto e assinou um acordo de 20 anos com o Estado do Novo México para realizar os lançamentos.


O “aeroporto” foi desenhado pelos escritorios londrinos da Foster + Partners, e parece ser tirado de Star Trek ou da Guerra das Estrelas. 45.000 pessoas ja se inscreveram para uma viagem cósmica, que custara nada menos do que…US $200.000 a viagem por pessoa.
O voo promete de viajar durante um tempo na altitude de 3.000 metros, para em seguida atingir a de 15.000 metros, e enfim atingir a linha Kármán, limite entre a Terra e o espaço. Esse passeio irá durar mais ou menos 2 horas, sendo que os clientes terão 5 minutos de ausência de peso/leveza. Antes do vôo o passageiro terá que passar 3 dias em treinamento.



O WK2 vai decolar como qualquer outra aeronave a jato, mas com a SS2 acoplada à parte inferior. Quando atinge uma altitude de 15 mil metros, o WK2 libera a SSE. Quando os pilotos da SS2 acionam a ignição do motor híbrido, o foguete SS2 acelera verticalmente com velocidade de Mach 3 durante cerca de 90 segundos (a tripulação vai experimentar força de 3 a 4 Gs nesse período) e subir mais de 91 mil metros. Depois que o motor é desligado, as asas serão desaceleradas para a reentrada. Nesse ponto, a SS2 terá atingido o ponto mais alto - cerca de 109 mil metros - e a tripulação vai experimentar a gravidade zero.

O Spaceport America deve ficar pronto até o fim de 2010. Seu valor é estimado em 198 milhões de dólares.


quinta-feira, 13 de agosto de 2009

A máquina do fim do mundo!!!


O LHC (Grande Colisor de Hádrons) pode destruir o mundo?

O LHC permitirá que os cientistas observem colisões de partículas em um nível de energia muito mais alto do que em qualquer experiência prévia. Algumas pessoas se preocupam com a possibilidade de que essas poderosas reações causem sérios problemas à Terra. De fato, algumas estão tão preocupadas que abriram um processo contra o CERN em uma tentativa de adiar a ativação do LHC. Em março de 2008, Walter Wagner, que trabalhou no setor de segurança nuclear, e Luis Sancho foram os autores de um processo aberto no tribunal federal distrital dos Estados Unidos no Havaí. Eles alegavam que o LHC poderia destruir o mundo [fonte:MSNBC (em inglês)].

Ao promover colisões velozes e fortes entre prótons, o LHC fará com que eles se rompam em subpartículas atômicas menores. Essas minúsculas subpartículas são muito instáveis e só existem por frações de segundos antes de decair ou se recombinar a outras subpartículas. No entanto, de acordo com a teoria do Big Bang, toda a matéria do universo em seus primeiros momentos consistia nessas minúsculas subpartículas. À medida que o universo se expandia e se resfriava, elas se combinaram para formar partículas maiores, tais como prótons e nêutrons.

Qual é a base dessa preocupação? O LHC poderia criar algo capaz de destruir a vida tal como a conhecemos? O que exatamente poderia acontecer?

Um temor é o de que o LHC possa produzir buracos negros. Buracos negros são regiões nas quais a matéria se concentra em um ponto de densidade infinita. Cientistas do CERN admitem que o LHC seria capaz de produzir buracos negros, mas alegam que estes teriam escala subatômica e que entrariam em colapso quase imediato. Em contraste, os buracos negros estudados pelos astrônomos resultam do colapso de toda uma estrela. Existe uma grande diferença entre a massa de uma estrela e a de um próton.

Outra preocupação é que o LHC produza um material exótico (e até agora hipotético) conhecido como strangelets. O possível indício da presença de strangelets é especialmente perturbador. Os cosmologistas teorizam que os strangelets possam exercer um poderoso campo gravitacional que permitiria a destruição de toda vida do planeta.

Os cientistas do LHC descartam essa preocupação com múltiplas respostas.

· Eles apontam que strangelets são hipotéticos. Ninguém observou esse material no universo.

· Eles dizem que o campo eletromagnético em torno desse material repeliria a matéria normal e não a transformaria em mais nada.

· Eles dizem que mesmo que essa matéria exista, seria altamente instável e decairia de modo quase instantâneo.

· Os cientistas afirmam que raios cósmicos de alta energia produziriam material como esse naturalmente. Como a Terra continua existindo, eles acreditam que strangelets não sejam problema.

Outra partícula teórica que o LHC poderia gerar seria monopólo magnético. Baseado em uma teoria de P.A.M. Dirac, um monopólo é uma partícula que tem uma única carga magnética (norte ou sul) em vez de duas. A preocupação mencionada por Sancho e Wagner é a de que essas partículas possam dilacerar a matéria devido às suas cargas magnéticas desequilibradas. Cientistas doCERN (em inglês) discordam, alegando que, mesmo que os monopólos existam, não há motivo para temer que essas partículas possam causar tamanha destruição. De fato, pelo menos uma equipe de cientistas está tentando ativamente encontrar indícios de monopólos, na esperança de que o LHC produza alguns.

Outras preocupações quanto ao LHC incluem o medo de radiação e o fato de que produzirá as colisões de partículas de mais elevada energia já vistas na Terra. O CERN afirma que o LHC é extremamente seguro, com isolamento espesso que inclui 100 metros de terra sobre o túnel. Além disso, não pode haver pessoal presente no subsolo durante as experiências. Quanto a preocupações com as colisões, os cientistas apontam que elas acontecem o tempo todo na natureza, com os raios cósmicos de altas energias. Os raios colidem com oSol, com a Lua e com outros planetas, que continuam existindo sem sinal de danos. Com o LHC, essas colisões acontecerão em ambiente controlado. De outra forma, não há diferença alguma.

Com 15 petabytes de dados (o que equivale a 15 milhões de gigabyes) recolhidos pelos detectores do LHC a cada ano, os cientistas têm uma imensa tarefa diante deles. Como processar todas essas informações? Como determinar se você está estudando algo de significativo em meio a um conjunto de dados tão grande? Mesmo com o uso de um supercomputador, processar tanta informação pode demorar milhares de horas. A solução foi usar a computação em grade, onde os dados serão divididos e direcionados para vários computadores ao redor do mundo.


terça-feira, 7 de julho de 2009

Realidade Aumentada: o mundo visto por outra dimensão
Como a tecnologia está ganhando espaço em nossa vida
BRUNO FERRARI

O despertador toca às 7 da manhã. Enquanto você escova os dentes, o espelho reconhece seu rosto e informa os compromissos do dia. Uma parada rápida para brincar com seu ornitorrinco de estimação, que sai correndo e desaparece ao colidir com a parede. Mais uma olhada no espelho da sala e aparece um aviso de que você está atrasado para o trabalho. O carro não possui painel físico. Todas as informações do veículo (velocidade, nível de combustível, rádio etc.) aparecem projetadas no vidro dianteiro. O vidro também assume a função de GPS, mostrando o caminho mais rápido, ao mesmo tempo que dá informações sobre os monumentos, restaurantes e cinemas que estão em seu campo de visão. No trabalho, um discreto par de óculos mostra informações que surgem em sua frente para ajudar na tomada de decisões. Reuniões com executivos do mundo inteiro ocorrem em sua mesa – eles estão todos sentados, virtualmente, a sua frente. Na hora do almoço, basta uma rápida olhada para seu prato para saber quantas calorias há nele. Na volta do trabalho, aquela passadinha no shopping para buscar o sapato e o terno que você comprou após experimentá-los rapidamente olhando no espelho do banheiro. O final do dia termina com uma corrida no parque. Além de pedômetro e contador de calorias, seus óculos esportivos captam informações espalhadas numa dimensão virtual oculta: são ações publicitárias, dados da Wikipédia sobre uma árvore exótica, as últimas notícias do dia etc. A volta para casa é tranquila. Para descontrair, uma partida de futebol no videogame que capta seus movimentos de artilheiro.

Esse não é mais um exercício de futurologia. São situações que devem se tornar corriqueiras em pouco tempo. A responsável por isso é a Realidade Aumentada (Augmented Reality, em inglês). Trata-se de uma tecnologia que mistura os objetos reais de nosso ambiente com objetos virtuais, criados para aumentar a quantidade de informações que recebemos. Funciona assim: um equipamento reconhece padrões do mundo real (a forma de um rosto, o movimento de um tenista), captura essas informações para o mundo virtual, enriquece-as com outras informações e as devolve para o mundo real. Apesar de ter nascido há bastante tempo – os primeiros sistemas foram desenvolvidos na década de 1960 –, seu uso se tornou mais comum nos últimos três anos. A expressão em si surgiu em 1992, quando a Boeing desenvolveu um sistema para enxergar a fiação interna de seus aviões. Hoje, há exemplos de Realidade Aumentada em áreas como publicidade, medicina, desenvolvimento de games e arquitetura. Segundo Steven Feiner, diretor do laboratório de computação gráfica da Universidade Colúmbia, a evolução dos PCs atuais foi o que libertou as experiências com Realidade Aumentada dos laboratórios científicos. “Apenas há pouco tempo as empresas conseguiram criar aplicações da tecnologia que fossem comercialmente viáveis”, diz Feiner, um dos maiores especialistas do mundo em Realidade Aumentada.

quinta-feira, 2 de julho de 2009

A terra é um ser vivo?

Segundo a "Teoria de Gaia", a Terra não é um planeta morto, feito de rochas, oceanos e atmosfera inanimadas, meramente habitado pela vida. Para o cientista James Lovelock convidado pela NASA para analisar a existência de vida em Marte, a Terra é um ser planetário vivo. A superfície da Terra, que sempre consideramos o meio ambiente da vida, é na verdade, parte da própria vida. Nesse sentido a vida de cada um de nós, assim como a de toda Gaia e cada uma de suas espécies, são interdependentes. Ao poluirmos nosso planeta, estamos poluindo a nós mesmos, ao cuidarmos de nós mesmos, estamos cuidando de nosso planeta. Enfim, a filosofia de Gaia, nome dado a Deusa Terra pelos antigos gregos, procura um saudável e dinâmico equilíbrio entre a Terra e seus habitantes, levando em consideração a individualidade de cada um, com o claro objetivo de alcançar o equilíbrio entre o homem e a natureza, harmonizando o corpo, a mente e o espírito. Assim, sendo a Terra um ser orgânico, onde tudo depende de tudo e esse tudo está em constante ligação e troca, quando se destrói uma forma de vida, se empobrece esse Universo e a partir daí, acirramos o caos existente no mundo, como a pobreza, a desigualdade social, a ausência de recursos naturais, a fome, o falecimento da biodiversidade e das diversidades culturais, a violência, a não concretização dos Direitos Humanos Fundamentais, dentre inúmeros outros problemas viventes no cotidiano.

quinta-feira, 25 de junho de 2009

InterPlaNet - Internet Interplanetária



Internet interplanetária

O mundo ficou pequeno demais para a internet, que acaba de ir para o espaço. A Nasa, agência espacial norte-americana, testou com sucesso a primeira rede de comunicação espacial baseada na tecnologia da rede mundial de computadores.

Por meio de um sistema chamado de Rede Tolerante a Interrupções (DTN, na sigla em inglês), pesquisadores do Laboratório de Propulsão a Jato, em Pasadena, Califórnia, conseguiram transmitir dezenas de imagens de uma espaçonave que se encontra a cerca de 33 milhões de quilômetros da Terra e também enviar arquivos de volta.

“É o primeiro passo no sentido da criação de uma infra-estrutura de comunicação espacial totalmente nova. Ou seja, uma internet interplanetária”, disse o coordenador do projeto Adrian Hooke, gerente de arquitetura de redes espaciais da Nasa.

Há dez anos, pesquisadores da agência começaram uma parceria com Vint Cerf, vice-presidente do Google, um dos pioneiros da internet que participou do desenvolvimento TCP-IP, a série de protocolos usada para a transferência de dados digitais na qual a internet se fundamentou.

O novo protocolo DTN usa uma tecnologia que se baseia no TCP-IP, mas projetada para ser muito mais robusta e resistir a atrasos, interrupções e desconexões comuns na transferência de dados pelo espaço. Falhas podem ocorrer em inúmeras situações, como quando uma espaçonave se move para trás de um planeta ou durante explosões solares.

Outro ponto importante são os atrasos nos sinais. Quem assiste televisão por satélite conhece bem o cenário: durante uma partida de futebol o gol ainda nem foi visto mas os rojões já são ouvidos, por conta do sinal atrasado em relação ao da TV aberta e transmitido sem precisar percorrer a distância até o satélite e voltar.

Na comunicação espacial o problema é muito mais grave. Mesmo trafegando na velocidade da luz, dados enviados de Marte levam entre 3 minutos e meio a 20 minutos para chegar à Terra, dependendo da distância entre os planetas.

Diferentemente do protocolo da internet terrestre, no DTN, se o caminho ao destino não puder ser encontrado, os pacotes de dados não são descartados. Em vez disso, cada nó da rede mantém a informação pelo tempo que for necessário até que a comunicação possa ser feita com outro nó. Como se fosse um jogador de futebol que retém a bola até encontrar um companheiro livre de marcação.

“Na atual comunicação espacial, um grupo de operações deve organizar manualmente cada link e definir antecipadamente todos os comandos específicos de quais dados devem ser enviados, quando serão enviados e para onde. No DTN, essa transmissão pode ser feita automaticamente”, explicou Leigh Torgerson, gerente do Centro de Operações do Experimento DTN.

No teste realizado, os pesquisadores usaram a sonda Epoxi, que está em missão para encontrar o cometa Hartley 2, o que deverá ocorrer em dois anos. A rede espacial experimental foi montada com dez nós, em sondas em órbita de Marte e em satélites e centros na Terra.

No ano que vem, o teste do DTN será feito com a participação da Estação Espacial Internacional em um dos nós.

Fonte: Agência FAPESP

quarta-feira, 22 de abril de 2009

Gerenciamento de Projetos: economia e minimização de riscos e ampliação de resultados

Gerenciamento de projetos, gestão de projetos, ou ainda, administração de projetos é a aplicação de técnicas e habilidades com o fim de integrar equipes ou grupos de trabalho que precisam se manter em sintonia para atingir um objetivo comum. O responsável por esse trabalho é o gerente de projetos, que trabalha de forma indireta na realização dos projetos da empresa, ficando sob sua responsabilidade a manutenção da integração entre os grupos ou indivíduos, para que o risco de erro no projeto seja mínimo.
 
Tomando como base o conceito de projeto adotado pela PMI - Project Management Institute, um projeto é algo único, de alguma forma, para aquela empresa, seja pelo resultado que se espera gerar, seja pelo cliente, pela localização onde se desenvolve etc. e ainda, um projeto tem como característica um objetivo definido, que quando atingido tem-se por concluído o projeto.
 
É buscando reduzir o fator erro dentro do projeto que a gestão de capacitação se encaixa no mercado. Com os altos custos para se produzir, mão-de-obra cara (se levados em consideração os custos indiretos com essa mão-de-obra), concorrência acirrada, as empresas não podem mais se dar ao luxo de tentar corrigir os erros, sendo atual, a preocupação de evitá-los. O Gerente de projetos atua, dessa forma, como elo entre os diversos organismos produtivos da empresa fazendo com que estes trabalhem em simbiose, evitando desgaste entre os mesmos e minimizando as falhas entre os setores, diminuindo a possibilidade de erro.
 
Definindo de forma clara e em linguagem leiga, é a prática administrativa onde o gestor de projetos trabalha com o fim de integrar as diversas pessoas ou equipes envolvidas na produção buscando reduzir o risco de fracasso quase a zero, otimizando a utilização de recursos tipo, dinheiro, pessoal, espaço, tempo, etc.
 
O PMI, principal associação profissional em gerenciamento de projetos, conta com mais de 265.000 associados em 170 países. O PMI Ceará, fundado em 1 de outubro de 2003, tem como missão servir o interesse profissional de seus associados e contribuir com o desenvolvimento econômico e social da nossa sociedade, promovendo o avanço do estado na arte da prática de gerenciar programas e projetos e as organizações que estão envolvidas; a ética e as responsabilidades em gerenciamento de programas e projetos; apoio ao gerenciamento de projetos como uma disciplina profissional; programa de estímulo ao gerenciamento de projetos para o benefício da sociedade.
 
Para o PMI-CE, em um mercado competitivo global, a contribuição dos profissionais com capacidade em gerenciamento de projetos vem sendo solicitada por organizações de diversos portes. Os gerentes de projetos criam estratégias e planos de ações para completar os projetos com êxito, incorporando requisitos complexos e dinâmicos. Na condição de gerentes, estes lideram e trabalham junto às equipes.

Fonte: PMI-CE

sexta-feira, 17 de abril de 2009

Computação nas nuvens



A computação nas nuvens ou cloud computing é um modelo de computação em que dados, ficheiros e aplicações residem em servidoresfísicos ou virtuais, acessíveis por meio de uma rede em qualquer dispositivo compatível. Basicamente, consiste em compartilhar ferramentas computacionais pela interligação dos sistemas, semelhantes as nuvens no céu, ao invés de ter essas ferramentas localmente (mesmo nos servidores internos). O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas[1].

Um problema originado dentro das corporações é o alto custo com Tecnologia da Informação (TI). “As organizações de TI gastam hoje 80% de seu tempo com a manutenção de sistemas e não é seu objetivo de negócio manter dados e aplicativos em operação. É dinheiro jogado fora, o que é inaceitável nos dias de hoje”, defende Clifton Ashley, diretor do Google para a América Latina [1].

Dentro desse contexto, o PC será apenas um chip ligado à internet, a "grande nuvem" de computadores. Não há necessidade de instalação de programas, serviços e armazenamento de dados, mas apenas os dispositivos de entrada (teclado, mouse) e saída (monitor) para os usuários.

Uma arquitetura em nuvem é muito mais que apenas um conjunto (embora massivo) de computadores. Ela deve dispor de uma infra-estrutura para gerenciamento, que inclua funções como provisionamento de recursos computacionais, balanceamento dinâmico do workload e monitoração do desempenho.

Fonte: wikipedia

A energia Negra


Em cosmologia, a energia escura (ou energia negra) é uma forma hipotética de energia que estaria distribuída por todo espaço e tende a acelerar a expansão do Universo. A principal característica da energia escura é ter uma forte pressão negativa. De acordo com a teoria da relatividade, o efeito de tal pressão negativa seria semelhante, qualitativamente, a uma força que age em larga escala em oposição à gravidade. Tal efeito hipotético é frequentemente utilizado, por diversas teorias atuais que tentam explicar as observações que apontam para um universoem expansão acelerada.

A natureza da energia escura é um dos maiores desafios atuais da física e da cosmologia. Existem hoje muitos modelos fenomenológicos diferentes, contudo os dados observacionais ainda estão longe de selecionar um em detrimento dos demais. Isso acontece pois a escolha de um modelo de energia escura depende de um bom conhecimento da variação temporal da taxa de expansão do universo o que exige a observação de propriedades de objetos a distâncias muito grandes (observações e medição de distância em altos redshifts).

As principais formas das diferentes propostas de energia escura são: a constante cosmológica (que pode ser interpretada tanto como uma modificação de natureza geométrica nas equações de campo da relatividade geral, quanto como um efeito da energia do vácuo, a qual preenche o universo de maneira homogênea); e a quintessência (usualmente modelado como campo escalar cuja densidade de energia pode variar no tempo e no espaço).

Outra proposta relativamente popular entre pesquisadores é a quartessência que visa unificar os conceitos de energia escura e matéria escurapostulando a existência de uma forma de energia conhecida como gás de Chaplygin que seria responsável tanto pelos efeitos das duas componentes escuras.


Fonte: Wikipedia