Pesquisa personalizada

Pesquisar este blog

Mostrando postagens com marcador exploração. Mostrar todas as postagens
Mostrando postagens com marcador exploração. Mostrar todas as postagens

17 de nov de 2011

cigarro Tabagismo

User-agent: Mediapartners-Google* Disallow:

cigarro


Tabagismo

De onde veio este hábito?
A história do tabagismo no mundo tem início com a exploração das Américas, em era pré-Colombiana, quando este hábito, cultuado entre os indígenas como terapêutico, inseticida e fazendo parte de rituais religiosos, foi levado para a Europa. O tabaco, obtido da planta Nicotiana rustica, era utilizado pelos indígenas da América do Norte e do Sul, onde era principalmente mascado, embora também já fosse fumado. Hoje, para fins industriais, é utilizada a Nicotiana tabacum, que possui melhor aceitação pelos usuários.

A origem do nome da planta, foi dada em homenagem ao médico francês Jean Nicot, que estudou os efeitos da planta e a recomendava para o tratamento de várias doenças.

Após sua introdução como consumo social, inicialmente restrito a grupos aristocráticos em terras européias, que ocorreu no século XVI, foi usado como rapé (inalação), mascado e fumado em cachimbos e posteriormente em charutos. Seu uso na forma de cigarros foi implementado pelos espanhóis após a colonização norte americana.

O uso do cigarro em escala comercial como temos hoje, só começou no início do século XX, quando ocorreu evolução tecnológica na manipulação do fumo e a produção se deu em escala industrial.

Após 1920, a expansão do uso do cigarro nos Estados Unidos e Europa se deu em grande escala, tomando conta como um hábito social aceito, admirado e relacionado com a masculinidade.

Inicialmente não havia informações a respeito dos efeitos nocivos do cigarro, porém, após os anos 50, na Inglaterra, começaram a ocorrer os primeiros relatos de correlação entre o tabagismo e o câncer de pulmão. Paralelamente, em todo o mundo expandia a indústria produtora de cigarros, que introduziu o hábito na América Latina, Europa Oriental e Ásia.

29 de mai de 2011

Amamentar reduz estresse e câncer de mama

Amamentar reduz estresse e câncer de mama

Amamentar reduz risco de estresse e câncer de mama na mulher

Além de aumentar o vínculo entre mãe e filho, a amamentação também é saudável para a saúde da mulher

Amamentar é um dos maiores prazeres quando se tem um filho porque é um momento íntimo entre mãe e bebê. O leite materno, além de prevenir doenças de saúde na criança, também evita problemas como o estresse na mãe e o câncer de mama, dependendo da idade.

“A mulher poderia ficar estressada no começo da amamentação porque ainda precisa aprender a pegar no seio corretamente. Esse processo é chato. Mas a sensação de missão cumprida supera qualquer sentimento”, afirma Eduardo Souza, ginecologista e obstetra do Hospital e Maternidade São Luiz. Além disso, o fato de não precisar preparar o alimento da criança toda vez que ela sente fome deixa a mãe mais relaxada.

Os benefícios não param por aí. A amamentação também ajuda a combater o câncer de mama em algumas situações. Mas os exames de prevenção não devem ser abandonados. “Quando a mulher tem entre 18, 20 anos, ela está mais protegida da doença do que uma pessoa de 38. Quando a mãe é mais velha, ela tem outros hormônios e outros fatores de risco por isso é fundamental fazer exames de controle”, afirma.

Da revista Crescer
http://revistacrescer.globo.com/Revista/Crescer/0,,EMI11979-10585,00-AMAMENTAR+REDUZ+RISCO+DE+ESTRESSE+E+CANCER+DE+MAMA+NA+MULHER.html

Maratona de amamentação

Mães participam de 'maratona' de amamentação pelo mundo
Objetivo é esclarecer sobre os benefícios de dar de mamar.

Evento ocorre em meio a suspeitas causadas por leite chinês contaminado.

Veja as imagens deste evento no blog AMOR, ORDEM E PROGRESSO
http://amorordemeprogresso.blogspot.com/2008/10/mes-participam-de-maratona-de-amamentao.html
 

Tempo de amamentação dobra no Brasil

Média de aleitamento exclusivo subiu de 23,4 para 54,1 dias, mas continua longe dos 180 dias preconizados pela OMS

Pesquisa nacional considera dados de 118 mil bebês, a partir de entrevistas com mães feitas em 1999 e 2008; uso da chupeta caiu 15%

O tempo médio de aleitamento materno exclusivo no Brasil passou de 23,4 dias para 54,1 dias em nove anos, aponta a 2ª Pesquisa de Prevalência do Aleitamento Materno nas Capitais Brasileiras realizada pelo Ministério da Saúde e divulgada ontem durante a Semana Mundial de Amamentação.
O aleitamento não exclusivo também subiu, de 296 dias para 342 dias entre 1999 e 2008.
Apesar dos avanços, o país ainda está longe de atingir os indicadores adequados. A Organização Mundial da Saúde preconiza o aleitamento exclusivo até os seis meses de vida (180 dias) e o aleitamento parcial até os dois anos (730 dias).
A pesquisa foi realizada com entrevistas a mães nas capitais e mais 239 municípios em outubro de 2008, durante a Campanha Nacional de Vacinação. Os resultados consideram dados de cerca de 118 mil bebês.
O levantamento também registrou uma redução de 15% no uso da chupeta em crianças com menos de um ano, passando de 57,7% para 42,6%.
Além disso, pela primeira vez a pesquisa avaliou o uso da mamadeira -adotada por 58,4% das crianças. A maior frequência foi no Sudeste (63,8%) e a menor, no Norte (50%). 

Aleitamento e chupeta

... continuação ...
.
A pesquisa comprovou a relação entre chupeta e tempo de amamentação. Estados com índices maiores de aleitamento têm uso menor do acessório.
O Ministério da Saúde desestimula o uso da chupeta e da mamadeira e recomenda a opção por copo após os seis meses para não interferir na sucção.
Macapá possui a maior duração do aleitamento parcial (601,36 dias). E é a capital com menor percentual de bebês usando chupeta: apenas 19,8%.
São Paulo tem o menor tempo médio de amamentação parcial (292,82 dias), e 51,2% dos bebês usam chupeta. Porto Alegre está logo atrás no quesito amamentação parcial (299,82 dias) e ocupa o topo do ranking do acessório (59,5%).
A pediatra Elsa Giugliani, coordenadora da área técnica de Saúde da Criança e Aleitamento Materno do Ministério da Saúde, comemora os resultados, mas reconhece que há muito a fazer para que o Brasil alcance o padrão estabelecido para a amamentação.
Segundo Giugliani, a OMS considera "bom" o indicador de um país que tenha ao menos 80% das crianças com menos de seis meses em amamentação exclusiva -o Brasil tem 41% dos bebês nessas condições.
Com relação ao uso da chupeta, Giugliani afirma que a redução é um avanço. "Nascem quase três milhões de bebês por ano. Quase 400 mil deixaram de usar a chupeta."
Para a pediatra, a estratégia do Ministério da Saúde para aumentar o tempo de amamentação é investir na implantação total da Rede Amamenta Brasil, criada no ano passado e que tem como objetivo capacitar profissionais para auxiliar as mães durante o aleitamento. "Faltava uma política de aleitamento nas unidades básicas de saúde, onde efetivamente as mães são acompanhadas."
Roseli Sarni, pediatra, nutróloga e presidente do Departamento de Nutrição da Sociedade Brasileira de Pediatria, considera os dados animadores, mesmo longe das metas. 
"Todo dado positivo sobre aleitamento é recebido com bons olhos. O desafio é descobrir por que as mães deixam de amamentar tão cedo e conscientizá-las", diz.
A enfermeira Maria Fernanda Dornaus, coordenadora de enfermagem da Unidade Neonatal do hospital Albert Einstein, concorda que o apoio às mães nos primeiros dias de amamentação é fundamental para melhorar os índices.
"A mãe precisa saber que o leite materno é fundamental para o desenvolvimento e crescimento da criança e que ele tem fatores imunológicos que protegem o bebê. Ela também precisa aprender como é feita a pega e a sucção. E os profissionais de saúde têm essa função."
.
Da Folha de São Paulo de 04/08/09 

Amamentar alinha cérebro da mãe com o do bebê

Amamentar pode “alinhar” cérebro da mãe com o do bebê
.
Pesquisa destaca que oferecer o peito à criança pode influenciar na criação de laços afetivos
.
A maioria das pesquisas sobre amamentação é focada nas vantagens que o leite traz para a saúde do bebê e, mais recentemente, nos benefícios fisiológicos e psicológicos para a mãe. Uma pesquisa recente destaca o mecanismo pelo qual oferecer o peito à criança pode influenciar na criação de laços afetivos: há indícios de que o cérebro da mãe que amamenta é especialmente receptivo aos sinais da criança. A pesquisadora Pilyoung Kim e seus colegas no Centro de Estudos da Criança, da Universidade Yale, usaram ressonância magnética funcional para escanear os cérebros de 20 mulheres expostas à imagem de seus bebês ou ao choro deles. Resultados do estudo feito três semanas depois do parto sugerem que mulheres que amamentam mostram maior excitação das áreas límbicas, do hipotálamo e do mesencéfalo – envolvidas com emoção e motivação – em comparação com mães que ofereciam mamadeira a seus filhos.
.
Os cientistas acreditam que essa diferença seja marcada pela oxitocina, um hormônio que vem recebendo muita atenção por seu papel nos elos sociais. Amamentar estimula a produção da substância, o que pode aumentar a atenção da mãe para seu bebê. Porém, três ou quatro meses depois do nascimento, a diferença no valor global de atividade cerebral entre voluntárias que amamentaram no peito e as que recorreram à mamadeira era menor. Isso indica que com o tempo a reação da mãe a seu bebê pode depender mais da personalidade, experiência de vida e intensidade emocional da mulher que dos níveis de hormônio. 
As áreas mais sensibilizadas do cérebro das “mães de mamadeira” foram outras: a atividade do córtex pré-frontal e outras regiões ligadas a comportamentos sociais e cognitivos aumentaram. Pelo fato de todas as participantes do estudo serem saudáveis e com histórias semelhantes, Kim adverte que padrões específicos de ativação cerebral encontrados neste estudo podem não se generalizar para uma população mais diversa. Os resultados são valiosos, porém, para mães que têm depressão ou problemas causados por fatores ambientais, como a pobreza. A amamentação pode ser um modo de estimular a produção de oxitocina nessas mulheres, favorecendo a relação inicial com seus bebês e, em consequentemente, o desenvolvimento dessas crianças.
.
Da revista Mente Cérebro
http://www2.uol.com.br/vivermente/noticias/amamentar_pode_-alinhar-_cerebro_da_mae_com_o_do_bebe.html

Amamentação coletiva atrai centenas de mães

Amamentação coletiva atrai centenas de mães no litoral de SP
Cerca de 800 mulheres participam de ato em Santos.
Objetivo é lembrar 11º Encontro Nacional de Aleitamento Materno.
.




.
Para lembrar o 11º Encontro Nacional de Aleitamento Materno, cerca de 800 mães, segundo a organização, se reuniram na tarde desta quarta-feira (9) na Praia do José Menino, em Santos, para uma amamentação coletiva. No Emissário Submarino, à beira-mar, mulheres de Santos e de outras cidades da região como São Vicente, Guarujá e Mongaguá se juntaram para chamar a atenção para a importância do ato. (Foto: Carolina Iskandarian/G1)
.
Do G1 

Benefícios da amamentação exclusiva

Estudo confirma benefícios da amamentação exclusiva contra infecções
.
Bebês alimentados exclusivamente com o leite materno nos primeiros quatro meses de vida - e que continuam sendo amamentados por alguns meses após esse período, mesmo com a inclusão de outros alimentos - têm menor risco de infecções respiratórias e gastrointestinais, segundo estudo que será publicado na edição de julho da revista médica Pediatrics. E, de acordo com os especialistas, seis meses de amamentação exclusiva é ainda melhor.
Avaliando mais de 4 mil mães, os pesquisadores observaram que apenas 1,4% dos bebês haviam sido alimentados exclusivamente pelo leite materno até os seis meses de idade. E esses bebês apresentavam, significativamente, menores riscos de infecções no trato respiratório inferior e superior e no trato gastrointestinal. Aqueles amamentados exclusivamente por quatro meses também apresentaram bons resultados nesse sentido, mas em menor escala.
“O aleitamento materno exclusivo até a idade de quatro meses e parcialmente após esse período foi associado a uma significativa redução da morbidade respiratória e gastrointestinal em bebês”, escreveram os autores na publicação. De acordo com os especialistas esses resultados são muito importantes, visto que essas infecções são as principais causas de doenças nas crianças. E isso está em consonância com as recomendações da Organização Mundial da Saúde. “Nossas descobertas apoiam estratégias de políticas em saúde para promover a amamentação exclusiva por pelo menos quatro meses, mas, preferencialmente, por seis meses em países industrializados”, destacaram.
.
Fonte: Pediatrics. Edição prévia de julho de 2010.
http://boasaude.uol.com.br/news/index.cfm?news_id=8553&mode=browse

Amamentação reúne centenas de mães na Penha

Campanha de amamentação reúne centenas de mães na Penha
Evento aconteceu na manhã de sábado, na Praça Santa Emiliana.
Um dos estandes montados tratou da saúde bucal da criança.
.
Um desfile de mães e filhos. Eles satisfeitos e elas orgulhosas, cheias de carinho. Esse foi o cenário encontrado neste sábado (28) durante uma campanha de amamentação que reuniu centenas de mulheres, na Penha, no subúrbio do Rio. As mães receberam orientações sobre o leite materno.

A Praça Santa Emiliana, conhecida como Praça do Iapi, praticamente se transformou numa feira de saúde com vários estandes. Um deles tratou da saúde bucal da criança. O recém nascido quando acaba de mamar precisa ter a gengiva limpa com uma gaze umedecida com água filtrada ou com esta escova de silicone.

O encontro aconteceu entre 9h e meio-dia, e encerrou a campanha de amamentação, realizada pela prefeitura do Rio, durante o mês de agosto. O evento contou, ainda, com atividades de artesanato, espaço zen e oficina de penteados afro. Além disso, grupos de coral, dança e teatro mostraram seus trabalhos durante toda a manhã.
.
Do G1

25 de out de 2010

Tenha seu Hamster Online

User-agent: Mediapartners-Google* Disallow:


hamster vai lhe fazer companhia durante todo o dia. Assista-o correr na sua roda, beber água e comer a comida que você alimentá-lo clicando com o mouse. Clique no centro da roda para fazê-lo voltar a ele. Clique no link acima editar as configurações para personalizar o hamster. Quando terminar, clique no botão "Adicionar ao Google".não o deixe morrer

Tenha seu Hamster Online

http://abowman.com/google-modules/hamster/

27 de jul de 2010

componentes para montar micros

Antigamente existia a polêmica entre os "PCs onboard" e os "PCs offboard", mas atualmente praticamente todas as placas trazem som e rede onboard. Isto acontece por que tanto as placas de som, quanto as de rede atingiram um "pico evolutivo" a alguns anos atrás, onde deixou de existir uma grande diferença "prática" de performance e qualidade entre as placas que justificasse gastar mais por uma placa offboard na maioria dos casos.

Uma placa de rede offboard da 3Com ou Intel pode oferecer pequenos ganhos de desempenho, um certo ganho de estabilidade do sinal ou uma utilização do processador um pouco mais baixa durante as transferências do que um chipset Realtek onboard, mas se formos comparar a rede onboard com uma placa de rede offboard barata, como uma Encore 10/100 baseada no chip Via Rhine 6105, por exemplo, é bem provável que a placa onboard seja superior, principalmente se considerarmos que a maioria das placas-mãe atuais trazem rede gigabit, onde o chipset de rede é ligado diretamente ao barramento PCI-Express.

Algo similar acontece no caso do som onboard. Desde as Sound Blaster 16 ISA as placas de som atingiram um nível de qualidade sonora a partir do qual a maioria das pessoas não consegue perceber diferenças consideráveis de uma placa para a outra. As placas evoluíram em muitos sentidos, naturalmente, incorporando suporte a múltiplos fluxos de audio, suporte a taxas de amostragem mais altas, recursos 3D e assim por diante, mas a característica básica, que é a qualidade do som ao ouvir música não mudou muito desde então. Ela depende mais da qualidade dos circuitos analógicos e conectores (além da qualidade dos fones ou das caixas de som, obviamente) usados do que do chipset propriamente dito.

Atualmente podemos classificar a maioria dos chipsets de som onboard em duas categorias: As placas que seguem o antigo padrão AC'97 a as placas compatíveis com o padrão Intel HDA (high definition audio), que oferecem suporte a oito canais de audio independentes com 32 bits de definição e taxa de amostragem de 192 kHz, contra 6 canais (20 bits, 48 kHz) do AC'97.

Assim como no caso das placas de rede, existem placas de som offboard de alta qualidade, destinadas ao público entusiastas e ao uso profissional. Elas oferecem uma variedade maior de saídas e uma qualidade geral melhor, mas a maioria das pessoas não percebe diferença na qualidade do som e acaba não utilizando os recursos adicionais. É por isso que as tradicionais placas de som da Creative, incluindo as Audigy e X-Fi não são nem de longe tão populares quanto antigamente.

Naturalmente, o mesmo não se aplica na questão das placas 3D, onde as offboard ainda reinam absolutas. De uma forma geral, as placas de vídeo onboard possuem duas limitações crônicas.

A primeira é o fato do chipset de vídeo ser integrado à ponte norte do chipset, o que traz limitações no volume de transistores e também na frequência de operação. Isso limita os projetos de vídeo onboard a soluções simplificadas, que não tem como concorrer diretamente nem mesmo com as placas offboard low-end.

A segunda limitação é a questão da memória. Placas 3D offboard utilizam memória dedicada, enquanto as placas onboard precisam compartilhar a memória principal com o processador e os demais periféricos do micro.

Com a popularização dos módulos DDR2 (e DDR3) e de placas com dual-channel, o barramento com a memória foi ampliado sensivelmente, o que beneficiou as placas onboard. A questão é que as placas offboard evoluíram na mesma proporção, se mantendo muito à frente. Uma GeForce 8800 Ultra possui um barramento de 103.68 GB/s com a memória, enquanto dois módulos DDR2 PC2-6400 em dual-channel oferecem um barramento teórico de 12.8 GB/s (quase 10 vezes menos), que precisam ser compartilhados entre a placa de vídeo onboard, o processador e os demais periféricos.

A principal questão é que nem todo mundo usa o PC para jogos e mesmo entre os que usam, muitos rodam games antigos ou se contentam em rodar os games com resoluções mais baixas e com efeitos desativados. É impressionante o volume de pessoas que ainda jogam Counter Strike e Diablo 2 em pleno ano 2007. :)

Isso cria situações curiosas. O maior fabricante de chipsets de vídeo 3D (em volume) é a Intel, que não fabrica uma única placa offboard desde 1998. Apenas vendendo chipsets com diferentes versões do chipset Intel GMA onboard, eles vendem um número maior de chipsets 3D do que a nVidia e ATI juntas.

Uma solução para o desenvolvimento de placas com vídeo onboard de alto desempenho seria integrar chipsets de vídeo e chips de memória dedicada, solução que poderia oferecer o mesmo desempenho de uma placa offboard baseada no mesmo chipset de vídeo. A questão principal neste caso seria o custo. Mais de 80% do custo de produção de uma placa 3D correspondem justamente ao chipset e módulos de memória. Integrá-los diretamente na placa mãe ofereceria alguma economia de custos relacionada ao aproveitamento de espaço no PCB e compartilhamento de alguns dos circuitos de regulagem de tensão, mas na prática a economia seria pequena demais para justificar a perda da possibilidade de atualizar a placa de vídeo.

Isso fez com que a velha fórmula de usar um chipset de vídeo low-end integrado ao chipset, utilizando memória compartilhada, prevalecesse. De certa forma, isso é bom, pois você pode comprar uma placa mãe com vídeo onboard pagando pouca coisa a mais e instalar uma placa offboard apenas se precisar.

Uma questão interessante é que as placas sem vídeo onboard custam freqüentemente mais caro do que os modelos com. Isso acontece por que as placas sem vídeo onboard são tipicamente placas mini ATX, com 6 ou 7 slots, destinadas ao público entusiasta, enquanto as placas com vídeo onboard são tipicamente modelos micro ATX, com menos slots de expansão, destinadas ao mercado de placas de baixo custo.

Concluindo, temos também a questão dos modems. Embora os modems estejam caindo em desuso, quase todos os chipsets VIA, SiS e nVidia ainda trazem um controlador de modem integrado. Entretanto, ficam faltando os componentes analógicos, que podem ser instalados através de um riser AMR ou CNR.

A maioria dos fabricantes não incluem mais estes slots, já que eles tomam o lugar de um slot PCI ou PCI Express e atualmente, apenas algumas placas da PC-Chips, ECS e Phitronics trazem o "kit completo", com tanto o slot AMR quanto o riser. Como a qualidade dos modems PCI decaiu bastante na última década, com os antigos hardmodems dando lugar a softmodems cada vez mais baratos, muitas vezes o modem onboard oferece uma qualidade até superior.



Processador


Uma questão interessante sobre os processadores é que os preços são definidos de forma a maximizar os lucros do fabricante dentro de cada categoria de preço e não de acordo com a performance relativa.

Em muitos casos, modelos de baixo custo podem ser vendidos com prejuízo, com o objetivo de ganhar volume, ou simplesmente evitar que o concorrente ganhe espaço, enquanto os processadores mais rápidos de cada família são vendidos a preços astronômicos, de forma a maximizar os lucros entre o público que quer o melhor desempenho a qualquer custo.

Outra variável importante é a questão do overclock. Um processador A pode operar a 2.0 GHz, enquanto processador B opera a 2.66 GHz. Naturalmente o processador B é mais caro, mas ambos compartilham a mesma arquitetura, de forma que a frequência que ambos podem atingir na prática é muito similar. Você pode então economizar comprando o processador A e fazer overclock para 2.66 GHz ou mais, obtendo o desempenho do processador B por uma fração do custo. Investindo a diferença em uma placa-mãe e cooler melhores, mais memória e assim por diante, você acaba com um PC de configuração superior gastando o mesmo.

Para quem faz overclock, quase sempre a melhor opção em termos de custo benefício é comprar o processador mais lento dentro da família. Em alguns casos, o segundo modelo pode custar apenas um pouco a mais e suportar frequências um pouco superiores, ou permitir que você obtenha a mesma frequência utilizando um FSB mais baixo na placa mãe (e com isso uma maior estabilidade), de forma que ele pode passar a ser a melhor opção.

O processo de litografia usado na fabricação dos processadores faz com que dois processadores nunca sejam exatamente iguais. Pequenas diferenças no foco das máscaras fazem com que alguns processadores fiquem mais "perfeitos" que os outros, o que faz com que alguns suportem overclocks maiores. Mesmo comparando dois processadores da mesma série e produzidos na mesma época (ou até mesmo dois processadores que compartilharam o mesmo waffer), você perceberá que sempre um deles é capaz de atingir frequências um pouco superiores ao outro. Um bom overclock também depende um pouco da sorte.

Nos primeiros degraus da tabela, os preços crescem de forma mais ou menos proporcional. Entretanto, a partir de um certo ponto a subida se intensifica e você passa a pagar uma diferença cada vez maior por cada degrau a mais de desempenho. Se o processador B custa 50% a mais que o processador A, em troca de um aumento de apenas 10% na frequência, é muito difícil justificar a compra, por mais que você precise de um PC mais rápido.

Um erro comum que as pessoas cometem ao montar o micro é gastar mais para montar "um micro que dure". Isso é uma ilusão, pois qualquer PC que você monte hoje vai estar desatualizado daqui a dois anos. O melhor a fazer é escolher componentes que atendam às suas necessidades mais imediatas, escolhendo componentes que ofereçam possibilidades de upgrade, gastando menos e assim já se preparando para as próximas atualizações.

Aqui temos uma tabela com os preços dos processadores Intel, em Julho de 2007, que podemos usar como exemplo. Os preços aqui no Brasil variam muito de acordo com a loja, por isso estou usando a tabela com os preços oficiais, nos EUA. A idéia é apenas mostrar as proporções, não oferecer um guia de preços:

Celeron 420 (1.6 GHz) $50
Celeron D 352 (3.2 GHz) $57
Celeron 430 (1.8 GHz) $59
Celeron 440 (2.0 GHz) $70
Pentium E2140 (1.6 GHz) $89
Pentium E2160 (1.8 GHz) $96
Core 2 Duo E4300 (1.8 GHz) $117
Core 2 Duo E4400 (1.8 GHz) $139
Core 2 Duo E6300 (1.86 GHz) $164
Pentium D 945 (3.4 GHz) $185
Core 2 Duo E6400 (2.13 GHz) $186
Core 2 Duo E6600 (2.4 GHz) $223
Core 2 Duo E6700 (2.66 GHz) $318
Core 2 Quad Q6600 (2.4 GHz) $480
Core 2 Extreme QX6700 (2.66 GHz) $968
Core 2 Extreme X6800 (2.93 GHz) $975

Olhando a tabela, você poderia se sentir tentado a comprar um Celeron D 352 ou um Pentium D 945, mas isso não seria uma boa idéia pois o desempenho deles é inferior ao do Celeron 430 e do Core 2 Duo E6400, que custam na mesma faixa de preço. Eles seriam mais uma opção de upgrade para quem possui uma placa-mãe soquete 775 antiga, que não é compatível com os processadores da plataforma Core.

Imagine que você se decidiu por um Core 2 Duo E6600, por exemplo. Ele ainda não está na "zona vermelha", onde os preços começam a subir de forma desproporcional, mas também não é um processador barato. Se você puder se contentar com um processador apenas um pouco mais lento, você poderia comprar um Celeron 430 que custa menos de um terço do preço e fazer um overclock modesto para 2.39 GHz (usando bus de 266 MHz ao invés dos 200 MHz padrão), ou mesmo ir mais longe (já que ele pode trabalhar estavelmente a 2.8 GHz ou mais com a ajuda de um bom cooler). Se você faz questão de um processador dual-core, poderia comprar um Pentium E2140 e fazer overclock para 2.4 GHz (usando bus de 300 MHz).

Em ambos os casos, você terá um desempenho um pouco inferior ao do E6600 (o Celeron é single-core e o Pentium E tem menos cache), mas em compensação vai gastar muito menos.

Depois de um ano, os preços tendem a cair em pelo menos 30%, de forma que, mesmo que você optasse por atualizar o processador, acabaria gastando menos do que pagaria inicialmente apenas pelo E6600. O Celeron ou Pentium E usado poderia ser vendido e assim ajudar a financiar o próximo upgrade.

O processador é um bom componentes para se economizar, pois ele pode ser substituído facilmente. O mesmo não se aplica à placa mãe, que é o componente "base" do PC.

Se você vai montar um micro de baixo custo, o melhor é comprar o processador mais barato dentro da arquitetura atual (como o Celeron 420, no caso da plataforma Core) e investir a diferença na placa mãe. Se sobrar um pouco de dinheiro, também compensa investir um pouco mais no cooler.

A placa mãe é o componente mais importante, pois vai ser o que você vai aproveitar ao longo de mais upgrades. O cooler é também um bom lugar para se investir, pois ele permite que você obtenha overclocks maiores, o que ajuda a amenizar a falta de desempenho do processador. O overclock sempre reduz a vida útil do processador, mas isso não é um problema se você tiver planos de trocá-lo depois de um ano, por exemplo.

A memória RAM também influencia diretamente o desempenho do micro, pelo simples fato de que sem memória RAM suficiente o sistema passa a usar memória swap. Por outro lado, a memória é um componente facilmente atualizável, por isso você pode optar por usar um único módulo de 1 GB, por exemplo e deixar para comprar o segundo (para completar 2 GB e ativar o dual-channel) quando tiver dinheiro ou precisar de mais memória. É sempre recomendável usar dois módulos idênticos em dual-channel, mas isso não é uma regra. Dois módulos diferentes podem funcionar perfeitamente, desde que você deixe a placa mãe ajustar a temporização automaticamente ou ajuste os tempos de forma que correspondam aos do módulo mais lento.

Se você está montando um micro para jogos, então a placa 3D passa a ser o ítem mais importante, seguido do processador, memória e HD. Na maioria dos games, o desempenho da placa 3D torna-se um gargalo muito antes do desempenho do processador, de forma que é preferível comprar uma placa 3D mediana e um processador low-end do que o contrário.

Ao usar uma placa 3D offboard, dê uma olhada nas placas mãe sem vídeo onboard. Elas podem custar o mesmo ou até um pouco mais caro que os modelos populares com vídeo, mas com certeza você leva outros recursos em troca do vídeo onboard que não vai usar. As placas baseadas nos chipsets nForce costumam ser boas opções.

Existe uma pequena diferença de preço entre os processadores boxed (ou retail) e os OEM. Antigamente, se especulava sobre diferença de qualidade entre os dois tipos, já que os boxed são destinado à venda direta ao consumidor, enquanto os OEM são destinados a integradores, mas atualmente isso não existe. A vantagem dos boxed (fora a caixa, que você vai jogar no lixo depois de abrir) é que eles vem com o cooler, o que pode justificar a diferença de preço. Entretanto, o cooler é sempre um modelo simples, apenas bom o suficiente para refrigerar o processador à frequência nominal. Se você pretende fazer overclock, prefira comprar um processador OEM e um cooler de melhor qualidade.


Memória


Os módulos de memória podem ser divididos em três categorias: módulos "genéricos", sem marca, módulos de marcas conhecidas, como Kingston, Micron, Corsair, Samsung, etc. e módulos "premium", que oferecem tempos de acesso mais baixo, suportam frequências de clock mais elevadas e/ou possuem dissipadores avantajados, que facilitam o overclock.

De uma forma geral, a diferença de preço entre os módulos genéricos e os módulos das marcas conhecidas é muito pequena, inferior a 10% na grande maioria dos casos, por isso acaba valendo mais à pena evitar os genéricos.

Não que eles sejam necessariamente ruins. Em muitos casos, são usados os mesmos chips usados em módulos de marcas conhecidas, muitas vezes com a mesma qualidade de fabricação e acabamento. O mercado de fabricação de módulos de memória é incrivelmente concorridos, de forma que os fabricantes que produzem produtos inferiores, ou que possuem margens de defeitos acima da média acabam não sobrevivendo muito tempo.

A principal questão é que comprando módulos genéricos a possibilidade de dar o azar de comprar um módulo ruim é maior, já que estamos falando de fabricantes que trabalham com margens de lucro incrivelmente apertadas e se engalfinham por qualquer centavo a menos no preço de venda. Fabricantes conhecidos trabalham com preços um pouco acima da média e por isso podem se dar ao luxo de ter sistemas de controle de qualidade melhor e oferecer garantias maiores.

Os módulos "premium", por sua vez, raramente são uma boa opção de compra, pois a diferença de preço é muito grande, podendo chegar a 100% ou mais em relação a módulos genéricos da mesma capacidade e o pequeno ganho de desempenho não compensa o investimento.

Módulos premium são compostos por compostos por chips escolhidos durante a fase inicial de testes, antes que eles sejam soldados aos módulos. Assim como nos processadores, alguns chips de memória são capazes de operar a frequências mais altas que outros. Isso acontece devido a pequenas diferenças no foco das lentes de litografia. Combinando estes módulos escolhidos a dedo com um controle de qualidade mais rigoroso e dissipadores mais eficientes fazem com que estes módulos realmente se destaquem.

O grande problema é que os fabricantes aproveitam o hype e o limitado volume de produção para os venderem a preços muitos mais altos. Comprar módulos premium é como comprar roupas de grife. A qualidade normalmente é um pouco superior, mas a grande diferença de preço não compensa.
Talvez você se sinta melhor tendo um par de módulos Corsair Dominator ou OCZ Reaper dentro do gabinete e talvez até possa mostrá-los aos amigos, mas se a idéia é melhorar a boa e velha relação custo benefício, então você aproveitaria melhor seu dinheiro investindo em uma placa 3D ou processador um pouco mais rápido, ou em uma placa mãe melhor.

Em seguida temos a questão da frequência e tempos de acesso. Em casos onde o vendedor é bem informado, ele mesmo pode lhe fornecer as informações, caso contrário você acaba sendo obrigado a pesquisar pelo código de identificação decalcado no módulo, ou pelo código de identificação do fabricante.

Nos módulos da Kingston, por exemplo, você encontra um código como "KVR533D2N4/512" na etiqueta de identificação do módulo.
A sigla "KVR" indica a linha de produtos da qual o módulo faz parte, neste caso a "ValueRAM", a linha de módulos de baixo custo da Kingston. Em seguida temos a frequência de operação suportada pelo módulo. No caso do módulo da foto, temos um "533", que indica que ele é um módulo DDR2-533.

Depois do "D2N", que indica que é um módulo DDR2, sem ECC, temos o número que indica o tempo de latência, que no módulo da foto é de 4 tempos. A letra "K" (quando presente) indica que o módulo faz parte de um kit, com duas ou quatro peças, destinado a uso em uma placa dual-channel, enquanto os últimos dígitos indicam a capacidade do módulos, como em "512", "1G", "2G" ou "4G".

Ao comprar, você deve, naturalmente, dar preferência aos módulos com frequência de operação mais alta e tempos de latência mais baixos, desde que isso não implique em um aumento significativo de preço.

Infelizmente, nos módulos de baixo custo as duas coisas andam juntas, de forma que os módulos com frequências mais altas possuem quase sempre tempos de latência também mais altos, já que é mais fácil aumentar a frequência de operação do módulo do que reduzir o tempo "real" de acesso, representado pelo tempo de latência.

A partir dos módulos DDR2, o tempo de acesso tem um impacto mais direto sobre o desempenho do que a frequência de operação. Isso acontece não apenas por que tempos de acesso mais baixos permitem que o processador inicie as leituras em menos ciclos de clock, mas também por que eles tem uma influência direta sobre a taxa de transferência efetiva do módulo.

Em um módulo com CAS 5 e RAS to CAS delay 5, por exemplo, um acesso a um endereço qualquer do módulo demoraria um total de 10 ciclos. Após este ciclo inicial, o controlador pode realizar um bust de mais 7 leituras (8 no total), onde cada uma demora apenas mais meio ciclo. No final os 8 acessos demorariam 13.5 ciclos, 10 dos quais são referentes ao acesso inicial. Em um módulo com CAS e RAS to CAS delay de 4 tempos, o ciclo inicial demoraria apenas 8 ciclos, o que permitiria realizar as 8 leituras em apenas 11.5 ciclos.


HDs


Assim como no caso dos processadores, o custo dos HDs cresce conforme aumenta a capacidade e o desempenho. Em geral, as lojas possuem algum modelo de baixa capacidade, apenas um pouco mais barato que o seguinte (com 50% a mais, ou o dobro da capacidade) destinado a quem simplesmente quer um HD o mais barato possível, sem ligar para a capacidade ou o desempenho; uma série de HDs com capacidades e preços mais ou menos proporcionais e em seguida um ou dois modelos de grande capacidade, que custam muito mais caro.

Nos dois extremos, você pode encontrar um HD de 40 GB de alguma série antiga por R$ 120 e um de 1 TB por R$ 1800 (por exemplo), duas opções obviamente ruins.

Dentro da faixa intermediária, você poderia encontrar um HD de 160 GB por R$ 200, um de 250 GB por R$ 300 e 400 GB por R$ 460, onde o custo por megabyte é parecido e a escolha depende mais dos detalhes de cada modelo e do volume de dados que você precisa armazenar.

Uma dica geral é que é normalmente mais vantajoso comprar um HD que atenda com uma certa folga as suas necessidades imediatas e deixar para comprar um segundo HD daqui a um ano ou dois, quando precisar de mais espaço do que tentar comprar o maior HD possível. Acontece que o preço por megabyte dos HDs costuma cair pela metade a cada 12 ou 18 meses, se forma que você pode comprar (por exemplo) um HD de 250 GB hoje e um HD de 750 GB daqui a um ano pagando menos do que pagaria inicialmente por um único HD de 750 GB. Se você só vai precisar de 750 GB de espaço daqui a um ano, não existe por que pagar por eles agora. Deixe os preços caírem. Lembre-se de que o tempo está a seu favor.

Em seguida temos a questão do desempenho. Não é difícil encontrar benchmarks comparando o desempenho de diversos modelos em diversas aplicações. Um bom lugar para pesquisar sobre as taxas de leitura (e outros índices) de diversos modelos é a tabela do Storage Review, disponível no: http://www.storagereview.com/comparison.html. Outra tabela recomendada é a disponível no TomsHardware: http://www23.tomshardware.com/storage.html.

Um HD mais rápido ajuda sobretudo no carregamento de programas pesados e arquivos grandes e também reduz o tempo de carregamento dos games. O tempo de boot também está diretamente relacionado ao desempenho do HD, mas neste caso o tempo de acesso acaba sendo mais decisivo do que a taxa de leitura sequencial, já que durante o carregamento do sistema são lidos um grande número de arquivos pequenos.

A principal questão sobre o desempenho do HD é que ele nem sempre é tão importante quanto se imagina. Aumentar a quantidade de memória RAM instalada, permitindo que o sistema faça mais cache de disco e reduza o volume de memória virtual usada tem um impacto mais positivo sobre o desempenho do que simplesmente usar um HD mais rápido.

Atualmente, a grande maioria dos HDs destinados ao mercado doméstico são modelos de 7200 RPM. Inicialmente eles eram mais barulhentos, consumiam mais energia e trabalhavam com temperaturas de operação muito mais altas que os de 5400 RPM, o que trazia até mesmo problemas relacionados à durabilidade. Entretanto, com a maturação da tecnologia os HDs de 7200 RPM atuais são muitas vezes mais silenciosos do que os modelos de 5400 RPM e três ou quatro anos atrás. A durabilidade também melhorou, a ponto da Samsung passar a oferecer 3 anos de garantia e a Seagate oferecer 5 anos (nos EUA).

Este da foto, por exemplo, é um Samsung SpinPoint T166, um modelo de 500 GB de 7200 RPM e interface SATA/300. Ele possui 16 MB de buffer, suporte a NCQ, tempo de busca de 8.9 ms e consumo de 7.1 watts quando ocioso e 11.3 watts durante as operações de gravação.
Seu concorrente direto seria o Seagate Barracuda 7200.10, que também é um modelo de 500 GB, com 3 platters, 7200 RPM, interface SATA/300, suporte NCQ e 16 MB de buffer. As especificações mencionam um tempo de busca de 11 ms, consideravelmente mais alto que o do SpinPoint T166, mas nos benchmarks os dois ficam virtualmente empatados, o que mostra que as especificações não contam a história completa. Uma implementação mais eficiente do NCQ pode compensar um tempo de busca mais alto, por exemplo.

Em Julho de 2007, o Barracuda 7200.10 custa US$ 119 nos EUA e o Samsung custa US$ 109, quase 10% mais barato. Entretanto, a Seagate oferece 5 anos de garantia, contra 3 anos da Samsung, o que acaba equilibrando as coisas.

No Brasil o tempo de garantia pode variar por uma série de fatores. Em primeiro lugar, podem existir diferenças na política do fabricante de acordo com o país, baseado em fatores diversos. Em seguida temos a questão da procedência. HDs vendidos legalmente, com a garantia do fabricante, sempre possuem pelo menos um ano de garantia (na maioria dos casos 2 anos ou mais).

Muitas lojas vendem HDs que entram no país de forma irregular, que não podem ser trocados facilmente. Neste caso a própria loja precisa arcar com o prejuízo dos HDs trocados dentro da garantia e naturalmente vai oferecer uma garantia menor, de apenas 3 ou 6 meses, por exemplo.

Outro problema aqui no Brasil é que os preços variam muito de acordo com o fornecedor e você nem sempre encontra o modelo que procura. Muitas vezes você acaba tendo que comprar o modelo B, por que o fornecedor não tinha o modelo A, ou o estava vendendo por um preço mais alto.

Finalmente, temos a questão dos HDs refurbished (remanufaturados) que são um problema mais grave. Assim como no caso de notebooks, palmtops, celulares, placas mãe e outros dispositivos, os fabricantes de HDs são capazes de recuperar grande parte dos HDs trocados dentro do período de garantia. Estes HDs recuperados são vendidos novamente a um preço mais baixo, já que são basicamente componentes defeituosos, muitas vezes já com algum tempo de uso, que foram reparados e agora estão sendo vendidos novamente.

Grande parte dos produtos de informática vendidos no Brasil vem de um pequeno país que faz fronteira com o estado do Paraná, o que não é segredo apara ninguém. Lojas sediadas lá, como a master10.com e navenet.com divulgam as listas de preço nos sites, o que, mesmo que você não pretenda fazer compras no país vizinho, é um material de pesquisa interessante.
É interessante consultar as listas de vez em quando, ver as marcas e modelos com maior oferta de modelos refurbished e evitá-los na hora da compra. Em primeiro lugar, o fato de um determinado produto ter uma grande oferta de unidades remanufaturadas não é um bom sinal, já que significa que estão dando defeito e sendo substituídos em grande quantidade. Em segundo lugar, grande parte dos produtos vendidos no Brasil são provenientes justamente destas lojas, de forma que se elas estão vendendo unidades remanufaturadas de um determinado modelo (e mais barato), significa que são justamente elas que estarão em breve à venda em muitas lojas, com a diferença de que raramente vão lhe avisar de que se trata de uma unidade remanufaturada.

Em muitos casos é possível reconhecer HDs remanufaturados verificando os valores do SMART, já que eles terão contagens mais altas de setores remapeados, erros de leitura, horas de uso e ciclos de inicialização. Entretanto isto nem sempre se aplica, pois muitas vezes os dados do SMART são zerados durante o processo de recuperação.

Todos os HDs atuais oferecem suporte ao S.M.A.R.T. Você pode acompanhar o relatório através de programas como o HDTune (http://www.hdtune.com/) e o SmartExplorer (http://adenix.net/downloads.php), ambos freeware, ou o smartmontools (http://smartmontools.sourceforge.net/), no Linux.

Normalmente os fabricantes incluem indicativos nos HDs remanufaturados. A Seagate utiliza uma etiqueta de identificação específica, onde a borda é verde e é incluída a frase "Certified Repaired HDD" logo abaixo do logo da empresa.
Temos em seguida a questão do RAID. A maioria das placas atuais oferece suporte a RAID nas portas SATA, de forma que você acaba não precisando gastar nada a mais do que o próprio custo dos HDs. Você pode melhorar o desempenho adicionando um segundo HD e criando um sistema RAID 0. O problema é que com isso você reduz a confiabilidade geral, já que a falha de um dos dois HDs faz com que todos os dados sejam perdidos.

Se você não armazena um grande volume de dados, usa o micro só pra jogos por exemplo, a idéia pode ser interessante, já que neste caso o desempenho é mais importante que a confiabilidade. O problema é que neste caso você provavelmente também não vai precisar de muito espaço de armazenamento, de forma que comprar um segundo HD acaba sendo um desperdício. Comprar dois HDs antigos, de baixa capacidade, também não é uma opção tão boa, pois o desempenho "por cabeça" será muito inferior ao de um HD atual, de forma que mesmo juntos, os dois poderão oferecer um desempenho similar, ou até mesmo inferior.

Outro segredo sobre o RAID 0 é que embora a taxa de transferência melhore, já que os dados são espalhados pelos dois HDs e lidos simultaneamente, o tempo de acesso piora, pois além do tempo necessário para realizar a leitura nos dois HDs, temos mais um pequeno tempo perdido pela controladora, que precisa juntar os fragmentos, antes de entregar o arquivo. Isso faz com que o ganho na prática varie muito de acordo com o aplicativos usado, sendo maior em aplicativos privilegiam a taxa de transferência e menor em aplicativos que manipulam arquivos pequenos e dependem predominantemente do tempo de acesso.

Quem trabalha com edição de vídeos e imagens geralmente precisa de muito espaço de armazenamento e um melhor desempenho de acesso a disco também é muito bem vindo. Entretanto, a questão da confiabilidade também é importante, de forma que o RAID 0 não seria uma boa opção. Existe a possibilidade de criar um sistema RAID 10, onde adicionamos mais dois discos que armazenam uma cópia completa dos dados. O problema é que neste caso precisamos de 4 discos ao invés de dois, o que dobra o custo.

Como pode ver, o RAID pode ser interessante em algumas áreas, sobretudo quando você já tem os HDs, mas ele não é uma solução para todos os problemas.
 
Obrigado, e boas compras

30 de mai de 2010

Astronomia

Astronomia
História da astronomia, sistema solar, Teoria do Big Bang, planetas do sistema solar, astrônomos, Via Láctea e corpos celestes, quasares e pulsares, buraco negro, supernovas e telescópio Hubble.

O ser humano sempre buscou compreender o funcionamento do Universo. Desde a Antiguidade, os povos observavam as estrelas, cometas e planetas para tentar desvendar os mistérios do espaço. Em diversas civilizações, por exemplo, muitas estrelas e planetas foram transformados em deuses. Muitas lendas contam a origem destes astros e delegam poderes especiais a eles. Mas foi somente durante o Renascimento Científico ( séculos XV e XVI ) que o homem passou a ter uma visão mais detalhada e significativa do Universo.
Abaixo um breve histórico da evolução dos conhecimentos sobre astronomia.
750 a.C. - Os egípcios começam a utilizar o movimento do sol para contar o tempo. Surgem os primeiros relógios de Sol.
600 a.C. - O pesquisador grego Tales de Mileto calcula e consegue prever a chegada de um eclipse.
350 a.C. - O matemático grego Eudoxo de Cnidos elabora o primeiro mapa astronômico.
240 a.C. - O grego Eratóstenes  faz o primeiro cálculo da circunferência do planeta Terra e chega a conclusão que está distância é de 39.690 km.
140 -  Claudius Ptolomeu, pesquisador grego, elabora o primeiro modelo do universo: a Terra ficaria no centro e os planetas e estrelas girariam em torno dela.
1054 - Na China, observadores de estrelas relatam, pela primeira vez, a morte de uma estrela na constelação de Touro.
1304 - O pintor renascentista italiano Giotto faz uma pintura retratando um cometa.
1472 - O astrônomo alemão  Johann Müller elabora, com detalhes, estudos sobre a órbita de um cometa.
1543 - Nicolau Copérnico, astrônomo polonês, desenvolve estudos provando a teoria do heliocentrismo. De acordo com ela, todos os planetas do sistema solar giram ao redor do Sol. Esta tese é apresentada no livro Sobre a Revolução dos Corpos Celestes. Embora não aceita pela Igreja Católica, a teoria passar ser um referencial nas pesquisas astronômicas, pois derruba a visão de Ptolomeu sobre o Universo.
1610 - O italiano Galileu Galilei desenvolve um instrumento parecido com um telescópio para observar os astros.
1845 - O irlandês William Parsons elabora o maior telescópio de sua época e descobre as primeiras galáxias espirais.
1851 - O físico francês Jean-Bernard-Leon Foucault comprova o movimento de rotação do planeta Terra.

1862 - O físico sueco Anders Jonas Angströn descobre que o Sol contém hidrogênio em sua composição.
1929 - O astrônomo norte-americano Edwin Powell Hubble descobre que as galáxias Teoria do Big Bang, a explosão inicial que deu origem ao Universo.
1963 - O norte-americano Maarten Schmidt faz descobertas sobre os quasares, os astros mais distantes e mais poderosos que existem no universo.
1964 - Os astrônomos Arno Allan Penzias e Robert Woodrow Wilson detectam a luz originária da explosão do Big Bang há 13 bilhões de anos.
1967 - O astrônomo inglês Anthony Hewish consegue captar sinais de rádio do primeiro pulsar, uma espécie de estrela que emite radiação no formato de pulsos regulares.
1971 - O pequisador canadense C.T. Bolt detecta a existência dos buracos negros que concentram a maior quantidade de matéria do Universo.
1975 - O físico inglês Stephen Hawking  conclui que um buraco negro pode evaporar, perdendo nesse processo uma pequena quantidade de massa.
1987 - O astrônomo canadense Ian Shelton consegue a primeira supernova próxima da Terra. As supernovas são explosões de grandes estrelas próximas a morte.
1992 - O telescópio orbital Cobe consegue fotografar, com grande precisão, o brilho do Big Bang.
1999 - Os astrônomos, após observações e imagens do telescópio Hubble, comprovam que o Universo está se expandindo há 13 bilhões de anos, ou seja, desde o momento do Big Bang.
afastam-se uma das outras. É a semente para a
Você sabia?
Dia 2 de dezembro comemora-se o Dia da Astronomia.

3 de mai de 2010

Carregador de eletrônicos usa urina como combustível

Carregador de eletrônicos usa urina como combustível

Equipamento sul-coreano, feito para situações de guerra, é capaz de manter um laptop funcionando por até quatro horas

por Redação Galileu

Editora Globo
Em tempos de guerra, quando todos os itens de subsistência estão escassos, é preciso aproveitar ao máximo tudo o que se têm à mão. Até mesmo (e por que não?) nossa urina. Foi para momentos extremos que os sul-coreanos criaram o MetalCell. Com ele, militares podem carregar seus eletrônicos em lugares remotos com água salgada, ou até xixi se ela também estiver em falta, de acordo com a revista Popular Science.


A pequena caixa usa uma tecnologia milenar. É parecida com a chamada “bateria de Bagdá”, criada nos primeiros séculos depois de Cristo e à qual alguns pesquisadores dão o título de primeiro criador de voltagem. Equipado com placas de magnésio, o MetalCell pode ser carregado com nada mais do que a adição de água salgada. No seu interior, o sódio do sal reage com o magnésio e cria energia de baixa tensão suficiente para ligar um laptop, uma lanterna, óculos de visão noturna ou celulares quando nenhuma outra fonte está disponível. Ele tem capacidade para manter um notebook funcionando por mais de quatro horas e pode ser recarregado até que o magnésio se deteriore.

28 de jan de 2010

iPad de 16 GB custará US$ 499

User-agent: Mediapartners-Google*
Disallow:

Tecnologia pessoal

iPad de 16 GB custará US$ 499



iPad de 16 GB custará US$ 499
Steve Jobs exibe iPad em San Francisco


18 de nov de 2009

nasa lança jogo em que usuário ajudará a explorar Marte

User-agent: Mediapartners-Google*
Disallow:

nasa lança jogo em que usuário ajudará a explorar Marte

Para agência, material sobre o planeta é tão grande que só com a ajuda do público é possível revisá-lo

Tamanho do texto? A A A A
Tela do jogo pelo qual os internautas poderão colaborar na exploração de Marte. (Foto: Divulgação)

NOVA YORK - A agência espacial americana, Nasa, lançou na internet um jogo que permite ao usuário se divertir e ao mesmo tempo ajudar a consolidar o conhecimento sobre Marte, explorando centenas de milhares de imagens enviadas do Planeta Vermelho à Terra ao longo de quase 50 anos. Em um dos jogos, que está online no site Be A Martian - literalmente, "Seja Um Marciano" -, os participantes ganham pontos por ajudar a agência espacial a examinar e organizar as imagens para criar um mapa mais completo do planeta.

Formulário de contato

Nome

E-mail *

Mensagem *

Recent Posts

Total de visualizações de página

Minha lista de blogs

Marcadores

Postagens mais visitadas

+ procurados

Apple anunciou nesta terça-feira que mais de 3 bilhões de downloads Buscas pelo Air France 447 assumem nova estratégia Entidades se unem em Ubatuba para comemorar o Dia do Meio Ambiente Bloqueio de números de telefone Carros do Google Street View chegam a SP e RJ Esqueleto-robô dá força sobre-humana a soldados Bitucas de Cigarro viram Adubo Como fazer um gerador de energia solar Aplicativo de iPhone funciona como antiacne celular descartavel carros híbridos mais eficientes blackberry Melhores aplicativos empresas mais lembradas pelas pessoas Impressora que não precisa de tinta ou papel fixo para fixo gratis 5 minutos e o fim dos shoppings center Lentes de contato de células-tronco curam cegueira com menos de 2 horas no hospital Coisas que você não sabia do seu corpo Como é feito o plástico estes alimentos podem prolongar sua vida MP3 Player Philips Activia mantém ritmo de corrida 1 bilhão de aplicações Hacker ensina a desbloquear o PS3 Windows e processador Atom fazem robô andar iPad de 16 GB custará US$ 499 Lenovo anuncia smartbook com Snapdragon Fumaça Colorida Google lança celular Nexus One Rival Palm do iPhone recebe avaliações positivas Superbot: O Transformer da vida real mande um torpedo gratis Samsung também aposta no Atom N450 melhores celulares do mundo Invenções malucas TeleJogo - O primeiro vide-game Brasileiro MP3 players dirigir com a sua língua: Mimi Switch animais utilizados na guerra Óculos para esqui vêm com câmera de 5 MP embutida Apple anunciou nesta terça-feira que animal deaths FEBRE AMARELA Lista dos Famosos Inventores fatos cientificos Quem inventou o papel grindhouse gueera 1º Video Game do Mundo Charadas Matemáticas O lançador de granadas XM-25 vida sintética até o final de 2010 jãpão já está à venda seu pé é o melhor tenis o smartphone do Google peliculas de guerra exploração Bots SAUDE dicas orange a laranja irritante perguntas mais difíceis de responder Envie torpedos de graça Guia de Herpetofauna Medidas para controlar o mau hálito Nexus One laguerra piramide alimentar (food pyramid) um chupão pode te paralisar Primeiro homem curado da AIDS Sandália de papelão marte água LICENÇA DE PESCA Motorola Xoom Novo Signo Descobertogueera motorola atrix super-8 um chupão po Evite ser traido programas do governo rec6 tatuagens 3D tratamento calvice carteira de motorista gratis tutorial