A Itautec começa a produzir seu primeiro modelo de computador equipado com os novos processadores Core i5 750 e Core i7 870 da Intel (InfoWay ST 4270).
O processador Core i5 750 tem velocidade de 2.66 GHz e apresenta elevada performance devido à nova arquitetura que agiliza o acesso à memória RAM graças a um canal dedicado.
O Infoway ST 4270 traz 4 GB de memória RAM, usando pentes de memória DDR3 de 1333 MHz, além de um HD de 500GB. A placa de vídeo é uma nVidia Geforce GTS250, com 1 GB de memória dedicada. O ST 4270 traz o sistema operacional Microsoft Windows Seven Home Premium, de 64bits. Ainda conta com gravador de DVD e leitor de cartões.
A Itautec já iniciou as vendas do novo equipamento, equipado com processador Core i5 e monitor LCD widescreen de 22 polegadas, com preço sugerido de R$ 3799,00. O ST 4270 tem outra versão, com o processador Core i7 870 de 2,93 GHz e a mesma configuração: HD de 500 GB e 4 GB de RAM, Windows Seven Home Premium 64bits, além de um monitor LCD widescreen de 22 polegadas. O preço sugerido desse modelo é de R$ 3.999,00. O site Itautecshop já tem os modelos disponíveis para venda.
sexta-feira, 30 de outubro de 2009
'Novo Orkut' traz mudanças e retoma sistema de convites
O Google anunciou nesta quinta-feira (29) que o Orkut, a rede social mais popular do Brasil, vai passar por mudanças: o site foi todo redesenhado para trazer recursos mais modernos aos usuários, como interação mais aprimorada com seus amigos e aplicativos. A adesão à novidade será gradual e feita por meio de convites.
O sistema de convites segue um modelo similar ao inicio do site de relacionamentos, quando os internautas só podiam entrar na rede social depois de serem convidados por um amigo.
Segundo o Google, essa mudança não terá impacto na experiência ou nos dados dos usuários: as informações serão todas mantidas nas páginas, e aqueles com a versão antiga do site poderão se comunicar normalmente com os adeptos do novo modelo. A intenção é que todos os usuários tenham migrado para o novo Orkut até metade de 2010.
Mudanças
A nova versão permite uma organização maior das informações de amigos, além de oferecer uma navegação mais rápida. Será mais fácil navegar pelas fotos e vídeos de outros usuários e saber mais facilmente suas atualizações: tanto de humor quanto sobre o que estão fazendo naquele momento, por exemplo.
Um dos destaques é a facilidade para troca de fotos. De acordo com Victor Ribeiro, diretor de produtos do Orkut, cerca de 80 milhões de imagens são publicadas diariamente no Orkut. Será possível importar diversas fotos ao mesmo tempo no site, editar e compartilhar -- funções que, segundo a empresa, ficaram muito mais rápidas. Na nova versão, o usuário poderá criar grupos de compartilhamento de imagens, incluindo também pessoas que não estão na rede social. Enquanto se espera que as imagens sejam enviadas para o site, é possível colocar legendas.
Mais opções para personalizar a página é outra mudança no novo Orkut. Na área “Sobre mim”, será possível mudar cores, adicionar fotos e aplicativos, além de deixar testemunhos aos amigos por meio de vídeos.
As comunidades -- segundo Ribeiro, somam quatro milhões atualizadas diariamente -- também entram no pacote de transformações. Agora, o usuário poderá navegar por elas diretamente de sua página inicial, sem a necessidade de abrir novas telas. Ele também manterá contato com as informações dos amigos tornando a navegação mais rápida e simples.
Ainda, os usuários receberão sugestões de amigos para adicionar à rede. Contatos frequentes com pessoas por meio de serviços do Google, como o Gmail, por exemplo, aparecerão como possíveis amigos a serem adicionados no Orkut.
Para utilizar o novo Orkut, que utiliza tecnologias atuais da internet, o Google recomenda que os usuários tenham as últimas versões dos navegadores instaladas no computador.
Para entrar no novo Orkut
Migrar para o novo Orkut pode ser uma missão difícil. Para utilizá-lo, o usuário deverá receber um convite de um amigo. Entretanto, usuários que o Google considera “viciados” no Orkut, poderão receber um convite a partir desta quinta-feira (29). A empresa monitorou o Orkut para escolher as pessoas, mas não revelou detalhes da seleção.
Um personagem chamado Danilo Miedi foi criado para adicionar pessoas ao novo Orkut. Os ingressos serão sorteados entre os “amigos” do personagem no site de relacionamentos, entre os participantes da comunidade “Quero convite pro novo Orkut”, no twitter do personagem (@danilomiedi) e pelo “Blog do Danilo Miedi”. O sobrenome Miedi é uma brincadeira com o termo “me add”, utilizado pelos usuários do Orkut ao solicitar sua inclusão na rede de um amigo.
Entendendo os SSDs
Os SSDs ou "Solid State Disks" (discos de estado sólido) são possivelmente a maior revolução dentro do ramo dos HDs desde o IBM 350, já que eles utilizam um princípio de armazenamento completamente diferente, com os discos magnéticos dando lugar aos chips de memória Flash:
A vantagem óbvia do SSDs é que eles oferecem tempos de acesso muito baixos, combinados com excelentes taxas de leitura e gravação em setores aleatórios, onde mesmo os melhores HDs magnéticos oferecem apenas alguns poucos MB/s. Isso melhora o desempenho consideravelmente em uma grande gama de aplicativos e reduz bastante o tempo de boot, tornando o sistema muito mais responsível.
Os SSDs também oferecem um consumo elétrico mais baixo (o que os tornam um componente atrativo especialmente para os notebooks), são silenciosos, resistentes a impactos e oferecem uma melhor segurança contra perda de dados devido a defeitos de hardware, já que não possuem partes móveis.
A grande desvantagem por outro lado é o custo por megabyte, já que em vez de combinar 4 discos magnéticos de 500 GB cada um para criar um HD de 2 TB, você precisa juntar 20 chips de memória Flash de 8 GB cada para criar um SSD de apenas 160 GB. Quanto mais gigabytes, mais chips, o que leva os preços dos drives de maior capacidade para as alturas.
Os primeiros SSDs para SSDs para uso doméstico começaram a chegar ao mercado em 2007, mas por serem muito caros (pense em US$ 500 por um SSD de 32 GB) eles receberam pouca atenção. Apenas recentemente (final de 2009) os SSDs começaram a chegar com mais força, liderados pela série X25 da Intel e modelos da Kingston, Corsair, OCZ, Super Talent e outros fabricantes menores, que se especializaram em vender versões OEM de drives da Samsung, Indilinx ou até mesmo da Intel.
Existiram também alguns modelos de baixo custo e baixo desempenho (como os usados no Eee PC 701, 900 e 901), mas eles se comportavam basicamente como um pendrive ligado a um slot Express Mini. Eles ofereciam taxas razoáveis de leitura, mas em compensação ofereciam taxas de escrita incrivelmente baixas para pequenos arquivos. Para ter uma ideia, o SSD Phison de 8 GB usado no Eee 901 é capaz de executar apenas 12 gravações de arquivos de 4 KB por segundo, o que corresponde a apenas 48 KB/s!

A grande maioria dos SSDs domésticos utilizam módulos de memória Flash MLC, assim como nos cartões de memória e pendrives. Entretanto, eles oferecem um diferencial importante, que é o uso de múltiplos canais de acesso. Isso permite que o controlador acesse vários chips simultaneamente, dividindo os arquivos em pequenos blocos que podem ser divididos entre os chips e depois lidos simultaneamente, de maneira muito similar ao que temos em um sistema RAID.
A maioria dos drives atuais utilizam 10 ou 20 chips de memória Flash (o que permite que os fabricantes produzam drives de baixa e alta capacidade usando as mesmas placas) e 10 canais de acesso simultâneo. Um bom exemplo é o Intel X25-M G2, que usa 10 chips na versão de 160 GB e 20 chips na versão de 320 GB (com os mesmos 10 canais de acesso em ambos os casos).
Ao escrever um arquivo de 4 MB, por exemplo, o controlador o dividirá em 10 blocos de 400 KB cada um, que serão escritos simultaneamente em 10 chips diferentes, ocupando um total de 100 páginas de 4 KB em cada um. Ao ler o arquivo posteriormente, a leitura é novamente dividida entre os 10 chips, o que multiplica tanto a taxa de escrita quanto a de leitura, sem que exista penalidade com relação aos tempos de acesso.
Outro ponto importante a favos dos SSDs é o uso de controladores mais inteligentes, que utilizam buffers de dados relativamente grandes. Isso permite que as operações sejam organizadas e agrupadas de maneiras mais eficientes e muitas operações sejam cacheadas.
Em situações em que a controladora dispõe de um volume suficiente de blocos limpos (veja mais detalhes a seguir) um SSD de segunda geração como o Intel X25-M G2 pode atingir facilmente 250 MB/s de taxa de leitura sequencial e 80 MB/s de escrita sequencial (muitos drives atingem os 160 MB/s), se aproximando dos 300 MB/s teóricos do SATA-300.
Entretanto, é na operações de leitura e escrita em setores aleatórios que a diferença se torna mais marcante. Enquanto um HD magnético de 7200 RPM não é capaz de manter mais do que 800 ou 1000 KB/s de escrita ao gravar arquivos de 4 KB em setores aleatórios, um bom SSD é capaz de ultrapassar facilmente os 20 MB/s (o X25-M G2 é capaz de manter de 36 a 40 MB/s de acordo com o volume de requisições simultâneas), o que acaba representando uma diferença muito grande em situações reais de uso.
SSD "novo" e SSD "usado": Diferente dos HDs magnéticos, o desempenho dos SSDs praticamente não é afetado pela fragmentação, já que não faz muita diferença para o controlador se os endereços a serem lidos estão em setores adjacentes ou espalhados pelo disco. Entretanto, particularidades na maneira como os setores são acessados fazem com que em muitas situações o desempenho decaia com o uso, conforme dados são gravados e apagados. À primeira vista, o efeito pode parecer similar à perda de desempenho causada pela fragmentação, mas as razões são completamente diferentes.
Em um HD magnético os dados são gravados em setores de 512 bytes, que podem ser apagados e sobrescritos de maneira independente. Nos SSDs, por outro lado, os endereços são organizados em páginas de 4 KB, que são então agrupadas em blocos de 512 KB:
As páginas funcionam de maneira muito similar aos clusters dos HDs magnéticos. Cada página pode armazenar um arquivo ou fragmento de arquivo. Dois arquivos não podem compartilhar a mesma página, o que faz com que arquivos com menos de 4 KB ocupem uma página inteira, desperdiçando espaço.
Este não chega a ser um grande problema, já que a maioria dos sistemas de arquivos utilizam clusters de 4 KB ou mais de qualquer forma. O grande problema é mesmo a questão dos blocos e das operação de leitura.
Embora o controlador do SSD possa ler as páginas de forma independente, a forma como os endereços são organizados faz com que a menor unidade de gravação sejam os blocos de 512 KB. Isso causa um grande problema ao gravar arquivos pequenos, já que a controladora precisa regravar todo o bloco (512 KB).
Como se não bastasse (desgraça pouca é bobagem…), os blocos na memória Flash não podem ser simplesmente regravados, como em um HD magnético. Sempre que precisa gravar dados em um bloco já ocupado, a controladora precisa ler o conteúdo, executar um comando de limpeza (que apaga todo o conteúdo do bloco) para só então gravar a versão modificada, uma sequência de passos que demora uma verdadeira eternidade.
Para reduzir o número de vezes em que precisa arcar com a penalidade, a controladora procura sempre que possível usar blocos vazios, em vez de regravar o conteúdo de blocos existentes. Nesse caso, um novo bloco é usado para armazenar a versão modificada e a tabela de alocação do sistema de arquivos é atualizada, com a entrada apontando para o novo endereço.
O grande problema com essa abordagem é que ela funciona bem durante as primeiras semanas ou meses de uso, mas a partir do momento em que todos os blocos foram usados pelo menos uma vez, a controladora passa a ser obrigada a voltar e reciclar os blocos anteriormente utilizados, executando todos os passos. Isso leva a um fenômeno curioso, onde o desempenho do drive "novo" é consideravelmente melhor que o do drive "usado", depois de algum tempo de uso Como comentei, o sintoma é similar ao que temos em um HD fragmentado, mas a causa é diferente.
Esse problema afetou toda a primeira geração de SSDs (dos genéricos baseados em controladores da jMicron aos Intel X25), cujo desempenho de escrita caía para menos da metade depois de algum tempo de uso. O problema acabou gerando uma grande repercussão, o que levou os fabricantes a responderem com atualizações de firmware destinadas a remendar o problema, implementando sistemas de "reciclagem", que limpam os setores marcados como vagos enquanto o drive está ocioso, mantendo sempre um determinado volume de blocos vagos.
A solução definitiva veio com o comando TRIM, uma nova função que permite ao sistema operacional agendar a limpeza das páginas cujo conteúdo foi deletado ou movido em vez de simplesmente marcá-las como vagas. Isso faz com que as páginas livres do SSD realmente estejam prontas para receber novos dados, sem depender unicamente de algum sistema de reciclagem executado pela controladora.
O grande problema com o TRIM é que ele é suportado apenas pelo Windows 7 e por versões recentes do kernel Linux, o que deixa de fora usuários do Windows Vista ou Windows XP. No caso deles existem utilitários de otimização oferecidos pelos fabricantes, como o SSD Toolbox da Intel, que permitem executar limpezas manuais.
Naturalmente, o TRIM precisa ser suportado também pelo SSD, o que abre outra margem para problemas, já que apenas os drives produzidos a partir do final de 2009 oferecem suporte a ele. No caso dos drives da Intel, por exemplo, o suporte está disponível apenas a partir do X25-M G2. Se você tem um X25-M da primeira geração, está sem sorte.
Continuando, um dos grandes problemas com as células de memória Flash é a longevidade. Diferente dos platters de um HD, que podem ser regravados alguns milhões de vezes (o desgaste está mais relacionado ao tempo de uso e a danos físicos e não ao número de regravações), as células de memória Flash têm uma vida útil estimada em 100.000 regravações no caso dos chips SLC e apenas 10.000 regravações no caso dos MLC.
Os chips SLC são a tecnologia original de chips de memória flash NAND, onde cada cada célula armazena um único bit, salvo na forma de um impulso elétrico (1 ou 0). As células MLC armazenam dois bits, utilizando 4 níveis de tensão diferentes. O uso do MLC permite produzir chips com o dobro da capacidade sem praticamente nenhum custo adicional, mas por outro lado resulta em chips mais lentos (principalmente nas operações de escrita) e menos duráveis.
Como sempre, a questão do custo acaba falando mais alto, o que faz com que os chips MLC sejam os utilizados em praticamente todos os cartões de memória e pendrives (com exceção de alguns modelos de alto desempenho) e também na esmagadora maioria dos SSDs de baixo e médio custo, o que nos leva ao problema das 10.000 regravações.
Em um cartão de memória ou mesmo em um pendrive, este número não parece tão preocupante, já que mesmo que você enchesse o cartão da sua câmera todos os dias, você demoraria 30 anos para atingir as 10.000 regravações. Em um SSD, por outro lado, a coisa é um pouco mais séria, já que não apenas o volume de operações é muito maior (principalmente se for usada memória swap) mas também a importância dos dados armazenados é muito maior.
Para evitar que algumas áreas (como no caso de áreas usadas como swap) falhem prematuramente, inutilizando o disco, os fabricantes utilizam sistemas de wear leveling (distribuição de uso), que alteram os setores usados cada vez que arquivos são criados ou alterados. Em outras palavras, sempre que o conteúdo de um bloco é modificado, o controlador simplesmente lê os dados, faz a alteração e grava o conteúdo em um novo bloco.
Isso faz com que o bloco anterior seja novamente utilizado apenas depois que todos os outros blocos do SSD forem utilizados pelo menos uma vez. Note que o wear leveling se encaixa bem com os algoritmos para evitar as penalidades de escrita.
Com 10.000 operações de escrita por bloco, um SSD de 80 GB teria uma vida útil estimada em 800 TB de gravações, o que é um número difícil de atingir em situações normais, já que você precisaria gravar 40 GB de dados todos os dias por 60 anos para atingir a marca.
Entretanto, na prática a vida útil é menor devido a um outro fator, o write amplification, que é causado pela questão dos blocos. Enquanto o controlador está gravando grandes arquivos isso não é um problema, já que eles serão quebrados em pedaços de 512 KB e cada um ocupará um bloco inteiro. O grande problema é a gravação de arquivos pequenos, onde existe a possibilidade de ter que apagar e em seguida regravar um bloco inteiro para salvar um arquivo de apenas 4 KB (ou menos).
No pior caso possível o write amplification seria de 128x (gravar um bloco inteiro para alterar uma única página), mas em situações reais ele é estimado em de 20x a 40x (ou seja, para cada 8 GB de dados, a controladora acabaria escrevendo um total de 160 a 320 GB de dados nas células de memória).
Nos drives atuais, porém, o cenário não é tão sombrio, pois graças ao uso de sistemas inteligentes de redução (combinação de escritas e outras técnicas) os controladores são capazes de reduzir bastante este número. A Intel por exemplo promete (embora não garanta) valores de até 1.1x nos SSDs da série X25.
Como são obrigados a levar vários fatores em conta e oferecer uma estimativa mínima do quanto o SSD vai durar, os fabricantes adotam posturas bem mais conservadoras, estimando a vida útil do SSD em de 5 a 10 anos de uso intenso, o que é de qualquer forma bem mais que a média dos HDs magnéticos. As células de memória flash são também capazes de preservar os dados por pelo menos 10 anos sem receberem alimentação elétrica, o que também é uma boa marca.
Os preços: Considerando o brutal custo por gigabyte dos SSDs, não faz muito sentido pensar em utilizá-los para armazenar seus 2 TB de filmes e músicas (a menos que você seja algum milionário excêntrico sem nada melhor para fazer com o dinheiro…) já que você simplesmente gastaria uma fortuna.
O truque para reduzir os custos e maximizar os ganhos é combinar um SSD de baixa capacidade com um ou mais HDs magnéticos de grande capacidade, usando o SSD para armazenar a partição principal (com o sistema operacional, programas e arquivos de trabalho) e usar o HD magnético para os arquivos maiores.
Isso permite que o SSD desempenhe seu papel de oferecer um boot mais rápido e carregamento quase instantâneo dos aplicativos, exibindo seus dotes com leitura de setores não sequenciais, ao mesmo tempo em que o HD magnético tem a oportunidade de demostrar seus talentos com relação à capacidade e leitura de setores sequenciais.
Não demorou para que muitos fabricantes percebessem o nicho, passando a lançar SSDs de baixo custo e baixa capacidade, destinados a serem usados como disco de boot. Um bom exemplo é o Kingston V Series de 40 GB, que é uma versão econômica do Intel X25-M G2, com menos chips de memória Flash (ele usa apenas 5 chips de 8 GB, em vez de 10 chips de 16 GB como no X25-M G2 de 160 GB). Ele foi o primeiro SSD de alto desempenho a ser vendido (nos EUA) abaixo da marca dos US$ 100, o que pode ser considerado um marco.
Com relação aos preços dos SSDs de maior capacidade, não espere nenhuma mudança súbita a curto prazo. A tendência é que os chips de memória Flash continuarão dobrando de capacidade a cada 18 meses, permitindo que os fabricantes ofereçam SSDs com o dobro da capacidade por basicamente o mesmo preço.
As versões iniciais do Intel X25-M, por exemplo, foram lançadas em capacidades de 80 e 160 GB, usando (respectivamente), 10 e 20 chips de 8 GB, produzidos usando uma técnica de 50 nm. A segunda geração (o X25-M G2) é equipada com chips de 16 GB, produzidos usando uma técnica de 34 nm, o que permitiu à Intel dobrar as capacidades e oferecer modelos com 160 e 320 GB.
Eventualmente migrarão para a técnica de 22 nm, o que permitirá equipar os drives com chips de 32 GB, novamente dobrando a capacidade, eventualmente, para a técnica de 15 nm, dobrando mais uma vez. Os preços devem flutuar de acordo com a demanda, mas a tendência geral é que não exista uma grande redução no custo por unidade.
O que deve acontecer é o aparecimento de mais opções de SSDs de baixa capacidade (e menos chips), vendidos por preços mais baixos. Em outras palavras, o HDs magnéticos continuarão entre nós por pelo menos mais uma ou duas décadas, senão mais.
A vantagem óbvia do SSDs é que eles oferecem tempos de acesso muito baixos, combinados com excelentes taxas de leitura e gravação em setores aleatórios, onde mesmo os melhores HDs magnéticos oferecem apenas alguns poucos MB/s. Isso melhora o desempenho consideravelmente em uma grande gama de aplicativos e reduz bastante o tempo de boot, tornando o sistema muito mais responsível.
Os SSDs também oferecem um consumo elétrico mais baixo (o que os tornam um componente atrativo especialmente para os notebooks), são silenciosos, resistentes a impactos e oferecem uma melhor segurança contra perda de dados devido a defeitos de hardware, já que não possuem partes móveis.
A grande desvantagem por outro lado é o custo por megabyte, já que em vez de combinar 4 discos magnéticos de 500 GB cada um para criar um HD de 2 TB, você precisa juntar 20 chips de memória Flash de 8 GB cada para criar um SSD de apenas 160 GB. Quanto mais gigabytes, mais chips, o que leva os preços dos drives de maior capacidade para as alturas.
Os primeiros SSDs para SSDs para uso doméstico começaram a chegar ao mercado em 2007, mas por serem muito caros (pense em US$ 500 por um SSD de 32 GB) eles receberam pouca atenção. Apenas recentemente (final de 2009) os SSDs começaram a chegar com mais força, liderados pela série X25 da Intel e modelos da Kingston, Corsair, OCZ, Super Talent e outros fabricantes menores, que se especializaram em vender versões OEM de drives da Samsung, Indilinx ou até mesmo da Intel.
Existiram também alguns modelos de baixo custo e baixo desempenho (como os usados no Eee PC 701, 900 e 901), mas eles se comportavam basicamente como um pendrive ligado a um slot Express Mini. Eles ofereciam taxas razoáveis de leitura, mas em compensação ofereciam taxas de escrita incrivelmente baixas para pequenos arquivos. Para ter uma ideia, o SSD Phison de 8 GB usado no Eee 901 é capaz de executar apenas 12 gravações de arquivos de 4 KB por segundo, o que corresponde a apenas 48 KB/s!
A grande maioria dos SSDs domésticos utilizam módulos de memória Flash MLC, assim como nos cartões de memória e pendrives. Entretanto, eles oferecem um diferencial importante, que é o uso de múltiplos canais de acesso. Isso permite que o controlador acesse vários chips simultaneamente, dividindo os arquivos em pequenos blocos que podem ser divididos entre os chips e depois lidos simultaneamente, de maneira muito similar ao que temos em um sistema RAID.
A maioria dos drives atuais utilizam 10 ou 20 chips de memória Flash (o que permite que os fabricantes produzam drives de baixa e alta capacidade usando as mesmas placas) e 10 canais de acesso simultâneo. Um bom exemplo é o Intel X25-M G2, que usa 10 chips na versão de 160 GB e 20 chips na versão de 320 GB (com os mesmos 10 canais de acesso em ambos os casos).
Ao escrever um arquivo de 4 MB, por exemplo, o controlador o dividirá em 10 blocos de 400 KB cada um, que serão escritos simultaneamente em 10 chips diferentes, ocupando um total de 100 páginas de 4 KB em cada um. Ao ler o arquivo posteriormente, a leitura é novamente dividida entre os 10 chips, o que multiplica tanto a taxa de escrita quanto a de leitura, sem que exista penalidade com relação aos tempos de acesso.
Outro ponto importante a favos dos SSDs é o uso de controladores mais inteligentes, que utilizam buffers de dados relativamente grandes. Isso permite que as operações sejam organizadas e agrupadas de maneiras mais eficientes e muitas operações sejam cacheadas.
Em situações em que a controladora dispõe de um volume suficiente de blocos limpos (veja mais detalhes a seguir) um SSD de segunda geração como o Intel X25-M G2 pode atingir facilmente 250 MB/s de taxa de leitura sequencial e 80 MB/s de escrita sequencial (muitos drives atingem os 160 MB/s), se aproximando dos 300 MB/s teóricos do SATA-300.
Entretanto, é na operações de leitura e escrita em setores aleatórios que a diferença se torna mais marcante. Enquanto um HD magnético de 7200 RPM não é capaz de manter mais do que 800 ou 1000 KB/s de escrita ao gravar arquivos de 4 KB em setores aleatórios, um bom SSD é capaz de ultrapassar facilmente os 20 MB/s (o X25-M G2 é capaz de manter de 36 a 40 MB/s de acordo com o volume de requisições simultâneas), o que acaba representando uma diferença muito grande em situações reais de uso.
SSD "novo" e SSD "usado": Diferente dos HDs magnéticos, o desempenho dos SSDs praticamente não é afetado pela fragmentação, já que não faz muita diferença para o controlador se os endereços a serem lidos estão em setores adjacentes ou espalhados pelo disco. Entretanto, particularidades na maneira como os setores são acessados fazem com que em muitas situações o desempenho decaia com o uso, conforme dados são gravados e apagados. À primeira vista, o efeito pode parecer similar à perda de desempenho causada pela fragmentação, mas as razões são completamente diferentes.
Em um HD magnético os dados são gravados em setores de 512 bytes, que podem ser apagados e sobrescritos de maneira independente. Nos SSDs, por outro lado, os endereços são organizados em páginas de 4 KB, que são então agrupadas em blocos de 512 KB:
As páginas funcionam de maneira muito similar aos clusters dos HDs magnéticos. Cada página pode armazenar um arquivo ou fragmento de arquivo. Dois arquivos não podem compartilhar a mesma página, o que faz com que arquivos com menos de 4 KB ocupem uma página inteira, desperdiçando espaço.
Este não chega a ser um grande problema, já que a maioria dos sistemas de arquivos utilizam clusters de 4 KB ou mais de qualquer forma. O grande problema é mesmo a questão dos blocos e das operação de leitura.
Embora o controlador do SSD possa ler as páginas de forma independente, a forma como os endereços são organizados faz com que a menor unidade de gravação sejam os blocos de 512 KB. Isso causa um grande problema ao gravar arquivos pequenos, já que a controladora precisa regravar todo o bloco (512 KB).
Como se não bastasse (desgraça pouca é bobagem…), os blocos na memória Flash não podem ser simplesmente regravados, como em um HD magnético. Sempre que precisa gravar dados em um bloco já ocupado, a controladora precisa ler o conteúdo, executar um comando de limpeza (que apaga todo o conteúdo do bloco) para só então gravar a versão modificada, uma sequência de passos que demora uma verdadeira eternidade.
Para reduzir o número de vezes em que precisa arcar com a penalidade, a controladora procura sempre que possível usar blocos vazios, em vez de regravar o conteúdo de blocos existentes. Nesse caso, um novo bloco é usado para armazenar a versão modificada e a tabela de alocação do sistema de arquivos é atualizada, com a entrada apontando para o novo endereço.
O grande problema com essa abordagem é que ela funciona bem durante as primeiras semanas ou meses de uso, mas a partir do momento em que todos os blocos foram usados pelo menos uma vez, a controladora passa a ser obrigada a voltar e reciclar os blocos anteriormente utilizados, executando todos os passos. Isso leva a um fenômeno curioso, onde o desempenho do drive "novo" é consideravelmente melhor que o do drive "usado", depois de algum tempo de uso Como comentei, o sintoma é similar ao que temos em um HD fragmentado, mas a causa é diferente.
Esse problema afetou toda a primeira geração de SSDs (dos genéricos baseados em controladores da jMicron aos Intel X25), cujo desempenho de escrita caía para menos da metade depois de algum tempo de uso. O problema acabou gerando uma grande repercussão, o que levou os fabricantes a responderem com atualizações de firmware destinadas a remendar o problema, implementando sistemas de "reciclagem", que limpam os setores marcados como vagos enquanto o drive está ocioso, mantendo sempre um determinado volume de blocos vagos.
A solução definitiva veio com o comando TRIM, uma nova função que permite ao sistema operacional agendar a limpeza das páginas cujo conteúdo foi deletado ou movido em vez de simplesmente marcá-las como vagas. Isso faz com que as páginas livres do SSD realmente estejam prontas para receber novos dados, sem depender unicamente de algum sistema de reciclagem executado pela controladora.
O grande problema com o TRIM é que ele é suportado apenas pelo Windows 7 e por versões recentes do kernel Linux, o que deixa de fora usuários do Windows Vista ou Windows XP. No caso deles existem utilitários de otimização oferecidos pelos fabricantes, como o SSD Toolbox da Intel, que permitem executar limpezas manuais.
Naturalmente, o TRIM precisa ser suportado também pelo SSD, o que abre outra margem para problemas, já que apenas os drives produzidos a partir do final de 2009 oferecem suporte a ele. No caso dos drives da Intel, por exemplo, o suporte está disponível apenas a partir do X25-M G2. Se você tem um X25-M da primeira geração, está sem sorte.
Continuando, um dos grandes problemas com as células de memória Flash é a longevidade. Diferente dos platters de um HD, que podem ser regravados alguns milhões de vezes (o desgaste está mais relacionado ao tempo de uso e a danos físicos e não ao número de regravações), as células de memória Flash têm uma vida útil estimada em 100.000 regravações no caso dos chips SLC e apenas 10.000 regravações no caso dos MLC.
Os chips SLC são a tecnologia original de chips de memória flash NAND, onde cada cada célula armazena um único bit, salvo na forma de um impulso elétrico (1 ou 0). As células MLC armazenam dois bits, utilizando 4 níveis de tensão diferentes. O uso do MLC permite produzir chips com o dobro da capacidade sem praticamente nenhum custo adicional, mas por outro lado resulta em chips mais lentos (principalmente nas operações de escrita) e menos duráveis.
Como sempre, a questão do custo acaba falando mais alto, o que faz com que os chips MLC sejam os utilizados em praticamente todos os cartões de memória e pendrives (com exceção de alguns modelos de alto desempenho) e também na esmagadora maioria dos SSDs de baixo e médio custo, o que nos leva ao problema das 10.000 regravações.
Em um cartão de memória ou mesmo em um pendrive, este número não parece tão preocupante, já que mesmo que você enchesse o cartão da sua câmera todos os dias, você demoraria 30 anos para atingir as 10.000 regravações. Em um SSD, por outro lado, a coisa é um pouco mais séria, já que não apenas o volume de operações é muito maior (principalmente se for usada memória swap) mas também a importância dos dados armazenados é muito maior.
Para evitar que algumas áreas (como no caso de áreas usadas como swap) falhem prematuramente, inutilizando o disco, os fabricantes utilizam sistemas de wear leveling (distribuição de uso), que alteram os setores usados cada vez que arquivos são criados ou alterados. Em outras palavras, sempre que o conteúdo de um bloco é modificado, o controlador simplesmente lê os dados, faz a alteração e grava o conteúdo em um novo bloco.
Isso faz com que o bloco anterior seja novamente utilizado apenas depois que todos os outros blocos do SSD forem utilizados pelo menos uma vez. Note que o wear leveling se encaixa bem com os algoritmos para evitar as penalidades de escrita.
Com 10.000 operações de escrita por bloco, um SSD de 80 GB teria uma vida útil estimada em 800 TB de gravações, o que é um número difícil de atingir em situações normais, já que você precisaria gravar 40 GB de dados todos os dias por 60 anos para atingir a marca.
Entretanto, na prática a vida útil é menor devido a um outro fator, o write amplification, que é causado pela questão dos blocos. Enquanto o controlador está gravando grandes arquivos isso não é um problema, já que eles serão quebrados em pedaços de 512 KB e cada um ocupará um bloco inteiro. O grande problema é a gravação de arquivos pequenos, onde existe a possibilidade de ter que apagar e em seguida regravar um bloco inteiro para salvar um arquivo de apenas 4 KB (ou menos).
No pior caso possível o write amplification seria de 128x (gravar um bloco inteiro para alterar uma única página), mas em situações reais ele é estimado em de 20x a 40x (ou seja, para cada 8 GB de dados, a controladora acabaria escrevendo um total de 160 a 320 GB de dados nas células de memória).
Nos drives atuais, porém, o cenário não é tão sombrio, pois graças ao uso de sistemas inteligentes de redução (combinação de escritas e outras técnicas) os controladores são capazes de reduzir bastante este número. A Intel por exemplo promete (embora não garanta) valores de até 1.1x nos SSDs da série X25.
Como são obrigados a levar vários fatores em conta e oferecer uma estimativa mínima do quanto o SSD vai durar, os fabricantes adotam posturas bem mais conservadoras, estimando a vida útil do SSD em de 5 a 10 anos de uso intenso, o que é de qualquer forma bem mais que a média dos HDs magnéticos. As células de memória flash são também capazes de preservar os dados por pelo menos 10 anos sem receberem alimentação elétrica, o que também é uma boa marca.
Os preços: Considerando o brutal custo por gigabyte dos SSDs, não faz muito sentido pensar em utilizá-los para armazenar seus 2 TB de filmes e músicas (a menos que você seja algum milionário excêntrico sem nada melhor para fazer com o dinheiro…) já que você simplesmente gastaria uma fortuna.
O truque para reduzir os custos e maximizar os ganhos é combinar um SSD de baixa capacidade com um ou mais HDs magnéticos de grande capacidade, usando o SSD para armazenar a partição principal (com o sistema operacional, programas e arquivos de trabalho) e usar o HD magnético para os arquivos maiores.
Isso permite que o SSD desempenhe seu papel de oferecer um boot mais rápido e carregamento quase instantâneo dos aplicativos, exibindo seus dotes com leitura de setores não sequenciais, ao mesmo tempo em que o HD magnético tem a oportunidade de demostrar seus talentos com relação à capacidade e leitura de setores sequenciais.
Não demorou para que muitos fabricantes percebessem o nicho, passando a lançar SSDs de baixo custo e baixa capacidade, destinados a serem usados como disco de boot. Um bom exemplo é o Kingston V Series de 40 GB, que é uma versão econômica do Intel X25-M G2, com menos chips de memória Flash (ele usa apenas 5 chips de 8 GB, em vez de 10 chips de 16 GB como no X25-M G2 de 160 GB). Ele foi o primeiro SSD de alto desempenho a ser vendido (nos EUA) abaixo da marca dos US$ 100, o que pode ser considerado um marco.
Com relação aos preços dos SSDs de maior capacidade, não espere nenhuma mudança súbita a curto prazo. A tendência é que os chips de memória Flash continuarão dobrando de capacidade a cada 18 meses, permitindo que os fabricantes ofereçam SSDs com o dobro da capacidade por basicamente o mesmo preço.
As versões iniciais do Intel X25-M, por exemplo, foram lançadas em capacidades de 80 e 160 GB, usando (respectivamente), 10 e 20 chips de 8 GB, produzidos usando uma técnica de 50 nm. A segunda geração (o X25-M G2) é equipada com chips de 16 GB, produzidos usando uma técnica de 34 nm, o que permitiu à Intel dobrar as capacidades e oferecer modelos com 160 e 320 GB.
Eventualmente migrarão para a técnica de 22 nm, o que permitirá equipar os drives com chips de 32 GB, novamente dobrando a capacidade, eventualmente, para a técnica de 15 nm, dobrando mais uma vez. Os preços devem flutuar de acordo com a demanda, mas a tendência geral é que não exista uma grande redução no custo por unidade.
O que deve acontecer é o aparecimento de mais opções de SSDs de baixa capacidade (e menos chips), vendidos por preços mais baixos. Em outras palavras, o HDs magnéticos continuarão entre nós por pelo menos mais uma ou duas décadas, senão mais.
domingo, 25 de outubro de 2009
Yakuza 4: imagens do jogo
Com jogos de ação e drama exclusivos do Playstation 3, a Sega se prepara para
bater o mercado mais uma vez. Para animar os jogadores para a mais nova aventura
da série Yakuza, a Sega lançou um novo trailer de estréia na Tokyo Game Show de
setembro deste ano.
"Yakuza 4: Heir to the Legend" será lançado em 2010 exclusivamente para o
PlayStation 3 e terá uma história de profundidade e experiência de jogo que
caracteriza o estilo de vida no subsolo de um membro da Yakuza.
Pra quem pensava que Yakuza 3 parecia notavelmente bom para o PS3, Yakuza 4 deve
levá-lo para o próximo nível. Na verdade, perto do final do trailer de estréia
comparações são mostradas, vozes dos atores, a jogabilidade é quase convincente
o suficiente em algumas cenas para acreditar que o 3D thespians são reais. Sim,
o jogo parece que será bom mesmo.
Além do novo trailer é possível conferir algumas novas imagens capturadas, bem
como, mostrando todos os detalhes do personagem e algumas do jogo em ação.
Esperemos que este jogo possa encontrar o seu caminho sorridente porque é
definitivamente uma dos exclusivos mais refrigerados do PS3.
* Só pra constar que um post já foi feito sobre este jogo em julho, mas não
tinha nenhuma imagem ou vídeo.
bater o mercado mais uma vez. Para animar os jogadores para a mais nova aventura
da série Yakuza, a Sega lançou um novo trailer de estréia na Tokyo Game Show de
setembro deste ano.
"Yakuza 4: Heir to the Legend" será lançado em 2010 exclusivamente para o
PlayStation 3 e terá uma história de profundidade e experiência de jogo que
caracteriza o estilo de vida no subsolo de um membro da Yakuza.
Pra quem pensava que Yakuza 3 parecia notavelmente bom para o PS3, Yakuza 4 deve
levá-lo para o próximo nível. Na verdade, perto do final do trailer de estréia
comparações são mostradas, vozes dos atores, a jogabilidade é quase convincente
o suficiente em algumas cenas para acreditar que o 3D thespians são reais. Sim,
o jogo parece que será bom mesmo.
Além do novo trailer é possível conferir algumas novas imagens capturadas, bem
como, mostrando todos os detalhes do personagem e algumas do jogo em ação.
Esperemos que este jogo possa encontrar o seu caminho sorridente porque é
definitivamente uma dos exclusivos mais refrigerados do PS3.
* Só pra constar que um post já foi feito sobre este jogo em julho, mas não
tinha nenhuma imagem ou vídeo.
Tudo Que Você Deve Saber Sobre o Nintendo WII
O Wii é um console de videogame doméstico produzido pela Nintendo. É um videogame da sétima geração e o quinto console da Nintendo, sucessor do Nintendo GameCube, que foi lançado em 2001 no mercado americano e japonês. Seus principais concorrentes são o Xbox 360, da Microsoft, e o Playstation 3, da Sony. De acordo com o jornal Financial Times, o Wii era o líder de vendas de sua geração em 12 de setembro de 2007, com base nos dados de vendas das empresas Enterbrain, NPD Group e GfK.
O Wii foi anunciado oficialmente na feira anual de jogos E3 de 2005 e lançado no mercado no final de 2006. Antes do anúncio do nome oficial do console, no dia 27 de abril de 2006, era conhecido como Nintendo Revolution. Seu código de modelo é RVL-001 (cuja sigla vem de ReVoLution).
O console destaca-se pelo seu controlador sem fios, o Wii Remote, dotado de um acelerômetro capaz de detectar movimentos em três dimensões. Outra característica do console é o WiiConnect24, que permite receber mensagens e atualizações através da internet durante o modo stand-by.
Em 2007, foi anunciado que o Wii conduziu a Nintendo de volta à condição de líder no mercado de videogames da atual geração, posição que a empresa havia deixado de ocupar há 17 anos.
História
O console era conhecido pelo nome de seu código de modelo "Revolution" até o dia 27 de abril de 2006, antes mesmo de seu anúncio na E3, quando o novo nome oficial, Wii, foi adotado. A mudança foi mencionada na rede de televisão estadunidense CNN. Embora muitos usem o plural do console como "Wiis", a Nintendo afirmou que a forma certa de pronúncia e escrita é "consoles Wii". A forma de como se escreve "Wii", com duas letras "i" minúsculas, se refere a duas pessoas de pé, uma ao lado da outra, que representa jogar em "multiplayer". A Nintendo tem dado diversas razões para esta escolha do nome do console desde o seu anúncio, no entanto, a mais conhecida é a seguinte:
"Wii soa como "nós", em inglês, que enfatiza que o console é para todos. Wii pode ser facilmente lembrado por pessoas ao redor do mundo, não importa o idioma que falam. Sem nenhuma confusão. Não há necessidade de abreviar. Apenas Wii."
Apesar da Nintendo ter justificado a mudança do nome, alguns desenvolvedores de jogos e membros da imprensa reagiram de forma negativamente sobre ela. Preferindo "Revolution" ao invés de "Wii". O presidente da Nintendo das Americas, Reggie Fils-Aime, reconheceu a reação inicial e ainda explicou sobre a mudança:
Revolution não é um nome ideal; é longo, e em algumas culturas, é difícil de se pronunciar. Então nós queríamos algo fosse curto, fácil de se pronunciar, e distintivo. Foi como Wii, o nome do console, foi criado.
Hardware
O Wii é o menor console doméstico fabricado pela Nintendo até os dias de hoje; tendo 44 mm de largura, 157 mm de altura e 215.4 mm de profundidade em sua posição vertical, o equivalente a três capas de DVD empilhadas juntas. Quando o Wii passa a usar o seu suporte de apoio, o que já está incluso com o console, suas medidas se diferenciam para; 55.4 mm de largura, 44 mm de altura e 225.6 de profundidade. O console pesa 1.2 kg, o que o faz ser o mais leve dos três principais videogames da sétima geração.
Na frente do console, ele apresenta o seu slot, onde o jogador pode usar ambos Nintendo optical disc (Disco ótico da Nintendo), podendo ser os jogos de seu antecessor, o Nintendo GameCube (8 cm) e os próprios discos feitos para o Wii (12 cm). A luz azul emitida pelo console é acesa brevemente quando algum disco de jogo está preste a ser jogado, quando uma nova atualização é recebida através do WiiConnect24, ou até mesmo quando o jogador tem alguma mensagem que não foi lida por outro usuário que a mandou. O Wii possui duas entradas para USB, que estão localizadas em sua traseira. Também existe a entrada de usar cartões de memória SD que fica na parte superior do console, o cartão SD pode ser usado para fazer o carregamento de imagens que podem ser modificadas pelo próprio usuário com o Wii Remote no Photo Channel ou ser usado para o backup de dados de jogos do Virtual Console e do WiiWare. Para utilizar a transferência de jogos salvos para o cartão SD, é necessário a instalação de uma atualização, que pode ser feita somente se o Wii estiver conctado à internet ou inserindo um disco a atualização do firmware. O cartão SD também pode ser usado para criar e modificar formatos de tipos de música em seus jogos diretamento do MP3, sua primeira aparição foi no jogo Excite Truck.
A Nintendo revelou que o Wii, o Wii Remote e seus acessórios teriam novas cores, entre eles, preto, prata, verde e vermelho, mas atualmente ele apenas está disponível em branco. Shigeru Miyamoto afirmou que outras cores ficariam disponíveis após a flexibilização das vendas do console.
O pacote de lançamento do Wii é igual para todas as regiões do mundo, nele inclui o próprio console, um suporte de apoio (para que o videogame possa ficar na posição vertical), uma superfície circular para ajustes da preferência de cada jogador, um Wii Remote, um Nunchuk que pode ser plugado ao Wii, uma Sensor Bar, uma principal fonte de alimentação externa, duas pilhas recarregáveis AA, um vídeo composto com conector RCA, um adaptador SCART em alguns países da Europa (outros tipos de cabo para o console estão disponíveis separadamente) e uma cópia do jogo Wii Sports para todos os países, exceto o Japão e a Coreia do Sul.
Em 11 de julho de 2007, a Nintendo revelou o Wii Balance Board na E3 de 2007[6], juntamente com o Wii Fit. Ele trata-se de uma balança de equilíbrio com rede wireless, sendo um acessório para o Wii que contém vários sensores utilizados para medir a pressão que o jogador faz ao ficar em cima da balança.
Na Nintendo Fall Press Conference em outubro de 2008, Satoru Iwata anunciou que os proprietários do Wii terão a opção de download do conteúdo do WiiWare e do Virtual Console diretamente para um cartão SD. Esta opção foi uma alternativa para resolver a memória insuficiente de armazenamento do console. Durante o anúncio teve a afirmação que a opção de download estaria disponível no Japão na primavera de 2009, a atualização permite o uso de cartões SDHC, aumentando o seu limite de 2 GB para 32 GB
Recursos
Wii Menu
O Wii Menu formam coletivamente a interface do menu do Wii, onde contém os Channels do console que o jogador possui. Os seis primeiro Channels, que já estão incluídos ao Wii, são o Disc Channel, Mii Channel, Photo Channel, Wii Shop Channel, Forecast Channel, e News Channel. Os vários Channels foram inspirados na televisão e são indicados graficamente em uma grade, e a sua navegação é feita usando o próprio Wii Remote. A tela pode ser modificada, podendo trocar os Channels de posição conforme as preferências do usuário, exceto o Disc Channel (channel que é feita a leitura do DVD). Isto incluí também os jogos do Virtual Console e do WiiWare, que apenas podem ser usados quando o console está ligado na internet, pois quando é feito o download dos jogos, eles automaticamente viram novos Channels. Para se arrastar e mudar as posição dos Channels deve-se pressionar simultaneamente os botões A e B do Wii Remote.
Quando o Wii do jogador é conectado à Internet, ele ficará disponibilizado de obter e usar novos Channels, como o Internet Channel, Everybody Votes Channel, Check Mii Out Channel, Nintendo Channel, entre outros. Além de poder mandar mensagens para consoles de outros usuários, jogar os jogos que possuem Nintendo Wi-Fi Connection contra jogadores do mundo inteiro e receber atualizações através do WiiConnect24.
Retrocompatibilidade
O Wii é totalmente compatível com todos os jogos de seu antecessor, o Nintendo GameCube, também com o seus Memory Cards e seus quatro controladores. O Wii é totalmente compatível com todos os jogos em Mini DVD de 8 cm do seu antecessor, o Nintendo GameCube, assim como também é possível usar o joystick (controller) e memory card do GameCube nesses jogos. A compatibilidade também é nativa com os controles sem fio do GameCube (WaveBird) e os DK Bongos usados nos jogos Donkey Kong 1, 2 e 3 (sendo esse último lançado somente no Japão) e Donkey Kong Jungle Beat.
Conectividade com Nintendo DS
O sistema do Wii suporta conectividade de rede sem fio (Wireless) com o Nintendo DS sem quaisquer acessórios suplementares. Esta conectividade permite que o usuário possa utilizar a touchscreen (tela sensível ao toque) e o microfone do Nintendo DS mesmo jogando contra um jogador que possui um Wii.
A Nintendo deu o primeiro exemplo de um jogo usando a conectividade do Nintendo DS e o do Wii, sendo que foi Pokémon Battle Revolution. Posteriormente a Nintendo lançou o Nintendo Channel, que permite o download de demostrações de jogos do Wii ou dados adicionais para o Nintendo DS em um processo semelhante ao do DS Download Station que apenas possa ser usado se o console estiver ligado à internet.
Wii Remote
O Wii Remote (também chamado de Wiimote) e antes como "freehand", é o controle e a principal atração do Wii, reside nele todo o discurso da Nintendo sobre a revolução no modo de se jogar. Ele é um controle conectado ao console vía Bluetooth, onde os movimentos são captados e transmitidos pela Sensor Bar (Barra de Sensor) que o jogador faz ao movê-lo, funcionando como uma espécie de "mouse aéreo". Além disso, ele conta com um sistema de vibração (rumble) e um pequeno alto-falante que emite os sons de uma maneira mais simples e próximos do jogador, como o bater de uma espada ou o som de um tiro, que quando acertam seus alvos têm os sons emitidos pela televisão, dando a impressão do movimento do tiro no ambiente. Também é possível desligar o videogame à distância, apertando o botão "Power" em uma das extremidades do controle, sem precisar ir até o console para desligá-lo manualmente.
Para que o usuário não tenha a necessidade de ir até o aparelho para mudar as quantidades de jogadores, existe também a opção de mudá-lo pelo próprio controle. Alguns jogos podem requerer que o controle seja usado horizontalmente, como jogos de corrida em Mario Kart Wii, assim como o controle do Nintendo Entertainment System. O Wii Remote tem a notável importância na estratégia da Nintendo para esta nova geração de videogames. O conceito já abordado da revolução no modo de se jogar, pode ser um fator decisivo na briga da atual geração. No Japão, algumas das marcas de televisão japonesa, já é possível que o Wii Remote possa mudar o volume e os canais.
O controle ainda possui em sua extremidade uma base para que sejam plugados alguns periféricos, entre eles o mais famoso, que é chamado de "Nunchuk", que possui os botões Z e C em formato de gatilho, uma alavanca analógica e conta também com sensores de movimento assim como o do Wii Remote. Ainda existe outros acessórios para serem plugados no Wii Remote, como o Classic controller (que foi feito para se jogar antigos jogos dos consoles da Nintendo), protetores feitos de silicone, para que o controle permaneça conservado e o Wii MotionPlus que foi feito como um dispositivo que conecta-se ao Wii Remote para aumentar a capacidade dos movimentos feitos pelo jogador em tempo real.
Tudo Que Você deve saber sobre um PsP
PlayStation Portable, também conhecido pela sigla PSP, é a versão portátil da consola de videojogos da Sony, da série PlayStation. Seguindo a tendência da família Playstation, a PSP possui outras funções além dos jogos, como leitor de áudio, vídeo e acesso à Internet que graças a rede Wi-Fi podemos tê-la sem fio. Foi lançado em Março de 2005. Em termos de gráficos é superior ao Nintendo DS, seu concorrente direto. Seu gráfico é semelhante ao do PlayStation 2. Outro atrativo da PSP é sua tela widescreen com alta luminosidade e definição.
Mídia
A PSP utiliza como mídia de armanezamento principal o disco UMD (com capacidade de 1.8 GB), podendo utilizar também o Memory Stick Duo (além da versão PRO), ambos formatos proprietários da Sony. O Memory Stick pode ter armazenamento de 32MB, 64MB, 128MB, 256MB, 512MB, 1GB, 2GB, 4GB, 8GB, 16GB, 24GB e já foi anunciado o de 32GB. Existem discos UMD com Filmes, Músicas, e é claro, Jogos.
Botões
- Botões de ação: Triângulo, Círculo, Xiz e Quadrado.
- Botões direcionais: Direcional Digital, Direcional Analógico.
- Botões de ombro: L e R.
- Botões secundários: START, SELECT, HOME,VOL +,VOL -,botão SOM(Só funciona quando tem um fone de ouvido conectado: aperte uma vez e mudará o tom da música entre HEAVY>POPS>JAZZ>UNIQUE>OFF. Aperte por mais de 1 segundo vira botão MUTE independente de fone ou não 0) e botão TELA(aperte uma vez e mudará o brilho da tela, por mais de 1 segundo, apagará a luz da tela e por mais de 5 segundos trocará a tela do PSP pela tela da TV caso tenha o cabo AV insertado (Conponente só no PSP 2000 e 3000.)).
Discos
Os discos do PSP são UMD (Universal Media Disc) e podem armazenar até 1.8GB. São protegidas por um tipo de cápsula de plástico que facilita muito seu armazenamento em qualquer lugar. Nas primeiras versões há relatos de jogos ejetados longe devido à ejeção na horizontal. Nesses casos a capa plástica, por não ser totalmente fechada, permite que a sujeira entre mas não saia, causando prejuízos tanto para os usuários quanto para a empresa, que perde compradores. Nas versões posteriores o erro foi corrigido através de um sistema ejetor menos potente e algumas travas de segurança. Elas podem ser substituídas por outras até mais resistentes que a original. Não há pirataria destes discos, pois não há UMDs-ROM no mercado e é muito mais prático copiá-lo para o Memory Stick e utilizar seu conteúdo através de um homebrew.
Design
O design talvez seja o ponto mais mencionado, e a imagem mais comum que se tem na cabeça quando se fala da PSP. Sem dúvida, o principal atractivo é o ecrã widescreen de 4,3 polegadas, 480x272 pixeis, sem precedentes para as proporções de um videojogo de bolso. Sem falar que o formato 16:9 widescreen estabelece um padrão agradável para o aspecto de jogos e filmes.
Ken Kutaragi, criador da plataforma PlayStation e ex-presidente da Sony Computer Entertainment, classifica a PSP como "a coisa mais bonita do mundo".
A frente da PSP é toda coberta por acrílico, que dá um aspecto bastante sofisticado, pelo menos enquanto não é coberto pelas impressões digitais e manchas de gordura dos dedos – algo inevitável e que aparece no primeiro contacto com as mãos. A parte de trás é de plástico, com o logo PSP circundado por um anel metálico.
Ecrã/Tela
4.3 polegadas, no formato 20:9, resolução de vídeo de 480 por 272 pixels e 20.9 milhões de cores, Widescreen TFT LCD de matriz activa. Sua tela é bem maior que a de qualquer outro video-game portátil.
Conexões
Possui interface Wi-Fi que permite conexões ad-hoc e infraestrutura, permitindo a utilização de jogos multiplayer e acesso à Internet, utilizando um browser já integrado, USB 2.0, infravermelhos (somente PSP 1000) e Bluetooth (somente PSP Go)
Utilidades
Além de jogos, a PSP reproduz filmes Mpeg-4, aplicações em Flash, MP3, WMA (Somente depois de activado, o que requer uma conexão à Internet) e fotos (JPEG) no UMD ou no Memory Stick Duo e também pode aceder à Internet através de Wi-Fi. Pode também utilizar-se como controlador de jogos e ecrã secundário para a PlayStation 3, como por exemplo, servindo de espelho retrovisor em jogos de corrida. É também possível obter jogos da Playstation PS one através da PlayStation Store e jogá-los no console portátil.
Reproduz TV através de um aparelho ou tecnologia da Sony chamado Location Free™ e vira maquina digital através da camera para PSP da Sony que é acoplado na entrada USB. Estão introduzindo também a Máquina virtual Java. Existe também o Go!Explore, um receptor de GPS que transforma a PSP num sistema de navegação com mapas e ruas, mas que ainda só foi lançado no Japão e na Europa.
Em agosto de 2008, foi anunciada a versão 3000 do console que, entre outras coisas, adicionará um microfone, bem como tela anti-reflexo e uma maior gama de cores. Seu lançamento está previsto para outubro de 2008.
Também é possível a utilização de softwares de terceiros (homebrews), estes sendo executados somente nos consoles destravados (onde foram alterados Firmware, bateria ou outro componente) para rodar aplicações diretamente do MemoryStick. A Sony condena o desbloqueio do PSP, mas a grande maioria dos usuários desbloqueia seus consoles para obter mais recursos, aumentando ainda mais a funcionalidade do portátil.
TOP 20
God of War: Chains of Olympus
Syphon Filter: Dark Mirror
Locoroco 2
Tomb Raider: Underworld
Lumines
Naruto Shippuuden Narutimate Accel 3
Crisis Core: Final Fantasy VII
Grand Theft Auto: Chinatown Wars
Tekken: Dark Resurrection
Monster Hunter Fredom Unite
Final Fantasy Tactics: The War of The Lions
Disgaea: Afternoon of Darkness
Metal Gear Solid: Peace Walker
Need For Speed: Shift
Resistance Retribution
Dirt 2
Wipeout: Pure
Gran Turismo
Assassin's Creed: Bloodlines
E diversos do Yu-Gi-Oh!
E entre outros diversos Títulos.
quarta-feira, 21 de outubro de 2009
BenQ lança mini projetorJoybee GP1 com tecnologia 3LED que cabe na palma da mão
Ultra-compacto (com 136x 54x 120 mm) e pesando apenas 640 gramas, o Joybee mini projetor GP1 é a novidade da BenQ – uma das cinco maiores fabricantes mundiais de monitores LCDs e projetores digitais.
Além do seu design moderno, o Joybee GP1 dispensa o uso do computador porque permite a reprodução diretamente da USB em telas desde 15” até 80 polegadas. Sua emissão de ruídos é de 28 dB, o brilho 100 ANSI Lumens, contraste 2.000:1.
“Duas das grandes vantagens desse projetor são a mobilidade e o uso da tecnologia 3LED que resulta em mais de 20 mil horas de vida útil, enquanto a lâmpada dos projetores tradicionais dura entre 3 e 4 mil horas”, explica Marcelo Café, diretor de vendas e marketing da BenQ Brasil.
Por meio do controle remoto do Joybee GP1 o usuário manipula facilmente todos os recursos, incluindo a conexão com consoles para videogame, câmera digital, DVD, HDTV, câmeras de vídeo e TV. “A reprodução também pode ser feita diretamente de uma pen drive por meio da entrada USB, permitindo a reprodução sem o uso do PC”, ressalta Café.
O Joybee mini projetor GP1 custa a partir de R$ 2.499. Esse equipamento e toda a linha de produtos BenQ estão disponíveis no Brasil e podem ser encontrados em revendas de informática, de áudio e vídeo.
Uncharted 2: Mastering the Cell
Uncharted 2: Among Thieves, da Naugthy Dog, é um jogo que continua a dar. Em adição ao jogo em si, existem bastantes conteúdos bonus no disco que também merecem ser vistos. No meio de vários extras existem oito mini-documentários que mostram os bastidores que se concentram nos programadores e no seu trabalho. Um dos que mais gostámos chama-se "Mastering the Cell", um olhar intrigante sob a forma como a Naughty Dog criou aquele que certamente é um novo patamar tecnológico a alcançar.
O documentário é interessante em vários aspectos, e não muito tarde aparece uma das filosofias chave da tecnologia da Naughty Dog que consistem em retirar o maior número de tarefas possível do GPU e envia-las para os processadores SPU do Cell. No caso de Uncharted 2, técnicas de processamento posterior como o efeito fenomenal de depth-of-field (muito possivelmente o melhor que já se viu num console até à data) é enviado para o SPU. É uma forma interessante de usar os recursos. Provavelmente o GPU conseguia realizar esta tarefa bem mais rapidamente, mas se o RSX está ocupado numa tarefa mais exigente, faz bastante sentido que se uso o SPU para fazer o mesmo trabalho.
É um pouco frustrante ter uma visão algo curta e escondida das ferramentas de desempenho em acção, mas por volta do segundo 23 do vídeo, é possível observar no ecrã que os cinco SPU estão a ser usados ao máximo: uma proeza de tarefas paralelas impressionante.
Não, o jogo não ficou estragado! Aquelas barras coloridas no ecrã representam o uso de diferentes aspectos no hardware da PS3. Provavelmente as barras são coloridas de acordo com a tarefa que estão a realizar em determinada altura.
Outros pedaços de informação que aprendemos deste vídeo: primeiro, o jogo parece conseguir algo como 1.2 milhões de triângulos por frame, cerca de 40 milhões por segundo. Segundo, alguma da informação mostrada no ecrã é literalmente esclarecedora - o mapeamento de sombras e os elementos de iluminação translúcida indicam que existem efeitos alpha transparentes, como fumo e neblina na atmosfera, podem ser afectados pela iluminação actual.
Algo também merecedor de comentário é algo que não é imediatamente óbvio, mas tecnicamente bastante inteligente, é o procedimento da animação. Os movimentos de Drake são tão suaves graças ao facto de que o jogo pega nas animações pré-definidas e usa o SPU para calcular um movimento intermédio para facilmente criar uma transição entre duas animações sem que tenha de esperar que a animação anterior tenha de terminar - isto significa que a resposta de Drake aos controlos é bem mais rápida.
O resultado é que Drake move-se mais realisticamente, e os animadores não precisam de determinar todo e qualquer movimento possível. O que gostaríamos realmente de ver era como esta tecnologia podia chegar a outro nível de forma a trazer alguma inovação ao género de luta em 3D algo moribundo. [Tsk, tu e o teu género de luta em 3D moribundo. - Ed]
Novo modo para "God Of War III" chamado Challenge Rooms
Em entrevista ao site GamePro, o diretor de "God of War III", Stig Asmussen, disse que planeja lançar conteúdo por download para o título. O designer afirmou que "faz muito sentido" lançar por download novas Challenge Rooms para "God of War III", jogo de ação e combate exclusivo para PlayStation 3.
As Challenge Rooms são um conjunto de desafios para serem vencidos pelo jogador, a fim de aumentar a durabilidade da campanha single player. A idéia, segundo o diretor, é de já apresentar algumas delas no próprio disco, enquanto outras serão adicionadas por download no futuro.
Em "God of War III", o jogador controla o bravo guerreiro Kratos em um conflito épico contra os deuses do Olimpo e outros oponentes. O game traz uma série de melhorias como o aumento na quantidade de inimigos na tela (aumentando de 15 para 50 por vez), a contagem de polígonos de Kratos (quadruplicando de cinco mil para 20 mil) e a variedade no visual do estilo de inimigo (como equipamentos diferentes em inimigos da mesma espécie.
O lançamento de "God of War III" é esperado para março de 2010.

As Challenge Rooms são um conjunto de desafios para serem vencidos pelo jogador, a fim de aumentar a durabilidade da campanha single player. A idéia, segundo o diretor, é de já apresentar algumas delas no próprio disco, enquanto outras serão adicionadas por download no futuro.
Em "God of War III", o jogador controla o bravo guerreiro Kratos em um conflito épico contra os deuses do Olimpo e outros oponentes. O game traz uma série de melhorias como o aumento na quantidade de inimigos na tela (aumentando de 15 para 50 por vez), a contagem de polígonos de Kratos (quadruplicando de cinco mil para 20 mil) e a variedade no visual do estilo de inimigo (como equipamentos diferentes em inimigos da mesma espécie.
O lançamento de "God of War III" é esperado para março de 2010.
Final Fantasy Versus XIII em novos detalhes
Na mesma entrevista onde falou sobre Final Fantasy XIII, Tetsuya Nomura abordou o
seu Final Fantasy Versus XIII e revelou alguns novos detalhes.
Segundo Nomura explica, a experiência jogável de Final Fantasy Versus XIII vai ser
uma extensão de Kingdom Hearts, mas misturada com "novidade" e "um sentimento de
nostalgia" de Final Fantasy.
A equipa está a dar particular ênfase ao design do jogo e vai haver uma espécie de
sistema de parceiros, com os personagens a moverem-se de forma independente uns
dos outros, mas sempre ligados.

Quanto ao que os fãs mais esperam, finalmente ver imagens e vídeos do jogo
propriamente dito, Nomura revela que antes da E3 não vamos poder ver nada.
seu Final Fantasy Versus XIII e revelou alguns novos detalhes.
Segundo Nomura explica, a experiência jogável de Final Fantasy Versus XIII vai ser
uma extensão de Kingdom Hearts, mas misturada com "novidade" e "um sentimento de
nostalgia" de Final Fantasy.
A equipa está a dar particular ênfase ao design do jogo e vai haver uma espécie de
sistema de parceiros, com os personagens a moverem-se de forma independente uns
dos outros, mas sempre ligados.
Quanto ao que os fãs mais esperam, finalmente ver imagens e vídeos do jogo
propriamente dito, Nomura revela que antes da E3 não vamos poder ver nada.
Bayonetta: Nota máxima é confirmada, mas só para versão Xbox 360
O que parece ser a primeira vez na história da conceituada revista Famitsu, um
game recebeu duas notas diferentes na mesma edição. Foi o que aconteceu com
Bayonetta, o título de ação da Platinum Games distribuído pela Sega.
A versão Xbox 360, de fato, ganhou nota máxima dos quatro redatores, totalizando
40/40. No entanto, a versão PlayStation 3, apesar do dendo de platina, ganhou
38/40, com dois redatores dando nota 9. Normalmente, a revista dá a mesma nota
para os jogos similares em duas ou mais plataformas, desde que as versões tenham
diferenças sutis.
No caso de Bayonetta, parece que a disparidade nas notas foi causada por uma
visível diferença entre ambas as versões. Recentemente, Tatsuya Minami, Presidente
e CEO da PlatinumGames Inc., admitiu no blog oficial da empresa que a versão
PlayStation 3 de Bayonetta não estava sendo produzida internamente. Todo o
material construído no Xbox 360 foi enviado para a Sega, que ficou responsável
pela conversão.
A questão foi levantada após algumas apresentações recentes em eventos - como a
Tokyo Game Show - onde testes apontaram imperfeições visuais, slow downs e queda
de frame rate no PS3, bem diferente do Xbox 360 que rodava com perfeição.
Bayonetta apresenta o tema "ação clímax", onde o jogador controlará a bruxa
titular e enfrentará anjos usando artes marciais e armas equipadas -- tanto em
seus pés quanto em suas mãos. Além disto, ela usa poderes mágicos para detonar os
inimigos, seja modificando sua roupa (na verdade, seu cabelo) para efeitos
diversos. O título está previsto para 29 de outubro no Japão e janeiro de 2010 nos
EUA.
game recebeu duas notas diferentes na mesma edição. Foi o que aconteceu com
Bayonetta, o título de ação da Platinum Games distribuído pela Sega.
A versão Xbox 360, de fato, ganhou nota máxima dos quatro redatores, totalizando
40/40. No entanto, a versão PlayStation 3, apesar do dendo de platina, ganhou
38/40, com dois redatores dando nota 9. Normalmente, a revista dá a mesma nota
para os jogos similares em duas ou mais plataformas, desde que as versões tenham
diferenças sutis.
No caso de Bayonetta, parece que a disparidade nas notas foi causada por uma
visível diferença entre ambas as versões. Recentemente, Tatsuya Minami, Presidente
e CEO da PlatinumGames Inc., admitiu no blog oficial da empresa que a versão
PlayStation 3 de Bayonetta não estava sendo produzida internamente. Todo o
material construído no Xbox 360 foi enviado para a Sega, que ficou responsável
pela conversão.
A questão foi levantada após algumas apresentações recentes em eventos - como a
Tokyo Game Show - onde testes apontaram imperfeições visuais, slow downs e queda
de frame rate no PS3, bem diferente do Xbox 360 que rodava com perfeição.
Bayonetta apresenta o tema "ação clímax", onde o jogador controlará a bruxa
titular e enfrentará anjos usando artes marciais e armas equipadas -- tanto em
seus pés quanto em suas mãos. Além disto, ela usa poderes mágicos para detonar os
inimigos, seja modificando sua roupa (na verdade, seu cabelo) para efeitos
diversos. O título está previsto para 29 de outubro no Japão e janeiro de 2010 nos
EUA.
Blogueiros viram deuses, mas, será mesmo que eles têm algo para oferecer?
Muitos de nós já percebemos que os blogueiros andam ganhando importância com o passar do tempo. De fato, alguns (poucos) têm muito a dizer e até nos ensinar como é o caso do blog do Velho (ovelho.com). Este, por sinal, acompanho há algum tempo. Porém, é fato que a grande maioria oferece, além de links para baixar versões completas de produtos (leia-se pirataria), nada além de noticias e links copiados de grandes portais. Alguns vão ainda mais fundo na idiotice e buscam links de vídeos inúteis do Youtube. Ok, concordo que dar risada de vez enquanto é bom... Seja como for, algo que me deixe perplexo é o fato de que estes mesmos blogueiros sem conteúdo estão ganhando espaço na mídia por simplesmente apresentarem um volume considerável de visitações. Grandes empresas como a Microsoft, por exemplo, preferiu mandar seu novo sistema operacional, Windows 7 à eles ao invés de envia-lo para a mídia especializada. O resultado desta “aventura” são vídeos bizarros como o que segue abaixo. Preste atenção na “profundidade” do teste feito pelo sujeito. Repare também que ele faz parte do “seleto time” escolhido a dedo (não sei qual) da Microsoft.
O mais bizarro desta situação de “endeusamento” dos blogueiros é que estes receberam cópias autografadas para distribuir aos seus “visitantes”. Até o ponto de estarem com caixas assinadas pelo Mr. Microsoft, convenhamos que não acrescenta nada na vida de ninguém, mas, o que causa espanto é que, enquanto muitos veículos de imprensa reclamam de não terem recebido, se quer, uma cópia, os “queridinhos dos departamentos de marketing” as tem em “pencas” para repassar aos seus amiguinhos.
Em um bate papo com um amigo que trabalha para a Microsoft, acabei percebendo que o objetivo desta operação é um pouco mais audacioso do que parece. Longe de querer criar teorias conspiradoras, mas, pelo menos para mim, ficou subentendido que para a Microsoft é importante que pessoas sem gabarito técnico avaliem seu produto, pois, desta forma, ele (o sistema operacional) se tornará bastante popular. Por outro lado, se este tivesse sido enviado para testes nas mãos de especialistas, o resultado poderia ser um pouco menos “interessante”.
Além da Microsoft, outro caso me chamou atenção e merece aquele momento “reflexão”. Na semana passada, a agência de comunicação responsável pela conta da EA no Brasil (leia-se a maior publicadora de games do planeta) resolveu convocar também alguns “analistas especializados” (leia-se, mais uma vez, blogueiros) para realizarem os testes do novo Need for Speed. A “brincadeira” teve direito a uma corrida de kart em uma das melhores pistas de São Paulo. Repare na “carinha de felicidade” dos pseudo-críticos.
Fonte: Máquina Comunicação Corporativa Integrada
Fonte: Máquina Comunicação Corporativa Integrada
Depois de olhar para o rosto de cada um, tente imaginar a profundidade da análise...
http://www.ingameaddiction.com/2009/09/need-for-speed-shift-o-game.html
Longe de querer deixar a impressão de uma “dor de cotovelo”, mas, pare e pense comigo: será que ninguém reparou que os mesmos “deuses” da Internet são responsáveis pela proliferação da pirataria? Quem aqui não conhece um blog que exiba links para download de material ilegal? A grande maioria destes endereços só apresenta isso, não é mesmo? Não seria mais correto que tanto a Microsoft quanto a EA estivessem preocupadas na preservação dos seus direitos autorais e no combate a pirataria? Bem, cada um tem o direito de pensar o que quiser, pra mim, tudo isso só leva a um lugar: hoje em dia mais vale quantidade do que qualidade.... Para muitos “gênios do marketing”, mais vale um milhão de ignorantes do que uma centena de audiência qualificada...
O mais bizarro desta situação de “endeusamento” dos blogueiros é que estes receberam cópias autografadas para distribuir aos seus “visitantes”. Até o ponto de estarem com caixas assinadas pelo Mr. Microsoft, convenhamos que não acrescenta nada na vida de ninguém, mas, o que causa espanto é que, enquanto muitos veículos de imprensa reclamam de não terem recebido, se quer, uma cópia, os “queridinhos dos departamentos de marketing” as tem em “pencas” para repassar aos seus amiguinhos.
Em um bate papo com um amigo que trabalha para a Microsoft, acabei percebendo que o objetivo desta operação é um pouco mais audacioso do que parece. Longe de querer criar teorias conspiradoras, mas, pelo menos para mim, ficou subentendido que para a Microsoft é importante que pessoas sem gabarito técnico avaliem seu produto, pois, desta forma, ele (o sistema operacional) se tornará bastante popular. Por outro lado, se este tivesse sido enviado para testes nas mãos de especialistas, o resultado poderia ser um pouco menos “interessante”.
Além da Microsoft, outro caso me chamou atenção e merece aquele momento “reflexão”. Na semana passada, a agência de comunicação responsável pela conta da EA no Brasil (leia-se a maior publicadora de games do planeta) resolveu convocar também alguns “analistas especializados” (leia-se, mais uma vez, blogueiros) para realizarem os testes do novo Need for Speed. A “brincadeira” teve direito a uma corrida de kart em uma das melhores pistas de São Paulo. Repare na “carinha de felicidade” dos pseudo-críticos.
Fonte: Máquina Comunicação Corporativa Integrada
Fonte: Máquina Comunicação Corporativa Integrada
Depois de olhar para o rosto de cada um, tente imaginar a profundidade da análise...
http://www.ingameaddiction.com/2009/09/need-for-speed-shift-o-game.html
Longe de querer deixar a impressão de uma “dor de cotovelo”, mas, pare e pense comigo: será que ninguém reparou que os mesmos “deuses” da Internet são responsáveis pela proliferação da pirataria? Quem aqui não conhece um blog que exiba links para download de material ilegal? A grande maioria destes endereços só apresenta isso, não é mesmo? Não seria mais correto que tanto a Microsoft quanto a EA estivessem preocupadas na preservação dos seus direitos autorais e no combate a pirataria? Bem, cada um tem o direito de pensar o que quiser, pra mim, tudo isso só leva a um lugar: hoje em dia mais vale quantidade do que qualidade.... Para muitos “gênios do marketing”, mais vale um milhão de ignorantes do que uma centena de audiência qualificada...
terça-feira, 6 de outubro de 2009
segunda-feira, 5 de outubro de 2009
Lançamentos da Semana
Com a chegada do Dia das Crianças aqui no Brasil e a proximidade do início do forte período de vendas em território norte-americano por ocasião do Dia de Ação de Graças no fim de outubro, a semana já apresenta uma ampla variedade de lançamentos para todas as principais plataformas.
O título mais forte da semana é "Star Wars: Clone Wars Republic Heroes", que chega com versões para vários consoles atuais e promete ação e belos gráficos baseados em desenho animado tridimensional da saga criada pelo cineasta George Lucas. Cada edição conta com características únicas, como o Wii, que utiliza o sensor de movimentos do controle Wii Remote para executar os golpes de sabre de luz.
O Wii marca forte presença com dosi promissores títulos exclusivos: "A Boy and his Blob", ação com quebra-cabeças e visual que lembra desenho animado, e "Wii Fit Plus", nova versão do programa com minigames que usam a balaça Wii Balance Boards e ajudam a se manter saudável.
No PlayStation 3, as novidades exclusivas são o belo "Afrika", simulador de safári, e "Demon's Soul", RPG de ação com fortes elementos online. Como atração multiplataforma temos o lançamento de "SAW - Jogos Mortais", inspirado na série de filmes de horror.
Confira a lista completa dos jogos que serão lançados nos EUA nos próximos dias:
DS
. A Witch's Tale
. Imagine: Zookeeper
. The Biggest Loser
. Spore Hero Arena
. Squeeballs Party
. Star Wars The Clone Wars: Republic Heroes
Wii
. A Boy and His Blob
. Disney Sing It: Pop Hits
. Game Party 3
. Shimano Xtreme Fishing
. Spore Hero
. Squeeballs Party
. Star Wars The Clone Wars: Republic Heroes
. The Biggest Loser
. Wii Fit Plus
PC
. Cabela's Outdoor Adventure
. FATE: Traitor Soul
. Fatale
. Cities XL
. Lucidity
. Operation Flashpoint: Dragon Rising
. Star Wars The Clone Wars: Republic Heroes
. The Sims 2: Best of Business Collection
PlayStation 2
. Disney Sing It: Pop Hits
. MotorStorm: Arctic Edge
. NBA 2K10
. Star Wars The Clone Wars: Republic Heroes
PlayStation 3
. Afrika
. Demon's Souls
. Disney Sing It: Pop Hits
. NBA 2K10
. NBA Live 10
. Operation Flashpoint: Dragon Rising
. SAW - Jogos Mortais
. Star Wars The Clone Wars: Republic Heroes
PSP
. Naruto Shippuden Legends: Akatsuki Ring
. NBA 10: The Inside
. NBA 2K10
. NBA Live 10
. Obscure: The Aftermath
. Star Wars The Clone Wars: Republic Heroes
Xbox 360
. NBA 2K10
. NBA Live 10
. Operation Flashpoint: Dragon Rising
. SAW - Jogos Mortais
. Star Wars The Clone Wars: Republic Heroes
As datas de lançamento dos jogos citados acima estão sujeitas à alteração.
O título mais forte da semana é "Star Wars: Clone Wars Republic Heroes", que chega com versões para vários consoles atuais e promete ação e belos gráficos baseados em desenho animado tridimensional da saga criada pelo cineasta George Lucas. Cada edição conta com características únicas, como o Wii, que utiliza o sensor de movimentos do controle Wii Remote para executar os golpes de sabre de luz.
O Wii marca forte presença com dosi promissores títulos exclusivos: "A Boy and his Blob", ação com quebra-cabeças e visual que lembra desenho animado, e "Wii Fit Plus", nova versão do programa com minigames que usam a balaça Wii Balance Boards e ajudam a se manter saudável.
No PlayStation 3, as novidades exclusivas são o belo "Afrika", simulador de safári, e "Demon's Soul", RPG de ação com fortes elementos online. Como atração multiplataforma temos o lançamento de "SAW - Jogos Mortais", inspirado na série de filmes de horror.
Confira a lista completa dos jogos que serão lançados nos EUA nos próximos dias:
DS
. A Witch's Tale
. Imagine: Zookeeper
. The Biggest Loser
. Spore Hero Arena
. Squeeballs Party
. Star Wars The Clone Wars: Republic Heroes
Wii
. A Boy and His Blob
. Disney Sing It: Pop Hits
. Game Party 3
. Shimano Xtreme Fishing
. Spore Hero
. Squeeballs Party
. Star Wars The Clone Wars: Republic Heroes
. The Biggest Loser
. Wii Fit Plus
PC
. Cabela's Outdoor Adventure
. FATE: Traitor Soul
. Fatale
. Cities XL
. Lucidity
. Operation Flashpoint: Dragon Rising
. Star Wars The Clone Wars: Republic Heroes
. The Sims 2: Best of Business Collection
PlayStation 2
. Disney Sing It: Pop Hits
. MotorStorm: Arctic Edge
. NBA 2K10
. Star Wars The Clone Wars: Republic Heroes
PlayStation 3
. Afrika
. Demon's Souls
. Disney Sing It: Pop Hits
. NBA 2K10
. NBA Live 10
. Operation Flashpoint: Dragon Rising
. SAW - Jogos Mortais
. Star Wars The Clone Wars: Republic Heroes
PSP
. Naruto Shippuden Legends: Akatsuki Ring
. NBA 10: The Inside
. NBA 2K10
. NBA Live 10
. Obscure: The Aftermath
. Star Wars The Clone Wars: Republic Heroes
Xbox 360
. NBA 2K10
. NBA Live 10
. Operation Flashpoint: Dragon Rising
. SAW - Jogos Mortais
. Star Wars The Clone Wars: Republic Heroes
As datas de lançamento dos jogos citados acima estão sujeitas à alteração.
Atenção: Senhas do hotmail publicadas na Internet

Os usuários do hotmail devem trocar de senha urgentemente: segundo informam no neoWin, um usuário publicou no dia primeiro de outubro milhares de senhas do hotmail, msn e live no site de compartilhamento de código pastebin.com
.A lista deve ter sido distribuída pelo mundo todo e, ainda que a maioria delas são europeias, é recomendável fazer a troca de senha com urgência.
A equipe de segurança da Microsoft já conhece o problema, mas eles não podem fazer muita coisa se os usuários não trocam seus dados de acesso antes deles serem roubados.
O Xbox
História do Xbox!
Desde 1999, haviam rumores na industria de games que a gigante Microsoft entraria no mercado de consoles caseiros. Estando envolvida com jogos para PC há muitos anos, a empresa começou a entrar no ramo de consoles fornecendo o sistema operacional do Dreamcast (SEGA). Isso deve ter incentivado Bill Gates a invertir em um console próprio.
Em março de 2000, o segredo da Microsoft veio à tona. Bill Gates, em seu discurso na abertura da Game Developers Expo, finalmente anunciou o lançamento de seu console, o Xbox. O aparelho, com um design discutível, apresenta uma configuração que lembra um PC: processador Intel Pentium III de 733 MHz, placa de vídeo Nvidea NV2 de 250 MHz, 64 MB de memória unificada, HD de 8 GB, suporte a Internet banda larga e decodificação de som Dolby Digital 5.1 in-game. O sistema operacional é uma versão reduzida do kernel (núcleo) do Windows 2000, desenvolvida especialmente para o console. Funciona também como DVD player, mas para isso é preciso comprar um controle a parte. Para evitar que o Xbox fosse confundido com um PC, a Microsoft desencorajava os desenvolvedores a oferecer suporte a periféricos de PC, tais como mouses e teclados.
Com o Xbox, a Microsoft é a primeira empresa americana, depois de Atari e 3DO, a se aventurar com algum sucesso nos mercado de games, dominado pelas companhias japonesas desde o lançamento do NES, pela Nintendo, nos anos 80. Com 500 milhões de dólares direcionados para a campanha de marketing do Xbox, a Microsoft utilizou todos os seus recursos financeiros para que o console fosse bem sucedido. Uma curiosidade é que a Microsoft teve que enfrentar um processo movido pela empresa Xbox Technologies, com sede na Flórida, pelo uso do nome no console.
O console é tido como de fácil programação, permitindo também o ports de jogos de PC. Entretanto, as primeiras demonstrações não foram capazes de confirmar que o console era três vezes mais potente que o Playstation 2 (Sony), conforme havia sido informado pela Microsoft, mesmo assim, o Xbox é, sem dúvidas, o console mais potente da geração. Lançado nos Estados Unidos em 15 de novembro de 2001, foram comercializados, segundo a empresa, 1,5 milhões de unidades até o final daquele ano. O lançamento no Japão ocorreu somente em 22 de fevereiro de 2002, após inúmeros atrasos. Com uma linha de jogos mais direcionada para o público ocidental, o Xbox nunca emplacou no oriente. Exemplo disso é que atualmente, enquanto a média de venda semanal dos concorrentes gira em torno de 20.000 unidades (PS2) e 5.000 unidades (Gamecube), as vendas do Xbox dificilmente ultrapassa a marca de 200 unidades.
O Xbox só apareceu na Europa um mês após o lançamento no Japão, e as vendas foram igualmente ruins. Seis semanas após o lançamento, o console sofreu um corte de 40% no seu preço e aqueles que já haviam comprado receberam um “presente de agradecimento” da Microsoft, composto por dois jogos e um controle.
Um dos diferenciais do Xbox é o seu sistema de jogatina online, a Xbox Live. Com uma rede centralizada, a Microsoft conseguiu criar uma rede online estável, expansível, amigável e praticamente livre de lag. Com a possibilidade de baixar novos conteúdos para os jogos, chats em tempo real, criação de clãs, lista de amigos, torneios, etc, a Xbox Live é o melhor e mais maduro modelo de rede de jogos online. Esta já conta com mais de 2 milhões de usuários ao redor do mundo. O custo é de US$ 49,99 + impostos por ano, o equivalente ao valor de um lançamento.
Com todos estes altos e baixos, o Xbox se mantêm na segunda colocação do mercado mundial de consoles com aproximadamente 18% do mercado. Isso se deve a uma boa linha de jogos, contando com diversos títulos exclusivos.
O grande problema do Xbox 360 é as 3 red light , um problema de super aquecimento que danifica e estraga o console.Algumas 3 RL são apenas de um fio solto e já outras é que seu console já era.
Jogos e Franquias
Gears of War - Máquina da transformação Sonysta
Conhecido como "Esmagador de Sonystas" e também como "Máquina da transformação sonysta" (Por que faz com que os sony boys se digenvolva para xboxistas)com certeza é um dos melhores jogos , senão o melhor já feito para a Caixa X , esse jogo fez muitas pessoas comprarem o Xbox 360 apenas para sentir o gostinho de detonar os alieniginas com gráficos incriveis e jogabilidade perfeita.Fez até os Sonystas se ajuelharem perante a esse incrivel game de FPS já feito em toda história.
Desde 1999, haviam rumores na industria de games que a gigante Microsoft entraria no mercado de consoles caseiros. Estando envolvida com jogos para PC há muitos anos, a empresa começou a entrar no ramo de consoles fornecendo o sistema operacional do Dreamcast (SEGA). Isso deve ter incentivado Bill Gates a invertir em um console próprio.
Em março de 2000, o segredo da Microsoft veio à tona. Bill Gates, em seu discurso na abertura da Game Developers Expo, finalmente anunciou o lançamento de seu console, o Xbox. O aparelho, com um design discutível, apresenta uma configuração que lembra um PC: processador Intel Pentium III de 733 MHz, placa de vídeo Nvidea NV2 de 250 MHz, 64 MB de memória unificada, HD de 8 GB, suporte a Internet banda larga e decodificação de som Dolby Digital 5.1 in-game. O sistema operacional é uma versão reduzida do kernel (núcleo) do Windows 2000, desenvolvida especialmente para o console. Funciona também como DVD player, mas para isso é preciso comprar um controle a parte. Para evitar que o Xbox fosse confundido com um PC, a Microsoft desencorajava os desenvolvedores a oferecer suporte a periféricos de PC, tais como mouses e teclados.
Com o Xbox, a Microsoft é a primeira empresa americana, depois de Atari e 3DO, a se aventurar com algum sucesso nos mercado de games, dominado pelas companhias japonesas desde o lançamento do NES, pela Nintendo, nos anos 80. Com 500 milhões de dólares direcionados para a campanha de marketing do Xbox, a Microsoft utilizou todos os seus recursos financeiros para que o console fosse bem sucedido. Uma curiosidade é que a Microsoft teve que enfrentar um processo movido pela empresa Xbox Technologies, com sede na Flórida, pelo uso do nome no console.
O console é tido como de fácil programação, permitindo também o ports de jogos de PC. Entretanto, as primeiras demonstrações não foram capazes de confirmar que o console era três vezes mais potente que o Playstation 2 (Sony), conforme havia sido informado pela Microsoft, mesmo assim, o Xbox é, sem dúvidas, o console mais potente da geração. Lançado nos Estados Unidos em 15 de novembro de 2001, foram comercializados, segundo a empresa, 1,5 milhões de unidades até o final daquele ano. O lançamento no Japão ocorreu somente em 22 de fevereiro de 2002, após inúmeros atrasos. Com uma linha de jogos mais direcionada para o público ocidental, o Xbox nunca emplacou no oriente. Exemplo disso é que atualmente, enquanto a média de venda semanal dos concorrentes gira em torno de 20.000 unidades (PS2) e 5.000 unidades (Gamecube), as vendas do Xbox dificilmente ultrapassa a marca de 200 unidades.
O Xbox só apareceu na Europa um mês após o lançamento no Japão, e as vendas foram igualmente ruins. Seis semanas após o lançamento, o console sofreu um corte de 40% no seu preço e aqueles que já haviam comprado receberam um “presente de agradecimento” da Microsoft, composto por dois jogos e um controle.
Um dos diferenciais do Xbox é o seu sistema de jogatina online, a Xbox Live. Com uma rede centralizada, a Microsoft conseguiu criar uma rede online estável, expansível, amigável e praticamente livre de lag. Com a possibilidade de baixar novos conteúdos para os jogos, chats em tempo real, criação de clãs, lista de amigos, torneios, etc, a Xbox Live é o melhor e mais maduro modelo de rede de jogos online. Esta já conta com mais de 2 milhões de usuários ao redor do mundo. O custo é de US$ 49,99 + impostos por ano, o equivalente ao valor de um lançamento.
Com todos estes altos e baixos, o Xbox se mantêm na segunda colocação do mercado mundial de consoles com aproximadamente 18% do mercado. Isso se deve a uma boa linha de jogos, contando com diversos títulos exclusivos.
O grande problema do Xbox 360 é as 3 red light , um problema de super aquecimento que danifica e estraga o console.Algumas 3 RL são apenas de um fio solto e já outras é que seu console já era.
Jogos e Franquias
Gears of War - Máquina da transformação Sonysta

Conhecido como "Esmagador de Sonystas" e também como "Máquina da transformação sonysta" (Por que faz com que os sony boys se digenvolva para xboxistas)com certeza é um dos melhores jogos , senão o melhor já feito para a Caixa X , esse jogo fez muitas pessoas comprarem o Xbox 360 apenas para sentir o gostinho de detonar os alieniginas com gráficos incriveis e jogabilidade perfeita.Fez até os Sonystas se ajuelharem perante a esse incrivel game de FPS já feito em toda história.
Um Pouco Da História Do Computador
A Primeira Geração
J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo. E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW. Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano. Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.
Foto do ENIAC
Em 1945 Von Neumann sugeriu que o sistema binário fosse adotado em todos os computadores, e que as instruções e dados fossem compilados e armazenados internamente no computador, na seqüência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo. Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.
Foto do EDVAC
O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.
Foto do UNIVAC
Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho). Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética. Os computadores a transistores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados.
A Segunda Geração
Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio. O primeiro computador totalmente transistorizado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica. O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.
Foto do IBM 1401
Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer. Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda.
A Terceira Geração
A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados. O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.

Foto do Manchester Mark I e do Primeiro Chip de Computador
Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa. O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00. Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores. Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala. As coisas começam a acontecer com maior rapidez e freqüência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974. O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET. A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts. Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.
Primeiro chip da Intel o 4004 com 2.300 transistors, no mesmo ano Zuffo da USP fabrica o 1o chip nacional
Foto dos Sinclair ZX81/ZX Spectrum
Computador minúsculo concebido por John Sinclair, professor na Universidade de Cambrige no U.K.. Inicialmente concebido para utilização pelos estudantes da Universidade de Cambrige começou a ser comercializado, em Portugal, circa 1980 com um preço aproximado de 12.500$00. Existia uma versão em kit para montagem que era comprada aproximadamente por 9.000$00 A CPU compreendia um processador Zilog Z80A de 8 bit a 3,25 MHZ, uma memória que compreendia uma ROM e uma RAM e uma ULA. A ROM, com 8K de capacidade, armazenava de modo permanente os programas, tabelas etc. necessários ao funcionamento do sistema e um interpretador para a linguagem de programação BASIC. A RAM compreendia uma área de trabalho disponível para o utilizador de 1K mas, era extensível até 16K. Na caixa de plástico alojava-se ainda um subsistema de comunicações para ligação em série a periféricos denominado SCL (Sinclair Computer Logic), uma unidade para entrada e saída de som, um codificador de imagens para TV. Num rasgo aberto na parte traseira da caixa de plástico existia um conector onde se podia ligar uma impressora minúscula que usava um rolo de papel especial. O computador era fornecido com um cabo para ligação ao televisor e outro para ligação a um gravador de "cassettes" musical (norma Philips). O transformador de corrente eléctrica alterna para contínua era adquirido em separado. Os programas e dados eram gravados na cassette magnética e eram também lidos a partir dela. O teclado não dispunha de teclas. Os caracteres ASCII eram impressos numa membrana. Esta tecnologia e a falta de ventilação da unidade de alimentação eléctrica eram as causas principais de avarias que enviavam o ZX81 para o caixote do lixo. Foi um computador muito popular devido ao seu baixo preço de venda.
Foto do Osborne1
Fabricado pela Osborne nos USA circa 1982. A CPU compreendia uma memória com 64KB, uma UAL e um Processador Zilog Z80A de 8 bit a 4 MHZ. A caixa, do tipo mala attaché com uma massa de 11 Kg, albergava ainda 2 unidades de disquette de 5" 1/4 com 204 KB ou em opção com 408 KB de capacidade, um écran de 5" (24 linhas por 54 colunas) a preto e branco e um teclado basculante (servia de tampa à mala) com dois blocos de teclas, um alfanumérico com os caracteres ASCII e outro numérico. Dispunha ainda de conectores para um écran externo, ports série RS-232C e paralelo IEEE-488 ou Centronics. O sistema era alimentado por uma bateria própria recarregável com uma autonomia de 5 horas, por uma bateria externa de automóvel ou por um transformador de corrente eléctrica alterna para contínua. O sistema operativo era o CP/M desenvolvido pela Digital Corporation. O software fornecido incluia um Interpretador M BASIC desenvolvido pela MICROSOFT, um Compilador BASIC desenvolvido pela Compyler Systems, uma folha de cálculo SUPERCALC (derivada do Visicalc) e um processador de texto denominado WORDSTAR. Podia ser programado em BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER e CROSS-ASSEMBLER. Última morada conhecida: desconhecida (foi visto na FILEME-82 em Lisboa).
Foto do IBM PC/XT e do Seu Processador
Fabricado pela IBM nos USA circa 1980, foi apresentado em Portugal em Janeiro de 1985 já com a versão PC-XT disponível, à qual se seguiu uma versão PC-AT. O CPU compreendia uma memória ROM de 40KB e uma memória RAM de 64KB extensível até 640KB, uma ULA e um processador Intel 8088 de 16 bit com uma frequência de clock de 4,77 MHZ. Era construido com três módulos separados: caixa, écran e teclado. O écran era a preto e branco com 25 linhas e 80 colunas podendo ser substituido por um écran a cores com 16 cores. A caixa para além do CPU albergava uma unidade de disquette de 5" 1/4 com uma capacidade de 360KB podendo alojar ainda uma outra unidade de disquette idêntica ou um disco com 10MB de capacidade, que era parte integrada na versão PC-XT. O teclado com 83 teclas, 10 das quais correspondentes a funções pré programadas, dispunha de caracteres acentuados (português). Possuia ainda saída para impressora e o PC-XT dispunha de um interface para comunicações assincronas. O sistema operativo era o PC/MS-DOS o qual era um MS-DOS desenvolvido pela Microsoft para a IBM. A linguagem de programação utilizada era o BASIC. Embora sendo um marco histórico da entrada da IBM no sector de mercado dos PC's, chegou a Portugal tardiamente não ocupando nunca o espaço já conquistado por outros fabricantes. Só cerca de dois anos depois, com a apresentação dos modelos PS/2-50 e PS/2-60, que eram equipados com um processador Intel 80286, a IBM recuperou o sector de mercado dos PC's utilizando para o efeito a penetração nas empresas onde tinha instalado mainframes e "pequenos computadores".
A Quarta Geração
Surgiram em decorrência do uso da técnica dos circuitos LSI (LARGE SCALE INTEGRATION) e VLSI (VERY LARGE SCALE INTEGRATION). Nesse período surgiu também o processamento distribuído, o disco ótico e o a grande difusão do microcomputador, que passou a ser utilizado para processamento de texto, cálculos auxiliados, etc. -1982- Surge o 286 Usando memória de 30 pinos e slots ISA de 16 bits, já vinha equipado com memória cache, para auxiliar o processador em suas funções. Utilizava ainda monitores CGA em alguns raros modelos estes monitores eram coloridos mas a grande maioria era verde, laranja ou cinza. -1985- O 386 Ainda usava memória de 30 pinos, porém devido ás sua velocidade de processamento já era possivel rodar softwares graficos mais avançados como era o caso do Windows 3.1, seu antecessor podia rodar apenas a versão 3.0 devido à baixa qualidade dos monitores CGA, o 386 já contava com placas VGA que podiam atingir até 256 cores desde que o monitor também suportasse essa configuração. -1989- O 486 DX A partir deste momento o coprocessador matemático já vinha embutido no próprio processador, houve também uma melhora sensível na velocidade devido o advento da memória de 72 pinos, muito mais rapida que sua antepassada de 30 pinos e das placas PCI de 32 bits duas vezes mais velozes que as placas ISA . Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16 milhões de cores, porém este artificio seria usado comercialmente mais para frente com o advento do Windows 95. Neste momento iniciava uma grande debandada para as pequenas redes como, a Novel e a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que rodavam em sua grande maioria os sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da IBM). Esta substituição era extremamente viável devido à diferença brutal de preço entre estas máquinas.
Foto de um 386 e um 486 e a foto de Uma Mother Board (Placa Mãe) de um 486 DX 100
A Quinta Geração
As aplicações exigem cada vez mais uma maior capacidade de processamento e armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos, gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos dessas necessidades. Uma das principais características dessa geração é a simplificação e miniaturização do computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com os preços cada vez mais acessíveis. A tecnologia VLSI está sendo substituída pela ULSI (ULTRA LARGE SCALE INTEGRATION). O conceito de processamento está partindo para os processadores paralelos, ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos de produção e do volume dos componentes permitiram a aplicação destes computadores nos chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e computadores de pequeno porte. São exemplos desta geração de computadores, os micros que utilizam a linha de processadores Pentium, da INTEL. 1993- Surge o Pentium As grandes mudanças neste periodo ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas de video AGP e de um aprimoramento da slot PCI melhorando ainda mais seu desempenho. 1997- O Pentium II / 1999- O Pentium III / 2001- o Pentium 4 Não houveram grandes novidades após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.
Na ordem o Celeron / Ciryx / AMD K6 / Pentium MMX
O Pentium 2 e o AMD K6-2 os TOP de Linha até 1998 / Foto de uma placa de Pentium II
O Futuro - Vem aí o computador quântico
A IBM anunciou ontem a construção do mais avançado computador quântico do mundo. A novidade representa um grande passo em relação ao atual processo de fabricação de chips com silício que, de acordo com especialistas, deve atingir o máximo de sua limitação física de processamento entre 10 e 20 anos. O computador quântico usa, em lugar dos tradicionais microprocessadores de chips de silício, um dispositivo baseado em propriedades físicas dos átomos, como o sentido de giro deles, para contar números um e zero (qubits), em vez de cargas elétricas como nos computadores atuais. Outra característica é que os átomos também podem se sobrepor, o que permite ao equipamento processar equações muito mais rápido. "Na verdade, os elementos básicos dos computadores quânticos são os átomos e as moléculas", diz Isaac Chuang, pesquisador que liderou a equipe formada por cientistas da IBM, Universidade de Staford e Universidade de Calgary. Cada vez menores Segundo os pesquisadores da IBM, os processadores quânticos começam onde os de silício acabam. "A computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e moléculas", afirma Chuang. A lei de Moore, conceito criado em 65 pelo co-fundador da fabricante de processadores Intel, Gordon Moore, diz que o número de transistores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de transistores nos chips, maior a velocidade de processamento. Essa teoria vem se confirmando desde a sua formulação. Pesquisa O computador quântico da IBM é um instrumento de pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já despertou o interesse do Departamento de Defesa dos Estados Unidos
* Dados sobre o Processador Quantico foram extraidos do Jornal o Estado de São Paulo de 12 de agosto de 2000
J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo. E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW. Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano. Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.
Foto do ENIAC
Em 1945 Von Neumann sugeriu que o sistema binário fosse adotado em todos os computadores, e que as instruções e dados fossem compilados e armazenados internamente no computador, na seqüência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo. Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.
Foto do EDVAC
O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.
Foto do UNIVAC
Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho). Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética. Os computadores a transistores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados.
A Segunda Geração
Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio. O primeiro computador totalmente transistorizado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica. O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.
Foto do IBM 1401
Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer. Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda.
A Terceira Geração
A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados. O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.

Foto do Manchester Mark I e do Primeiro Chip de Computador
Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa. O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00. Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores. Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala. As coisas começam a acontecer com maior rapidez e freqüência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974. O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET. A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts. Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.
Primeiro chip da Intel o 4004 com 2.300 transistors, no mesmo ano Zuffo da USP fabrica o 1o chip nacional
Foto dos Sinclair ZX81/ZX Spectrum
Computador minúsculo concebido por John Sinclair, professor na Universidade de Cambrige no U.K.. Inicialmente concebido para utilização pelos estudantes da Universidade de Cambrige começou a ser comercializado, em Portugal, circa 1980 com um preço aproximado de 12.500$00. Existia uma versão em kit para montagem que era comprada aproximadamente por 9.000$00 A CPU compreendia um processador Zilog Z80A de 8 bit a 3,25 MHZ, uma memória que compreendia uma ROM e uma RAM e uma ULA. A ROM, com 8K de capacidade, armazenava de modo permanente os programas, tabelas etc. necessários ao funcionamento do sistema e um interpretador para a linguagem de programação BASIC. A RAM compreendia uma área de trabalho disponível para o utilizador de 1K mas, era extensível até 16K. Na caixa de plástico alojava-se ainda um subsistema de comunicações para ligação em série a periféricos denominado SCL (Sinclair Computer Logic), uma unidade para entrada e saída de som, um codificador de imagens para TV. Num rasgo aberto na parte traseira da caixa de plástico existia um conector onde se podia ligar uma impressora minúscula que usava um rolo de papel especial. O computador era fornecido com um cabo para ligação ao televisor e outro para ligação a um gravador de "cassettes" musical (norma Philips). O transformador de corrente eléctrica alterna para contínua era adquirido em separado. Os programas e dados eram gravados na cassette magnética e eram também lidos a partir dela. O teclado não dispunha de teclas. Os caracteres ASCII eram impressos numa membrana. Esta tecnologia e a falta de ventilação da unidade de alimentação eléctrica eram as causas principais de avarias que enviavam o ZX81 para o caixote do lixo. Foi um computador muito popular devido ao seu baixo preço de venda.
Foto do Osborne1
Fabricado pela Osborne nos USA circa 1982. A CPU compreendia uma memória com 64KB, uma UAL e um Processador Zilog Z80A de 8 bit a 4 MHZ. A caixa, do tipo mala attaché com uma massa de 11 Kg, albergava ainda 2 unidades de disquette de 5" 1/4 com 204 KB ou em opção com 408 KB de capacidade, um écran de 5" (24 linhas por 54 colunas) a preto e branco e um teclado basculante (servia de tampa à mala) com dois blocos de teclas, um alfanumérico com os caracteres ASCII e outro numérico. Dispunha ainda de conectores para um écran externo, ports série RS-232C e paralelo IEEE-488 ou Centronics. O sistema era alimentado por uma bateria própria recarregável com uma autonomia de 5 horas, por uma bateria externa de automóvel ou por um transformador de corrente eléctrica alterna para contínua. O sistema operativo era o CP/M desenvolvido pela Digital Corporation. O software fornecido incluia um Interpretador M BASIC desenvolvido pela MICROSOFT, um Compilador BASIC desenvolvido pela Compyler Systems, uma folha de cálculo SUPERCALC (derivada do Visicalc) e um processador de texto denominado WORDSTAR. Podia ser programado em BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER e CROSS-ASSEMBLER. Última morada conhecida: desconhecida (foi visto na FILEME-82 em Lisboa).

Foto do IBM PC/XT e do Seu Processador
Fabricado pela IBM nos USA circa 1980, foi apresentado em Portugal em Janeiro de 1985 já com a versão PC-XT disponível, à qual se seguiu uma versão PC-AT. O CPU compreendia uma memória ROM de 40KB e uma memória RAM de 64KB extensível até 640KB, uma ULA e um processador Intel 8088 de 16 bit com uma frequência de clock de 4,77 MHZ. Era construido com três módulos separados: caixa, écran e teclado. O écran era a preto e branco com 25 linhas e 80 colunas podendo ser substituido por um écran a cores com 16 cores. A caixa para além do CPU albergava uma unidade de disquette de 5" 1/4 com uma capacidade de 360KB podendo alojar ainda uma outra unidade de disquette idêntica ou um disco com 10MB de capacidade, que era parte integrada na versão PC-XT. O teclado com 83 teclas, 10 das quais correspondentes a funções pré programadas, dispunha de caracteres acentuados (português). Possuia ainda saída para impressora e o PC-XT dispunha de um interface para comunicações assincronas. O sistema operativo era o PC/MS-DOS o qual era um MS-DOS desenvolvido pela Microsoft para a IBM. A linguagem de programação utilizada era o BASIC. Embora sendo um marco histórico da entrada da IBM no sector de mercado dos PC's, chegou a Portugal tardiamente não ocupando nunca o espaço já conquistado por outros fabricantes. Só cerca de dois anos depois, com a apresentação dos modelos PS/2-50 e PS/2-60, que eram equipados com um processador Intel 80286, a IBM recuperou o sector de mercado dos PC's utilizando para o efeito a penetração nas empresas onde tinha instalado mainframes e "pequenos computadores".
A Quarta Geração
Surgiram em decorrência do uso da técnica dos circuitos LSI (LARGE SCALE INTEGRATION) e VLSI (VERY LARGE SCALE INTEGRATION). Nesse período surgiu também o processamento distribuído, o disco ótico e o a grande difusão do microcomputador, que passou a ser utilizado para processamento de texto, cálculos auxiliados, etc. -1982- Surge o 286 Usando memória de 30 pinos e slots ISA de 16 bits, já vinha equipado com memória cache, para auxiliar o processador em suas funções. Utilizava ainda monitores CGA em alguns raros modelos estes monitores eram coloridos mas a grande maioria era verde, laranja ou cinza. -1985- O 386 Ainda usava memória de 30 pinos, porém devido ás sua velocidade de processamento já era possivel rodar softwares graficos mais avançados como era o caso do Windows 3.1, seu antecessor podia rodar apenas a versão 3.0 devido à baixa qualidade dos monitores CGA, o 386 já contava com placas VGA que podiam atingir até 256 cores desde que o monitor também suportasse essa configuração. -1989- O 486 DX A partir deste momento o coprocessador matemático já vinha embutido no próprio processador, houve também uma melhora sensível na velocidade devido o advento da memória de 72 pinos, muito mais rapida que sua antepassada de 30 pinos e das placas PCI de 32 bits duas vezes mais velozes que as placas ISA . Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16 milhões de cores, porém este artificio seria usado comercialmente mais para frente com o advento do Windows 95. Neste momento iniciava uma grande debandada para as pequenas redes como, a Novel e a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que rodavam em sua grande maioria os sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da IBM). Esta substituição era extremamente viável devido à diferença brutal de preço entre estas máquinas.
Foto de um 386 e um 486 e a foto de Uma Mother Board (Placa Mãe) de um 486 DX 100
A Quinta Geração
As aplicações exigem cada vez mais uma maior capacidade de processamento e armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos, gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos dessas necessidades. Uma das principais características dessa geração é a simplificação e miniaturização do computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com os preços cada vez mais acessíveis. A tecnologia VLSI está sendo substituída pela ULSI (ULTRA LARGE SCALE INTEGRATION). O conceito de processamento está partindo para os processadores paralelos, ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos de produção e do volume dos componentes permitiram a aplicação destes computadores nos chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e computadores de pequeno porte. São exemplos desta geração de computadores, os micros que utilizam a linha de processadores Pentium, da INTEL. 1993- Surge o Pentium As grandes mudanças neste periodo ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas de video AGP e de um aprimoramento da slot PCI melhorando ainda mais seu desempenho. 1997- O Pentium II / 1999- O Pentium III / 2001- o Pentium 4 Não houveram grandes novidades após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.
Na ordem o Celeron / Ciryx / AMD K6 / Pentium MMX
O Pentium 2 e o AMD K6-2 os TOP de Linha até 1998 / Foto de uma placa de Pentium II
O Futuro - Vem aí o computador quântico
A IBM anunciou ontem a construção do mais avançado computador quântico do mundo. A novidade representa um grande passo em relação ao atual processo de fabricação de chips com silício que, de acordo com especialistas, deve atingir o máximo de sua limitação física de processamento entre 10 e 20 anos. O computador quântico usa, em lugar dos tradicionais microprocessadores de chips de silício, um dispositivo baseado em propriedades físicas dos átomos, como o sentido de giro deles, para contar números um e zero (qubits), em vez de cargas elétricas como nos computadores atuais. Outra característica é que os átomos também podem se sobrepor, o que permite ao equipamento processar equações muito mais rápido. "Na verdade, os elementos básicos dos computadores quânticos são os átomos e as moléculas", diz Isaac Chuang, pesquisador que liderou a equipe formada por cientistas da IBM, Universidade de Staford e Universidade de Calgary. Cada vez menores Segundo os pesquisadores da IBM, os processadores quânticos começam onde os de silício acabam. "A computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e moléculas", afirma Chuang. A lei de Moore, conceito criado em 65 pelo co-fundador da fabricante de processadores Intel, Gordon Moore, diz que o número de transistores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de transistores nos chips, maior a velocidade de processamento. Essa teoria vem se confirmando desde a sua formulação. Pesquisa O computador quântico da IBM é um instrumento de pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já despertou o interesse do Departamento de Defesa dos Estados Unidos
* Dados sobre o Processador Quantico foram extraidos do Jornal o Estado de São Paulo de 12 de agosto de 2000
Assinar:
Comentários (Atom)





