Page 1


Hardware

el



PC&CIA # 85 # 2009

PC85_Editorial.indd 2

23/1/2009 09:30:05


Editorial Editorial

Editora Saber Ltda.

Estado sólido

Diretor Hélio Fittipaldi

Armazenar dados em mídias de estado sólido muda radicalmente um conceito que foi criado antes mesmo do surgimento do PC: o de que dados devem ser armazenados em discos www.revistapcecia.com.br

Editor e Diretor Responsável Hélio Fittipaldi Editor de Tecnologia Daniel Appel Conselho Editorial Roberto R. Cunha, Renato Paiotti Colaboradores Diego Pagliarini Vivencio, João Carlos Cé Bassanesi, Jansen Carlo Sena, Marcus Brandão de Moura, Renato Paiotti, Wagner Barth Revisão Eutíquio Lopez Designers Carlos Tartaglioni, Diego M. Gomes Produção Diego M. Gomes

magnéticos. Esta idéia está em vigor há tanto tempo (o conceito surgiu em 1956, criado pela IBM) que já achamos natural, parece que sempre foi assim e que essa é a “maneira certa” de guardar

Daniel Appel

nossos arquivos. Após tantas décadas de uso, os discos rígidos conquistaram a confiança do usuário de forma que muitos ainda pensam ser mais seguro confiar seus dados a discos magnéticos frágeis, com baixa resistência a impactos e vibrações, e que rodam em velocidades altíssimas, do que a células de memória de estado sólido. Convencer o mercado das vantagens do SSD não será uma tarefa simples, mas com as informações contidas nesta revista certamente as coisas serão mais fáceis. Nestas páginas, o leitor encontrará explicações sobre as várias tecnologias de memórias de estado sólido, sua implicação no desempenho do sistema e algumas considerações sobre a morte (ou não) dos HDs. Não é à toa que grande parte dos especialistas concorda que a tecnologia mais importante a ganhar espaço este ano não é o Phenom II ou o Core i7, mas sim a dos SSDs. Outra tecnologia muito relevante, que vem ganhando força é a tecnologia VoIP.

PARA ANUNCIAR: (11) 2095-5339 publicidade@editorasaber.com.br Capa Arquivo Ed. Saber Impressão São Francisco Gráfica e Editora. Distribuição Brasil: DINAP Portugal: Logista Portugal tel.: 121-9267 800



Enquanto muitos ainda acham que VoIP é sinônimo de Skype, nosso leitor já conheceu tecnologias sérias como as placas de telefonia IP, que podem transformar um PC simples em um competente PBX-IP para vários ramais. Como o potencial desta tecnologia é gigantesco mas a adoção tem sido lenta, vamos facilitar a vida do leitor ensinando-o a utilizar o MeucciBE, um software para PBX-IP que transforma um PC em uma central telefônica dedicada. Use este conhecimento para economizar o dinheiro de um PABX e aproveite para cortar custos com ligações também.

ASSINATURAS www.revistapcecia.com.br Fone: (11) 2095-5335 / fax: (11) 2098-3366 Atendimento das 8:30 às 17:30h Edições anteriores (mediante disponibilidade de estoque), solicite pelo site ou pelo tel. 2095-5330, ao preço da última edição em banca.

Ofereça este tipo de solução para seus clientes. Você, sua empresa e seus clientes só têm a ganhar. Tenha uma boa leitura!

PC&CIA é uma publicação da Editora Saber Ltda, ISSN 0101-6717. Redação, administração, publicidade e correspondência: Rua Jacinto José de Araújo, 315, Tatuapé, CEP 03087-020, São Paulo, SP, tel./fax (11) 2095-5333.

Atendimento ao Leitor: atendimento@revistapcecia.com.br Associada da:

Associação Nacional das Editoras de Publicações Técnicas, Dirigidas e Especializadas

Os artigos assinados são de exclusiva responsabilidade de seus autores. É vedada a reprodução total ou parcial dos textos e ilustrações desta Revista, bem como a industrialização e/ou comercialização dos aparelhos ou idéias oriundas dos textos mencionados, sob pena de sanções legais. As consultas técnicas referentes aos artigos da Revista deverão ser feitas exclusivamente por cartas, ou e-mail (A/C do Departamento Técnico). São tomados todos os cuidados razoáveis na preparação do conteúdo desta Revista, mas não assumimos a responsabilidade legal por eventuais erros, principalmente nas montagens, pois tratam-se de projetos experimentais. Tampouco assumimos a responsabilidade por danos resultantes de imperícia do montador. Caso haja enganos em texto ou desenho, será publicada errata na primeira oportunidade. Preços e dados publicados em anúncios são por nós aceitos de boa fé, como corretos na data do fechamento da edição. Não assumimos a responsabilidade por alterações nos preços e na disponibilidade dos produtos ocorridas após o fechamento.

2009 # 88 # PC&CIA

PC88_Editorial.indd 3

17/8/2009 11:29:09


Indice

Indice

HARDWARE

13 SSDs Intel

10

Estado Sólido

Alguns cuidados com discos rígidos comprados pelo

26

grey market

Mega

34

IMP31

Samsung ML-2010

TESTES

Impressora Laser Recarregável

Fusion-io ioDrive

SSD Popular 

MSI para

18

22 AM3

44

REDES

30

Upgrade para

Athlon

PBX-ip

de baixo consumo

SISTEMAS OPERACIONAIS

SpaceMonger

X2

38

Desfragmentação otimizada

de disco Editorial

Segurança High-Tech Notícias Tendências PC&CIA # 88 # 2009

PC88_indice.indd 4

50 58

60 03 05 08 63 17/8/2009 10:07:01


Jansen C. Sena*

N

ão é todo dia que nasce um fenômeno musical como Elvis Presley, Frank Sinatra ou John Lennon, todos capazes de perpetuar suas músicas e suas histórias ao longo dos anos que sucedem suas existências. O fato de até os dias de hoje esses nomes serem cultuados mesmo por gerações que surgiram após suas mortes, apenas ratifica a certeza de que esses artistas ocuparão papéis de protagonistas na história da música mundial por muitos e muitos anos. Certamente que Michael Jackson, falecido no último mês de junho, faz parte dessa lista de celebridades. O seu inesquecível “Moonwalk ” ganhou até um site (www.eternalmoonwalk.com) onde anônimos criam suas próprias versões do passo inventado pelo “Rei do Pop”. É certo que muitos sequer aproximam-se do original. Antes que você se pergunte qual relação pode existir entre o falecimento de Michael Jackson e uma coluna de segurança, aí vai uma sútil mas importante observação: uma das diferenças entre o momento histórico em que faleceu Michael Jackson e a época em que morreram Elvis Presley, Frank Sinatra e Jonh Lennon está, no primeiro caso, na presença mundial da Internet como base tecnológica para a dita sociedade da informação. Aproveitando-se do amplo interesse popular, característico em se tratando de alguém como Michael Jackson, atacantes aproveitaram-se, tão logo as notícias se espalhavam, para disseminar pragas virtuais por meio de emails. As mensagens continham desde SPAMs até vírus e worms que buscavam infectar o computador dos usuários mais curiosos por notícias envolvendo Michael Jackson para roubar, por exemplo, senhas bancárias e outros tipos de acessos. Os assuntos suposta-

mente tratados nos emails tornavam tais mensagens quase que irresistíveis para os usuários: a última foto de Michael ainda na ambulância indo ao hospital; quem matou Michael?; devolução do dinheiro para aqueles que haviam comprado seus ingressos para os shows do astro pop em Londres; e, enfim, suspeitas em torno de um suposto suicídio do astro.

É indissociável a conexão que existe entre as atividades profissionais de um administrador de sistemas ou um analista de segurança de redes com os fatos que acontecem ao redor do mundo

O mais interessante é que atacantes já haviam tentado disseminar os mesmos vírus usando e-cards, mensagens falsas referentes ao acompanhamento de pedidos de compras e até mesmo um alerta de atualização para o Microsoft Outlook. Foi, contudo, através da enorme repercussão e do clamor por notícias envolvendo a morte de Michael Jackson que os atacantes encontraram uma maneira eficiente para disseminar tais pragas valendo-se do ativo mais importante e complexo no que diz respeito à segurança: o usuário.

Segurança High-Tech Segurança High-Tech

Michael Jackson e os perigos na Internet Muitos administradores perderam, se é que ainda não estão perdendo, tempo considerável para ajustar seus filtros de anti-spam e anti-vírus para conter a contaminação dos computadores sob suas responsabilidades. Certamente que os menos preparados tiveram uma carga de sofrimento maior. Que lição é possível tirar desse episódio? Simples: a indissociável conexão que existe entre as atividades profissionais de um administrador de sistemas ou um analista de segurança de redes com os fatos que acontecem ao redor do mundo. Negar essa conexão significa colocar em risco o seu próprio sucesso profissional e a segurança e a estabilidade do ambiente corporativo. Em geral, quanto maior for o interesse coletivo em um determinado assunto, mais perigoso ele tende a ser no sentido de viabilizar a proliferação de ataques. Isso porque, como dito anteriormente, nesse caso, a mazela digital vem dentro de um contexto que envolve fatos reais, recentes e que vêm recebendo uma ampla cobertura por meio dos diversos canais de comunicação. Infelizmente esse é, dentre muitos outros, um assunto que não está presenteem boa parte da literatura especializada que versa, em sua maioria, a respeito de técnicas, ferramentas e políticas. Ainda em tempo, essa discussão não recebe o espaço devido nos cursos acadêmicos ou mesmo nos treinamentos técnicos. Ainda são coisas que se aprendem com a experiência e nem sempre da melhor maneira. Bem, acho que pc é isso. Até a próxima!



(*) Jansen C. Sena é mestre em segurança de redes e administração de sistemas Unix pelo Instituto de Computação da Unicamp, atualmente trabalha na Atech Tecnologias Críticas

2009 # 88 # PC&CIA

PC88_Hi_Tech.indd 5

13/8/2009 17:00:50


PC88_Desfragmentacao.indd 6

13/8/2009 16:45:25


PC88_Desfragmentacao.indd 7

13/8/2009 16:45:49


Notícias

Notícias

Google Developer Day 2009

Um dos momentos mais esperados pelos desenvolvedores web que se utilizam de recursos do Google, o GDD2009 foi realizado em São Paulo no WTC Convention Center, no dia 29 de Junho de 2009. Este ano o evento, que traz apresentações e novas características dos produtos da empresa, mostrou boas novidades.

Google e o HTML 5



Foram apresentadas várias novidades do HTML 5, cuja versão final, segundo o site da W3C, estará disponível em 2012. Provavelmente até lá surgirão muitas outras novidades na linguagem. Entre as novas características do HTML 5, estão: Tag Canvas - possibilita renderizar imagens de forma nativa; Geolocalização - o navegador encontra o usuário onde ele estiver através do HTML, sem auxílio de GPS e Google Maps; Tag de Vídeo – possibilita inserir vídeos diretamente no HTML e aplicar efeitos. Bastante comentada também foi a evolução dos browsers como Firefox, Safari, Opera e também o Chrome, que por ser o mais novo entre eles, está sendo ajustado.

digitada propositalmente sem sentido: “Hoje, o presidente Lua irá visitar a Lula”. Ela automaticamente foi corrigida para “Hoje, o presidente Lula irá visitar a Lua”. Exibição de conteúdo de links - ao inserir links em sua mensagem há uma opção para que possa ser capturado e exibido o conteúdo daquele link, tornando possível que seja inserida uma imagem ou vídeo diretamente no corpo do e-mail. A Inovação nesses exemplos do Google Wave ficou por conta de um conceito de e-mail com muitos recursos já existentes na web, disponíveis pelo próprio Google, mas dessa vez ajustados, integrados e à disposição de forma usual, simples e fácil.

Google App Engine e JAVA

Este ano, diferentemente dos anteriores, quando foi dada prioridade à linguagem Python, o GDD2009 trouxe mais ferramentas e enfatizou a linguagem JAVA. Pode-se notar que uma das prioridades do Google é investir e disponibilizar para os desenvolvedores ferramentas para facilitar a utilização

da linguagem. Também foi apresentado o GWT (Google Web Toolkit) que traz facilidades à implementação de Javascript e AJAX.

Android

Durante o evento, muito foi comentado sobre o Android, sua performance e sobre debugs desta plataforma. Como é uma plataforma livre, há alguns aplicativos mal escritos e isto pode passar uma impressão ruim da plataforma, além de uma performance insatisfatória. Foram apresentadas também dicas para desenvolver um aplicativo eficiente. O Google Developer Day 2009 acabou e o resultado final foi muito positivo, com o Google mostrando muitas ferramentas novas. O encontro de 2010 promete ser ainda melhor, com certeza trará muitas outras novidades , como, por exemplo, o Chrome OS (plataforma para netbooks). O Google se prontificou a disponibilizar os vídeos do evento no endereço http:// www.youtube.com/googlebrasil. Recomendamos a visita.

Google Wave

Apresentado como “e-mail do futuro” e substituto do Gmail (um dos produtos de grande sucesso do Google), foi aplaudido em suas demonstrações de integração e na velocidade de comunicação. O Google Wave traz aspectos interessantes, dentre eles: Tradutor simultâneo - poderá ser utilizado em tempo real por pessoas que não teclem no mesmo idioma, facilitando em muito a comunicação. Se disponibiliza hoje em mais de 40 idiomas. Robô de Autocorreção - se demonstrou muito eficiente ao corrigir a frase,

Palestra sobre Google Wave

PC&CIA # 88 # 2009

PC88_noticias.indd 8

13/8/2009 17:34:30


Notícias Notícias

Gainward no Brasil

As placas de vídeo da Gainward, um dos fabricantes mais conceituados entre os gamers, agora podem ser adquiridas no mercado brasileiro. Fundada em 1984 e com fábricas na China e em Taiwan, a Gainward é reconhecida mundialmente por utilizar componentes de boa qualidade e oferecer uma boa relação custo/benefício em seus produtos, como nas linhas Golden Sample (GS) e Goes Like Hell (GLH) que possuem diferenciais como overclock de fábrica. Adquirir uma placa da Gainward exigia, até recentemente, recorrer a importação direta, mas agora suas placas

podem ser compradas diretamente na WAZ (w w w.waz.com.br), que assinou acordo de distribuição oficial das placas de vídeo da marca no país.

Mozilla

MSI e Digitron:

A Comunidade do Mozilla Firefox comemora o bilionésimo download, feito no dia 31 de julho de 2009, sexta-feira, às 7 h e 47 min (fuso horário da costa oeste dos Estados Unidos). Isto mostra o quanto cresceu a participação da Mozilla no mercado. Em 2004 o browser Mozilla Firefox tinha 8% do mercado, mas atualmente supera os 30% e é um dos navegadores mais utilizados no mundo. Visite também o site de comemoração do bilionésimo download em http://www. onebillionplusyou.com/.

A MSI fechou parceria com a Digitron para a produção de placas–mãe no Brasil. A Digitron é um dos maiores fabricantes nacionais de placas–mãe, participando do mercado há mais de vinte e oito anos e com parcerias firmadas com cinco empresas. Agora, a MSI entra no grupo de marcas com fabricação nacional. A produção das placas já foi iniciada e as duas empresas esperam produzir trezentas mil unidades até o final de 2009, dos modelos G31M3L-V2 e K9N6PGM. Estas placas–mãe acompanham três aplicativos especialmente desenvolvidos pela MSI, os softwares de atualização de BIOS Live Update Online e Live Update 3, e o Dual Core–v2, um utilitário de monitoramento do processador. A G31M3-L-V2 é uma placa do tipo micro-ATX baseada no chipset Intel G31+ICH7. Tem suporte aos processadores LGA-775 desde o Pentium 4 até o Core2Quad, com FSB de até 1333 MHz e até 4 GB de memórias DDR2-800 DualChannel. Oferece um slot PCI-Express

O acordo estende a garantia de 18 meses oferecida pela empresa nos seus produtos também aos consumidores brasileiros.



comemora downloads nova parceria

x16 Gen 2.0, dois slots PCI, quatro portas Sata II (além de conectores IDE e Floppy), interface Ethernet 10/100 e quatro portas USB 2.0. Por fim, há também um conector de vídeo, pois o G31 conta com GPU X3100 onboard. Existe ainda o modelo G31M3-LS-V2, que tem exatamente as mesmas especificações do G31M3-L-V2, mas utiliza capacitores sólidos. A K9N6GM-V também adota o formato micro-ATX, é baseada no chipset NVIDIA MCP61 e suporta processadores AMD Athlon 64 X2 e Sempron com Hypertransport de até 1 GHz. Aceita memórias DDR2 800 Dual-Channel, até o máximo de 8 GB, e conta com slots PCI-E x8 e x1, conectores IDE e Floppy, duas portas Sata II com suporte a RAID 0 e 1, porta Ethernet 10/100, quatro portas USB 2.0, além do conector de vídeo para o GPU GeForce 6100 onboard. A variante K9N6GM-F é um pouco mais sofisticada e conta com PCI-Express de 16 vias e rede Gigabit.

2009 # 88 # PC&CIA

PC88_noticias.indd 9

13/8/2009 17:34:37


Hardware

10

Estado Sólido Q Os HDs estão com os dias contados.

Mais rápidos, resistentes, silenciosos e econômicos, logo os SSDs tomarão conta

do filão de mercado dominado pelos discos

rígidos, os últimos componentes mecânicos de um computador. Daniel Appel

ue a evolução da tecnologia usada na informática é rápida, isso não se discute. Em questão de meses os processadores dobram de performance, os módulos de memória duplicam sua capacidade e os HDs acompanham o ritmo oferecendo-nos cada vez mais espaço. Porém, a evolução dos discos rígidos não é total. O aumento de performance não é proporcional ao aumento de capacidade, simplesmente porque a natureza mecânica do disco não permite isso. Fazer um disco rodar a 10.000 rpm é muito mais difícil do que a 7.200 rpm, e o salto para 15.000 rpm é pior ainda. Portanto, não é à toa que desde o início desta década os modelos disponíveis para o consumidor ainda oferecem a mesma velocidade de rotação. É claro que a performance de um HD não depende exclusivamente da rotação dele. Fatores como cache, número de cabeças, densidade dos discos e algoritmos de otimização como NCQ (Native Command Queueing) colaboram bastante para seu bom desempenho, mas infelizmente as barreiras físicas a serem transpostas são implacáveis.

Chegamos a um ponto em que devemos nos perguntar: será mesmo que o HD é a melhor forma de armazenamento de massa? Não haveria local melhor para armazenar seus dados do que em um disco magnético delicado, rodando a velocidades estonteantes?

Estado Sólido

Armazenamento em dispositivos de estado sólido não é nenhuma novidade, a maioria das pessoas já o utiliza apesar de, talvez, não se dar conta disso. Qualquer pendrive ou cartão de memória flash serve como exemplo deste tipo de tecnologia que, embora bem difundida, só agora se tornou viável para uso em dispositivos de grande capacidade para o mercado de massa, ou seja, para substituir os HDs. Um drive de estado sólido é denominado SSD, do inglês Solid State Drive, e não se deve chamá-lo de “HD de estado sólido” pois ele não é um disco. Mas podemos dizer “ drive de estado sólido” sem incorrer em erro. Como este tipo de dispositivo armazena suas informações em células de memória, ele não tem partes móveis como

PC&CIA # 88 # 2009

PC88_estado.indd 10

13/8/2009 17:02:48


Hardware

um HD tradicional. Quando falamos de equipamentos eletrônicos, partes móveis são totalmente indesejáveis e tanto melhor se pudermos evitá-las. Armazenar informações em chips de estado sólido tem inúmeras vantagens, dentre elas a resistência a vibrações, choques e desgaste mecânico, tradicionalmente pontos fracos nos discos mecânicos. Outra característica interessante é que as células de memória têm tempo de acesso muito baixo e constante. Acessar o bloco de dados desejado não leva mais do que alguns microssegundos, ao passo que deslocar a cabeça de leitura e aguardar o disco dar uma volta completa leva milissegundos. Ou seja: um SSD pode acessar uma informação milhares de vezes mais rapidamente que um HD tradicional.

Memória EEPROM

A EEPROM (Electrically Erasable Programmable Read-Only Memory) é uma memória não volátil, muito usada para armazenar pequenas quantidades de dados de forma persistente, pois ela não perde a informação nem quando a corrente elétrica que a alimenta é desligada.

Esta memória tem a capacidade de apagar e reprogramar o valor de suas células livremente, em nível de bytes. Infelizmente, esta operação não é muito veloz de forma que a EEPROM é adequada para armazenar elementos como firmware e BIOS, que são pouco alterados, mas não é muito conveniente para dispositivos de armazenamento de massa.

Memória Flash

Este tipo de memória foi criado no início da década de 80 nos laboratórios da Toshiba, como uma alternativa mais barata para substituir memórias EEPROM em aplicações que exigissem armazenamento persistente (não volátil) de volume elevado. Na verdade a Flash ainda é uma EEPROM, porém com algumas diferenças específicas que tornam seu custo por byte mais atraente. Dois tipos de memória Flash foram criados, NOR e NAND, e recebem estes nomes graças à semelhança com portas lógicas de mesmo nome. Memórias Flash do tipo NOR são usadas como substituição de memórias EEPROM típicas. Têm velocidade de

leitura muito alta, porém a velocidade de programação/deleção infelizmente não acompanha a de leitura. Assim como a NOR, a NAND mantém a capacidade de apagar e reprogramar as células de memória que fez da EEPROM uma tecnologia tão difundida. A diferença é que a EEPROM e a NOR programam suas células de byte em byte, enquanto a NAND faz isso em blocos enormes, normalmente de 512 KB cada. A velocidade de programação das células é muito superior, bem como a de deleção, entretanto, a de leitura não tem o mesmo destaque. Ainda assim, é mais veloz que os discos mecânicos. Há também uma outra vantagem da NAND: como o acesso acontece em blocos, o número de linhas de endereçamento e de vias de aterramento é muito menor, o que economiza espaço e permite o aumento da densidade de células do circuito. Ou seja, para um determinado tamanho de chip, as memórias NAND podem oferecer capacidades de armazenamento muito maiores. Com velocidade de leitura e programação superiores às dos HDs e maior densidade que a Flash NOR, a Flash NAND se mostrou a tecnologia mais adequada para substituição dos discos rígidos.

11

Tecnologias de células NAND

Dois tipos de células diferentes são usados em dispositivos de armazenamento baseados em memórias NAND. MLC A tecnologia MLC (Multi-Level Cell) consegue armazenar quatro estados lógicos em uma única célula. Cada bit requer dois estados lógicos (pois é binário), de forma que uma célula MLC pode armazenar dois bits de informação. Isto permite o dobro da capacidade de armazenamento, no entanto torna a memória mais lenta, pois as operações de escrita devem ser feitas mais devagar para garantir a consistência de ambos os bits. Uma operação de escrita pode levar cerca de 1 ms, o que é um tanto lento para uma memória f lash, porém continua sendo muito mais rápido do que um HD. SLC Quando a performance é mais importante do que o volume de armazenamento, utiliza-se memórias do tipo SLC (Single2009 # 88 # PC&CIA

PC88_estado.indd 11

13/8/2009 17:02:55


Hardware Level Cell ) cujas células são binárias, armazenando apenas dois níveis lógicos, ou seja, apenas um bit por célula. É óbvio que este tipo de tecnologia apresenta menor capacidade de armazenamento, afinal reduzimos a quantidade de bits por célula pela metade. Como vantagens, cada célula é muito mais fácil de escrever, a probabilidade de erros diminui e o processo todo pode ocorrer mais rapidamente. Além disso, até o número de ciclos de programação suportados pelas células aumenta consideravelmente. Portanto, este tipo de memória é mais utilizado em aplicações onde custo e volume de armazenamento não são mais importantes do que performance e durabilidade. O maior cliente deste tipo de SSD é o mercado corporativo, com seus servidores com alto número de requisições.

Desgaste

12

Uma das características da memória Flash é que ela tem vida útil limitada. Cada vez que uma célula completa um ciclo de programação/deleção ela sofre um pequeno desgaste, e sua capacidade de reter informações diminui. Conforme o tempo passa e esta mesma célula é reescrita várias vezes, ela vai se desgastando até o ponto em que não consegue mais “segurar” informação digital. Neste ponto a célula fica inutilizada (mas não o SSD inteiro). A tecnologia MLC é especialmente sensível, tem uma durabilidade estimada em 10.000 ciclos. Células SLC resistem até dez vezes mais. Este desgaste não acontece em operações de leitura, apenas nos ciclos de limpeza/escrita, portanto uma informação pode ser lida infinitas vezes sem causar preocupação. Wear-Leveling A fim de evitar que este desgaste natural comprometa a durabilidade do SSD, os fabricantes lançam mão de um artifício chamado wear-leveling, que pode ser traduzido como “balanceamento de desgaste”. Esta técnica consiste em não permitir que uma célula seja repetidamente utilizada enquanto outras ficam ociosas. Por exemplo, digamos que um arquivo seja salvo em três blocos que chamaremos de 1, 2 e 3. Se o conteúdo deste arquivo for atualizado, seria razoável reescrevê-lo nos mesmos blocos. Mas digamos que este

arquivo seja um log atualizado a cada 5 minutos, os blocos 1, 2 e 3 seriam reescritos 288 vezes por dia, e portanto não durariam mais do que 35 dias. Aplicando a técnica de wear-leveling, ao invés de reescrever os blocos 1, 2 e 3, o SSD escreve o arquivo nos blocos 4, 5 e 6 e marca os blocos anteriores como livres. A próxima escrita será nos blocos 7, 8 e 9, e assim por diante. Ao invés de sobrecarregar algumas células com muitas escritas, o SSD distribui o estresse por toda sua superfície e só utiliza um bloco novamente quando todos os outros já tiverem sido usados. Como cada drive SSD tem centenas de milhares de blocos, isto eleva muito a vida útil do produto. Não há como prever exatamente quanto durará um drive, pois isto varia com o uso, mas podemos fazer uma continha bem simples: em um caso hipotético onde o SSD com células MLC tenha sua superfície inteira reescrita todos os dias, teoricamente elas durariam até 10.000 dias, ou seja, 27 anos. Já vimos anteriormente que o tempo de acesso é constante para todos os blocos, portanto não há penalidade de performance em se utilizar blocos espalhados pelo drive.

Futuro dos HDs

O fim dos HDs já é algo esperado há muito tempo. Utilizar um dispositivo mecânico para armazenar dados não é a forma mais elegante e eficiente de fazêlo, especialmente se considerarmos que o computador é um equipamento eletrônico, composto essencialmente por elementos de estado sólido. Nada mais natural do que levar isso ao subsistema de armazenamento de dados. Mas isto significa que as vendas de HDs devem parar? Ainda não. Drives de estado sólido ainda são caros, têm pouca capacidade e não são tão rápidos quanto poderiam ser. Por ora são produtos de nicho, especialmente indicados para equipamentos que necessitem de resistência a impactos, baixo consumo elétrico e baixo tempo de acesso. O HD teve muitas décadas de evolução e, apesar de ser o componente mais lento de um computador, tem uma relação custo/ benefício muito atraente. A transição entre as tecnologias começa agora, mas é difícil prever quando ele deixará de existir.

O mais provável no curto prazo é o surgimento de sistemas mistos, com um SSD de pequeno tamanho para o sistema operacional e um HD maior para armazenar os dados de maior volume. A Western Digital, por exemplo, lançou sua série de discos Green Power , que trazem controladores de velocidade que podem variar a rotação livremente entre 5400 rpm e 7200 rpm, buscando redução de consumo e de ruído. Esta série não tem sequer a intenção de competir em performance com os concorrentes, mas faz todo o sentido em um sistema misto, com os programas e o sistema operacional instalados em um pequeno SSD de 32GB e o restante dos dados armazenado em um HD Green Power de 1 TB. Um sistema assim apresentaria performance muito superior à de um sistema inteiramente baseado em discos.

Conclusão

O subsistema de armazenamento de dados é, hoje, o maior gargalo de performance de um sistema, especialmente dos de alta performance como os servidores. Libertar-se da interface mecânica era algo que todos queriam, mas infelizmente a tecnologia disponível não podia oferecer volume de armazenamento suficiente para justificar a mudança. Atualmente, os SSDs já oferecem capacidades razoáveis. O custo por gigabyte ainda é extremamente desfavorável se comparado com o dos HDs, mas podemos dizer que os SSDs atingiram “massa crítica” com capacidades que já são plenamente úteis, especialmente em sistemas mistos, com um disco rígido secundário para armazenamento de dados de grande volume. A diferença de performance é perceptível principalmente graças ao baixíssimo tempo de acesso, inferior a 1 ms na maioria das vezes. Alta vazão é importante para copiar e trabalhar com arquivos muito grandes, mas a maior parte dos acessos que um sistema realiza é a uma grande quantidade de arquivos pequenos que compõem o sistema operacional e os programas. E neste caso, o tempo constante de acesso proporcionado por um SSD representa ganho de usabilidade sensível Com certeza o próximo salto de performance dos computadores não está nos processadores com mais de quatro núcleos, nem nos barramentos triple-channel de mepc mória DDR3, mas sim nos SSDs.

PC&CIA # 88 # 2009

PC88_estado.indd 12

13/8/2009 17:03:02


el

Hardware

SSDs

Intel A Intel está entrando com tudo

13

no mercado dos SSDs. Saiba como a empresa pretende resolver um dos maiores “gargalos” de desempenho dos computadores modernos. Daniel Appel

P

oucos visualizam a Intel como um fabricante de dispositivos de armazenamento. De fato, nunca houve um HD com a marca Intel, mas a empresa não é novata no segmento das memórias Flash. O que melhor, então, do que utilizar sua expertise e influência neste segmento para tentar resolver (ou ao menos amenizar) um dos grandes gargalos de desempenho de um computador? Assim, surgiu a linha de SSDs X25, que vem impressionando pela excelente velocidade. Tivemos a oportunidade de testar dois modelos desta linha: o X25-M, direcionado ao consumidor final, e o X25-E, voltado para o mercado de servidores.

PC29AS21A

A Intel não é a criadora do conceito que está por trás dos SSDs, e muitas empresas já comercializam este tipo de produto há algum tempo. Entretanto boa parte destas empresas não desenvolveu sua própria tecnologia, tendo apenas adquirido controladoras de terceiros e simplesmente

montado o SSD com chips de memória de sua escolha, a fim de não perder o momento de mercado. Esta abordagem permite um custo de produção bastante baixo, mas tem como inconveniente nivelar a performance de todos os produtos pela da controladora. Um dos modelos de controladora mais utilizados do mercado é o JMF602, da Jmicron, que é conhecido pelo seu péssimo desempenho. Não é de se estranhar, afinal este modelo não tem mais do que 16 KB de cache, quantidade totalmente inadequada para um barramento SATA, e algoritmos de write combining meramente funcionais. A Intel optou por criar sua própria controladora, denominada PC29AS21A, e colocou nela uma quantidade decente de cache, 256 KB, além de bons algoritmos de write combining e wear leveling. Como resultado, o gargalo de desempenho deste dispositivo não é a controladora mas sim a própria memória NAND, e ainda por cima a controladora consegue extrair mais desempenho do conjunto ao executar escritas de forma inteligente. 2009 # 88 # PC&CIA

PC88_SSDIntel_v2.indd 13

13/8/2009 16:15:41


Hardware

SSD para F1. desktops.

X25-M

14

A versão para o mercado mainstream (provavelmente é por isso o sufixo “M”) tem uma tarefa complicada: precisa ser rápida e, ao mesmo tempo, oferecer grande capacidade de armazenamento (figura 1). Para atender a estes requisitos sem aumentar demasiadamente o custo do produto, foi utilizada a tecnologia MLC (Multi-Level Cell), que armazena dois bits em cada célula da memória Flash. Isto aumenta a densidade de dados e permite maiores capacidades de armazenamento. O lado negativo é que se torna necessário desacelerar um pouco as operações de leitura e escrita, afinal inserir dois bits por célula requer mais cuidado do que inserir um só. Dessa forma, apesar da maior capacidade de armazenamento, uma memória Flash MLC é naturalmente mais lenta, e uma operação de escrita pode levar cerca de 1 ms, o que é um tanto lento para uma memória flash, porém continua sendo muito mais rápido do que um HD.

mento, afinal reduzimos a quantidade de bits por célula pela metade. A vantagem é que cada célula é muito mais fácil de escrever, a probabilidade de erros diminui, e o processo todo pode ocorrer mais rapidamente. Não foi difícil constatar isto nos nossos testes.

Proposta

Como vimos, os SSDs da Intel são divididos em duas famílias: Mainstream e Extreme. Cada uma foi desenvolvida para atender a um tipo de uso diferente. Por pura e simples falta de informação, o consumidor eventualmente escolhe o produto errado e acaba por ficar insatisfeito. Como vimos, nem todo SSD é igual e devemos prestar atenção para escolher o ideal para cada caso.

Corporativo Servidores e workstations de alta performance precisam de grande velocidade de I/O, tanto em vazão quanto em tempo de acesso. Por isso frequentemente são usados arranjos RAID com HDs SCSI de 15 krpm, pois neste cenário vale a pena adquirir componentes de desempenho mais elevado (mesmo que custem mais) para atender a um número maior de requisições. O custo é alto, mas o ganho também é alto e se traduz em maior produtividade, gerando maior lucro. Hoje, nenhum SSD com células MLC consegue oferecer o nível de performance exigido pelo mercado corporativo, pois com a tecnologia atual um HD SCSI de alto desempenho ainda é superior. Já um modelo com células SLC acionadas por uma controladora eficiente pode oferecer vazões semelhantes a uma estrutura SCSI pré-existente, porém com tempo de acesso muito menor. Mesmo discos de alta performance não têm como fugir da sua natureza mecânica, e não conseguem oferecer tempos de acesso tão baixos. O desempenho é mais importante do que a capacidade de armazenamento. Muitos servidores trabalham perto do seu limite de troughput e é mais importante resolver o gargalo de desempenho do que do espaço de armazenamento (para resolver este, basta comprar mais um SSD). É por isso que os SSDs com células SLC são os mais indicados pois, apesar da capacidade de armazenamento ser inferior à da tecnologia MLC, sua velocidade é muito maior. E é em razão disso que a Intel concebeu o X25-E com células SLC, para atender este mercado.

Intel X25-E

O sufixo “E” desta família significa “Extreme”, e o leitor acertou se pensou que o propósito destas unidades é serem muito rápidas. A linha X25-E (figura 2) é voltada para servidores e aplicações onde performance máxima é mais importante que capacidade de armazenamento. Para tanto utiliza-se células SLC (SingleLevel Cell), que armazenam apenas um bit por célula. É óbvio que este tipo de tecnologia apresenta menor capacidade de armazena-

O X25-E foi criado para servidores. F2.

PC&CIA # 88 # 2009

PC88_SSDIntel_v2.indd 14

13/8/2009 16:23:01


Hardware

512B 2k 4k 16k 32k 128k 512k 2M 8M 32M 128M

X25-E 12992,2 6967,76 4435,23 3307 2688,05 1001,84 20,91 56,79 15,69 4,62 1,3

X25-M 1581 1514,71 1319,36 795,59 571,73 153,48 41,04 12,91 5,49 1,84 0,59

Raptor 121,75 120,77 120,49 116,57 112,6 92,36 60,06 24,07 6,53 1,73 0,41

T1. Operações de I/O por segundo

Consumidor O mercado de produtos para o consumidor doméstico ou profissional sem necessidade de alto desempenho é bastante diferente. Aqui o SSD não chama a atenção somente pela velocidade, mas também pelo silêncio de operação, resistência a impactos e economia de energia. Neste nicho a tecnologia de células MLC encontra seu lugar. Um desktop não é tão sensível ao tempo de leitura e escrita randômica de seu subsistema de armazenamento quanto um servidor, de forma que podemos abrir mão da velocidade da tecnologia SLC em prol da maior capacidade de armazenamento de um SSD baseado em células MLC. Aqui, a capacidade de armazenamento é mais importante que a performance. Para a grande maioria dos consumidores, a diferença de velocidade sentida entre as duas tecnologias não é suficiente para justificar menores capacidades de armazenamento, de forma que a tecnologia MLC acaba oferecendo um custo/benefício maior. Dos computadores de uso pessoal, duas categorias são especialmente beneficiadas pelo uso de SSDs: notebooks e netbooks. O conceito por trás da tecnologia de discos rígidos não é adequado para uso móvel, pois há a presença constante de vibrações, impactos, variações de temperatura e ainda por cima suprimento limitado de energia (por causa da bateria). Um SSD se mostra muito mais conveniente neste cenário.

Testes

Nada melhor para testar este tipo de dispositivo do que uma placa-mãe de servidor. Por isso foi escolhida uma Intel S3200SH equipada com um Xeon 3075. Esta placa conta com uma controladora de discos ICH9R, que suporta NCQ e apresenta bom desempenho. Para que o leitor possa comparar o resultado dos SSDs com um dispositivo já

Número de operações de I/O executadas por segundo. F3.

Tempo de acesso por tamanho de bloco. F4.

conhecido, colocamos no teste também um HD Western Digital Raptor WD740ADFD de 74 GB e 10.000 rpm. Este disco já figurou em inúmeros testes antes, e servirá como um bom “gancho” para que o leitor tenha um referencial de performance. O sistema operacional utilizado foi o Ubuntu Server 8.10, sem nenhum serviço em execução. Para gerar as operações de I/O foi executado o Iometer, que simulou algumas cargas escolhidas manualmente. A fim de evitar a influência de sistemas de arquivos, o Iometer foi configurado para realizar acesso direto aos dispositivos. Este teste é destrutivo, ele não respeita a formatação das partições, mas é a melhor maneira de comparar dispositivos de armazenamento pois mede o desempenho bruto, desconsiderando otimizações e overheads de sistemas de arquivos. Todos os resultados foram tabelados e plotados na forma de gráficos para facilitar o entendimento do leitor.

Operação randômica

Operações de natureza randômica são aquelas que não seguem uma ordem sequencial de disposição no disco. Para o disco Raptor utilizado como referência no teste, este tipo de carga é

extremamente desfavorável. Como as áreas de dados acessadas estão espalhadas pela superfície do disco, é necessário deslocar as cabeças de leitura a cada operação. No caso dos SSDs, como não se tratam de discos mas sim de matrizes de memória, acessos de ordem randômica não devem ser problemas.

15

Operações por segundo Podemos ver claramente no gráfico da figura 3, criado a partir dos dados da tabela 1, no qual são mostrados os números de operações de entrada e saída de cada dispositivo com vários tamanhos de blocos diferentes, que acesso randômico não é problema para os SSDs. O X25-E domina incontestavelmente com blocos pequenos, até 512 KB. Isto acontece porque o SSD tem baixíssima latência (como visto na figura 4) e não tem dificuldade alguma de acessar informações de forma não sequencial, ao contrário do Raptor, que precisa deslocar suas cabeças de leitura a cada nova operação. Repare que o X25-M também se mostra superior ao HD com blocos menores de 512 KB, apesar de não chegar perto do modelo Extreme. Mas o que acontece quando os blocos crescem acima dos 512 KB? Chegamos em um ponto onde os pacotes de dados 2009 # 88 # PC&CIA

PC88_SSDIntel_v2.indd 15

13/8/2009 16:14:28


Hardware

512B 2k 4k 16k 32k 128k 512k 2M 8M 32M 128M

X25-E 6,34 13,61 17,33 51,67 84 125,23 100,45 113,57 125,51 147,76 166,65

X25-M 0,77 2,96 5,15 12,43 17,87 19,19 20,52 25,83 43,91 58,89 74,96

Raptor 0,06 0,24 0,47 1,82 3,52 11,54 30,03 48,14 52,25 55,2 53,05

T2. Vazão de dados em MB

16

já estão com um tamanho suficiente para dependerem menos da latência e mais da vazão do dispositivo, pois, quando as cabeças de leitura chegam no seu destino, elas permanecem lá por tempo suficiente para lerem uma grande massa de dados de forma sequencial. E o Raptor sempre foi forte no quesito “vazão sequencial”. Isto significa que um SSD de uso corporativo como o X25-M consegue atender um número muito maior de requisições de dados, desde que eles sejam de pequeno tamanho. Conforme o tamanho cresce, o número de requisições atendidas por segundo cai consideravelmente e se aproxima do território dos HDs. Veja que o SSD X25-E continua sendo mais rápido, mas já não impressiona tanto. Uma matriz de discos rígidos com certeza atinge este nível de desempenho, especialmente se estivermos falando de discos SCSI corporativos. Mas para combater este arranjo, basta montar uma matriz RAID com alguns X25-E (situação que não tivemos oportunidade de testar) e o número de requisições atendidas por segundo crescerá proporcionalmente.

O número de operações de F6. I/O aumenta, mas nem assim o Raptor alcança os SSDs.

Vazão de dados para operações randômicas. F5.

Vazão Para terminar os testes com acessos randômicos, apresentamos o gráfico da figura 5 (e a tabela 2, de onde o gráfico foi gerado), onde vemos a vazão obtida com cada tamanho de bloco. Como esperado, tamanhos de bloco maiores oferecem vazões maiores, especialmente no caso do disco rígido. Este tipo de operação

com blocos de 512 bytes, o Raptor salta para mais de 2600 (figura 6) ao passo que os SSDs também mostram ganho, mas nem de perto na mesma proporção. Pode parecer um trunfo do HD, mas na verdade é uma demostração clara de fraqueza da tecnologia. Apenas quando os dados estão alinhados o HD consegue oferecer boa performance, enquanto os SSDs não dependem tanto desta organização.

Operação sequencial

Vazão Este é o melhor caso para um drive mecânico como o Raptor. Uma vez que suas cabeças tenham sido posicionadas sobre uma trilha do disco, basta aproveitar seus ótimos 10.000 rpm e ler as trilhas sequencialmente. Com operações pequenas, de 512 bytes, nem mesmo o X25-E foi capaz de apresentar alta vazão, mas isto é justificável pela natureza deste tipo de operação. Por outro lado, ele foi capaz de oferecer cinco vezes mais dados que o Raptor, e três vezes mais que o X25-M (figura 7). Em situações de gargalo,

Agora entramos em um território onde o disco rígido se sente mais confortável. Aqui o SSD perde a vantagem do tempo de acesso ínfimo, pois o HD não precisa mais mover suas cabeças de forma não ordenada. Operações por segundo O número de operações de I/O realizadas por segundo é substancialmente maior quando estas são sequenciais, principalmente no caso do disco rígido, uma vez que o deslocamento de suas cabeças é bastante reduzido. Das 120 operações por segundo

Este é o F7. melhor cenário para o HD.

PC&CIA # 88 # 2009

PC88_SSDIntel_v2.indd 16

13/8/2009 16:15:20


Hardware a capacidade de atender cinco vezes mais requisições pode ser muito importante. Fica claro que o X25-M, o modelo para uso em desktops, não é páreo para a versão corporativa. É importante que o consumidor saiba a diferença, do contrário pode acabar adquirindo o SSD mais barato para uso em um servidor e certamente ficará frustrado. No outro extremo, com operações de 128 MB, grandes o suficiente para mostrar a vazão de um HD, vemos uma situação diferente. Aqui o Raptor se recupera e ultrapassa o X25-M, e não por uma margem pequena. O X25-E impressiona novamente, mas este também é um caso onde dois discos rígidos em RAID podem oferecer desempenho semelhante, em muitos casos por preço menor, especialmente se a infraestrutura já existir. É importante ter em mente que aplicações que exijam alta vazão de dados podem também exigir alto volume de armazenamento, e isto o X25-E não oferece, de forma que o custo-benefício pode apontar na direção dos HDs, pelo menos por enquanto.

Conclusão

Com a linha X25 a Intel deixa claro que pretende eliminar o maior obstáculo do desempenho de um sistema atual. Também fica claro que nem todos os SSDs são iguais, eles podem apresentar características muito diferentes. O X25-M, por exemplo, é um produto muito viável para o usuário de um sistema desktop, pois apresenta performance muito superior á de um veloz Raptor para acessos randômicos de pequeno tamanho, e vazão de dados compatível com a categoria. Mas ele definitivamente não serve para uso em um servidor, e um bom disco SCSI apresentará desempenho superior. Já o X25-E fica no outro extremo. Ele é capaz de realizar um número muito alto de operações de I/O por segundo, o que permite que um servidor atenda mais requisições de usuários, aumentando sua eficiência. Mas sua capacidade de armazenamento é baixa, além do aceitável para o mercado desktop, seu preço é substancialmente maior e seu desempenho extra não é aproveitado por um sistema desktop.

Mas gostaríamos de deixar uma observação: neste artigo, a presença do Raptor serviu apenas para oferecer ao leitor um drive conhecido, que já participou de inúmeros testes na revista, de forma que o leitor possa comparar os resultados com o que ele já conhece. O Raptor utilizado é antigo e não representa a performance de discos rígidos mais modernos, a própria Western Digital tem drives mais velozes, isso sem falar nos modelos SCSI de alto desempenho. Se a oportunidade aparecer, colocaremos um SSD uso corporativo frente a frente com um bom disco SCSI. Os SSDs vieram para ficar e já são páreo para os discos rígidos. Mesmo para computadores de uso doméstico, o tempo de acesso baixíssimo aumenta a agilidade de resposta do sistema e reduz o tempo de espera enquanto o HD realiza operações randômicas nas quais ele é notoriamente lento. Mas é importante comprar o produto certo para cada caso ou, como sempre acontece em compras mal direcionadas, o consumidor sairá frustrado. pc 17

2009 # 88 # PC&CIA

PC88_SSDIntel_v2.indd 17

13/8/2009 16:15:28


Testes

Fusion-io ioDrive

O poder de processamento disponível nos computadores evolui a passos largos,

18

mas às vezes limitamos o desempenho devido a um sistema mal dimensionado de entrada e saída de dados. Analisamos Fusion-io ioDrive, que tem por objetivo diminuir esta deficiência nos sistemas de armazenamento.

M

Alfredo Heiss

Formado em Eletrônica e Técnico em TI, com mais de 10 anos de experiência nas áreas de hardware, sistemas operacionais para servidores e redes. Atualmente é membro da equipe de redatores da revista.

uitos servidores de grande porte que são atendidos por Storages, conjuntos de discos SAS ou Fibre Channel em RAID, acabam limitados, eventualmente, por estes componentes. Apesar de disporem de boa vazão de dados, da ordem de centenas de MB/s, para um grande número de requisições pequenas e randômicas, workload muito comum em servidores, o fator limitante não é a vazão e sim o tempo de acesso do disco, que representa o tempo que será necessário para que a cabeça de leitura do disco se desloque até a informação procurada e faça a leitura. Uma solução baseada em RAID costuma ajudar, mas muitas vezes o resultado ainda fica abaixo do esperado.

Para detalhar isto iremos estudar o caso do RAID 0 (striping), que divide as operações de leitura e escrita entre dois ou mais discos. Por causa desta distribuição dos dados, este modelo tem o melhor desempenho entre as soluções R AID. O ganho de desempenho para grandes transferências é irrefutável, já que o arquivo será dividido em vários pedaços menores e será lido (ou gravado) ao mesmo tempo de vários discos. Mas para um grande número de pequenos IOs, o ganho será muito menor. Todos os discos envolvidos no RAID terão que deslocar suas cabeças de leitura até as áreas nas quais as informações desejadas estão, ler uma pequena quantidade de informações, e se deslocar novamente para outras

PC&CIA # 88 # 2009

PC88_Fusion.indd 18

13/8/2009 17:03:39


Testes

19

F1. ioDrive de 80 GB.

áreas e assim por diante. Outros modelos de RAID, como 5 ou 10, sofreriam basicamente do mesmo problema, visto que neste caso não é a vazão total dos discos que está em jogo, mas sim o número máximo de solicitações atendidas.

Cache

A maneira mais rápida de solucionar este problema, comumente usada por DBAs (DataBase Administrators), é a uso da memória RAM como cache. Normalmente grandes servidores têm enorme quantidade de memória RAM e alocar parte dela para cache a fim de eliminar um “gargalo” do sistema se mostra muito proveitoso. Desse modo, as pequenas operações seriam feitas dentro da memória cache, e após terminadas as operações de leitura e escrita seriam encaminhadas em blocos maiores para o sistema de armazenamento, evitando IOs desnecessários sobre este.

Mas existem dois empecilhos que devem ser avaliados quando se for usar este tipo de solução. O primeiro é com respeito a segurança dos dados. Todos sabem que a memória principal do sistema é do tipo volátil, a informação armazenada nela depende de alimentação elétrica. Caso aconteça um erro no servidor, pane elétrica, ou erro de operação e este precise ser reiniciado bruscamente, todas as informações contidas no cache do sistema serão perdidas. Ao implementar este tipo de solução, o DBA deve estar ciente deste risco e calcular a melhor forma para minimizá-lo. O segundo é a quantidade de memória disponível no servidor. Apesar de a memória RAM ser um recurso relativamente barato, ele não é infinito. O uso deste recurso também deve ser analisado, pois caso seja necessário a adição de memória RAM no servidor deverá ser feito um estudo de compatibilidade para se tentar expandir ao máximo este recurso.

Independentemente da solução adotada, o ideal seria que tivéssemos dispositivos de armazenamento não voláteis com baixa latência na busca de informações, que pudessem atender o maior número de IOs possíveis. Este tipo de recurso já

B1: Flash NAND SLC SLC é um tipo memória não volátil baseada na tecnologia NAND. Significa Single-Level Cell ou célula com estado único. Este tipo de memória é conhecido por sua alta velocidade na gravação e leitura de informações, já que suas células guardam apenas um bit de informação, em compensação sua densidade é baixa. Construir equipamentos com alta capacidade de armazenamento com este tipo de memória é algo muito caro. Há um problema que afeta todas as memórias NAND. Com o tempo de uso, as células de memória perdem a capacidade de reter informações.

2009 # 88 # PC&CIA

PC88_Fusion.indd 19

13/8/2009 17:03:48


Testes existe e está se popularizando na forma dos SSDs. Enquanto o tempo de busca médio de HD SAS de 15.000 rpm é de 3,4 ms, um disco SSD tem uma latência média de 0,15 ms. Além do baixo tempo de acesso, SSDs apresentam consumo muito menor de energia. Existe ainda uma outra alternativa, um equipamento fornecido pela empresa Fusion-io, chamado ioDrive, que propõe um tempo de acesso de aproximadamente 50 µs (0,05 ms) para cobrir a deficiência de conjuntos R AID e/ou Storages. Segundo o fabricante, o ioDrive tem capacidade de atender mais de 20.000 requisições de IO por segundo e taxa de transferência de 700 MB/s.

ioDrive

20

Recebemos o modelo de 80 GB do ioDrive para avaliação (figura 1). A placa adota um formato Low Profile, acompanha dois espelhos para os formatos mais comuns de gabinete e um pendrive contendo drivers para Windows. Esta placa oferece suporte aos seguintes sistemas operacionais:  CentOS 4  CentOS 5  Debian Etch  Debian Lenny  Fedora 10  Fedora 9  Fedora 8  Fedora Core 6  OpenSuSE 10.3  OpenSuSE 11.1  RedHat Enterprise Linux 4  RedHat Enterprise Linux 5

 SuSE Linux Enterprise Server 10  SuSE Linux Enterprise Server 11  Ubuntu 8.04  Ubuntu 8.10  Ubuntu 9.04  Windows Server 2003  Windows Server 2008  Windows XP  Windows Vista No pendrive só estão disponíveis os drivers para Windows. Drivers para Linux devem ser baixados no site do fabricante (www.fusionio.com) e, caso não haja uma versão pré-compilada para o seu kernel, pode-se baixar o código-fonte. É importante ficar claro que, em todos os casos, existe a exigência de um sistema operacional de 64 bits. Não há suporte para sistemas de 32 bits. Da mesma forma que outros dispositivos de armazenamento de estado sólido, o ioDrive utiliza memória Flash. São utilizadas células SLC pela sua melhor performance, e uma controladora especializada assume a função de gerenciar estas células da forma mais eficiente que for possível. A comunicação com a placa-mãe é feita pelo barramento PCI-Express, utilizando quatro vias (x4). Este é um dos pontos mais fortes do ioDrive: ao contrário do que acontece com SSDs, mesmo os de alta performance, ele não é conectado a um canal SATA limitado em 3 Gbps, ou até mesmo a um canal SAS, portanto está livre das limitações presentes nestes tipos de interface. O desempenho pode ser muito maior do que o de um sistema de armazenamento típico.

LINUX Acesso 100% Randomizado – 80% Leitura

Como esta placa se propõe a atender uma def iciência de equipamentos de grande porte, como Storages, é natural que exista uma preocupação com a segurança das informações que estão sendo gravadas neste dispositivo. Por isso o ioDrive implementa um algoritmo de controle com ECC, que dá a segurança que os dados gravados estejam disponíveis por um tempo de até 24 anos. Apesar de se tratar de um modelo de 80 GB, há mais de 80 GB de memória Flash instalada na placa. Os gigabytes adicionais são usados para substituição de células de memória danificadas, e também pelo algoritmo de wear-leveling, para distribuir o desgaste e aumentar a vida útil do produto. Durante sua operação a placa está constantemente utilizando toda a memória instalada, mas oferece ao usuário sempre os 80 GB nominais. Isto garante que o algoritmo de wear-leveling funcionará corretamente mesmo quando o drive estiver quase “cheio”. O wear-leveling é feito alternando as escritas entre as células livres, evitando repetir escritas sempre nas mesmas células. Entretanto, quando há pouco espaço livre no volume, sobram poucas células para este procedimento, o que faz com que estas últimas sejam escritas incessantemente. Existem muitas maneiras de contornar este problema, e a quantidade de memória extra aumenta a superfície de troca das memórias, evitando um desgaste excessivo nos chips. A seguir a verificação dos dados fornecidos pela FusionIO.

Windows Server 2008 Acesso 100% Randomizado – 80% Leitura

Tamanho dos Blocos

Total I/O

Transferência MB/s

Latência Média de Acesso (ms)

Total I/O

Transferência MB/s

Latência Média de Acesso (ms)

512 B

25964,63

12,68

0,04

20755,63

10,13

0,05

2K

23397,31

45,70

0,04

18981,21

37,07

0,05

4K

17391,19

67,93

0,06

15945,44

62,29

0,06

16 K

5585,58

87,27

0,18

5389,4

84,21

0,18

32 K

3256,21

101,76

0,31

4238,77

132,46

0,24

128 K

1134,93

141,87

0,88

1269,13

158,64

0,79

512 K

310,1

155,05

3,22

371,95

185,97

2,69

2M

92,98

185,97

10,75

97,01

194,02

10,31

8M

26,85

214,78

37,23

27,9

223,22

35,82

32 M

8,76

280,24

114,17

7,86

251,63

121,13

128 M

2,24

286,45

446,81

2,13

272,36

469,2

T1. Resultados obtidos com leituras 100% randômicas, sendo 80% de leitura e 20% escrita.

PC&CIA # 88 # 2009

PC88_Fusion.indd 20

13/8/2009 17:03:56


Testes

Testes

Utilizamos o seguinte sistema para os testes do ioDrive:  Xeon 3075  Placa-Mãe Intel S3200SH  2x 1GB DDR2 800 Corsair  Western Digital Raptor 74 GB SATA  Windows Server 2008 64 bits  Ubuntu Server 8.04 LTS 64 bits A placa foi inserida no conector PCIExpress x8 disponível nesta placa-mãe da Intel. Após instalados os drivers para os sistemas operacionais do teste, o dispositivo foi detectado corretamente e iniciamos o teste usando o benchmark IOMeter. Todos os testes realizados foram feitos diretamente sobre o hardware da placa, sem a adição de filesystem ou partições, justamente para medir a sua capacidade bruta, sem a interferências de cache ou do sistema. A Tabela 1 nos mostra os resultados obtidos com acessos randômicos de leitura e escrita. Ficamos satisfeitos com os resultados obtidos nos testes de leitura e gravação aleatória. A placa com pequenos blocos de leitura, entre 512 B e 2 K, conseguiu atender mais do que as 20.000 requisições por segundo anunciadas pelo fabricante. Apenas como comparação, um disco SSD de alto desempenho com células SLC (mesmo tipo usado no ioDrive), nas mesmas condições de testes, consegue atender pouco menos de 13.000 requisições de leitura e escrita com blocos de 512 B. O ioDrive conseguiu 25.964, aproximadamente o dobro de desempenho. Outro resultado que merece destaque foi a vazão de dados oferecidas com blocos de informações maiores, chegando a uma taxa de 286 MB/s. Já a tabela 2 apresenta os resultados obtidos com acessos sequenciais ao ioDrive.

É natural, neste tipo de acesso, obtermos um resultado melhor do que no acesso randômico de informações. A tabela foi resumida aos principais resultados obtidos. Novamente a placa apresenta um excelente desempenho em atender volumes enormes de requisições pequenas de entrada e saída. Foram atendidas 46.732 solicitações de leitura e escrita por segundo com um tempo de acesso médio de 40 µs. Um disco rígido SATA de 10.000 rpm não consegue atender nem 10% deste volume de operações, e mesmo drives SSD de alto desempenho não rivalizam este tipo de solução.

Possíveis usos

Este nível de desempenho de I/O pode dar a um servidor a capacidade de substituir dois ou três outros servidores que ainda utilizem armazenamento em discos rígidos. Muitas empresas acabam por adquirir múltiplos servidores para implementar estruturas de load balancing a fim de reduzir o gargalo de I/O, mas com um ioDrive este cenário muda totalmente Por exemplo, o maior gargalo de um servidor de máquinas virtuais é o subsistema de disco, não tanto pelo volume de armazenamento mas sim pela natureza randômica das operações de disco solicitadas pelas várias máquinas virtuais. Chega-se rapidamente ao ponto em que o servidor fica lento não por falta de memória ou de capacidade de processamento, mas por um gargalo no sistema de discos. A solução mais tradicional é adicionar mais discos operando em paralelo, mas isto apenas ameniza o problema, não o resolve. A adição de um ioDrive pode, potencialmente, resolver o problema, permitindo que um servidor execute o dobro de máquinas virtuais, ou até mais, sem adquirir novos servidores.

LINUX Acesso 100% Sequencial – 80% Leitura

É certo que a capacidade de armazenamento deste dispositivo não é muito alta, especialmente se comparado com HDs modernos, que já atingiram os 2 TB e continuam crescendo. Dificilmente será possível armazenar todos os dados da empresa dentro de um destes dispositivos a um custo viável (existem versões de até 640 GB, mas o preço é naturalmente mais alto), entretanto, basta que ele armazene os dados mais acessados, como o banco de dados e as máquinas virtuais, para que o desempenho do servidor dê um salto. Dados menos acessados podem ficar em discos rígidos. Como sempre, o maior benefício será obtido pelos administradores que dimensionarem corretamente seus sistemas, utilizando um ioDrive para as operações pesadas, que precisam de acesso rápido, e discos rígidos para os demais dados.

Conclusão

A crescente demanda por informaçao cria a necessidade de se planejar todo o ambiente de TI para atender este grande volume de requisições. Existem técnicas que podem ser aplicadas para melhorar o desempenho dos servidores ou dos bancos de dados, mas em muitos casos este tipo de técnica não pode ser aplicado ou não oferece o ganho de desempenho necessário. Muitas vezes, disperdiça-se enormes quantidades de dinheiro adquirindo todo um conjunto de servidores e storages para atender esta demanda, quando a simples adição de um dispositivo de armazenamento de estado sólido de alto desempenho, como o ioDrive, pode eliminar o gargalo de performance e permitir que um servidor substitua dois ou três outros que ainda utilizem armazenamento mecânico. A diferença de custo é enorme, e o tempo de implementação é muito pequeno. Os pc benefícios são imediatos.

21

Windows Server 2008 Acesso 100% Sequencial – 80% Leitura

Tamanho dos Blocos

Total I/O

Transferência MB/s

Latência Média de Acesso (ms)

Total I/O

Transferência MB/s

Latência Média de Acesso (ms)

512 B

46731,98

22,82

0,02

38309,19

18,71

0,03

4K

21885,82

85,49

0,05

21824,57

85,25

0,05

128 K

1390,34

173,79

0,72

1518,6

189,83

0,66

32 K

9,58

306,63

104,35

9,61

307,56

103,92

128 K

2,63

336,03

380,74

2,74

350,94

364,65

T2. Resultados obtidos com leituras 100% sequenciais, sendo 80% de leitura e 20% escrita.

2009 # 88 # PC&CIA

PC88_Fusion.indd 21

13/8/2009 17:04:02


Testes

SSD Popular Como montar, instalar e configurar um 22

Solid State Disc (SSD) contruído com adaptadores e cartões de memória tradicionais. Adaptador de F1. baixo custo

P

or muito tempo convivemos com restritas opções de armazenamento de dados. O HD ainda domina a tecnologia e segue como um dos últimos dispositivos mecânicos indispensáveis ao PC. Mas, eis que surge no mercado, com crescente força, o Solid State Disc (SSD) inaugurando um novo patamar de armazenamento para PCs e, para muitos, anunciando breve aposentadoria aos HDs. Basicamente, o SSD é um tipo de dispositivo sem partes móveis para armazenamento não volátil de dados digitais.

João Carlos Cé Bassanesi

Médico especializado em Psiquiatria e pósgraduado em Saúde Mental e Atenção Psicossocial. Membro do Departamento de Informática da ABP - Associação Brasileira de Psiquiatria. Consultor em TI para médicos.

Construído em torno de um circuito integrado responsável pelo armazenamento, diferindo, portanto, dos sistemas magnéticos (HDs) e óticos (CDs). Os SSDs utilizam memória RAM ou memória flash como unidade de armazenamento. As taxas de transferência dos SSDs (na maioria dos modelos) são equivalentes às de um HD modesto. Seu mais importante diferencial, entretanto, é o baixo tempo de acesso, que reduz bastante o tempo de boot e de acionamento de aplicativos. Outros méritos são a redução do consumo de energia e sua resistência física. Porém, para os padrões atuais de mercado e aplicação, os dispositivos SSD ainda são caros se comparados a dispositivos magnéticos. Modelos mais modernos, com alguns problemas das gerações inicias corrigidos, acenam com performances bem melhores. Recentes quedas de preço, e a melhora da performance e capacidade, começam a atrair usuários para essa nova opção de armazenamento.

SSD Popular

No projeto de construção do SSD “popular”, utilizamos como base um adaptador que permite conectar um cartão de memória flash ao PC via porta SATA (existem adaptadores IDE e PCI também). A semelhança do SSD “popular” com os de mercado é incrível. Temos basicamente o mesmo princípio de construção e aplicação: uma placa controladora, a memória flash e a interface SATA. O diferencial está por conta da tecnologia da controladora e da construção direcionada dos SSDs de mercado, o que se reflete em sua melhor performance frente à controladora “adaptada” utilizada no SSD montado por nós. O grande atrativo do projeto é a experimentação da nova tecnologia proporcionada pelos SSDs a um custo relativamente baixo e com componentes acessíveis ao consumidor brasileiro. Além disso, é uma porta de entrada rápida para a tecnologia que promete destronar os discos rígidos.

PC&CIA # 88 # 2009

PC88_SSD.indd 22

13/8/2009 17:04:42


Testes

Hardware necessário

As principais limitações da construção residem no custo da memória utilizada, tanto melhor quanto maior desempenho e armazenamento, o que acaba por elevar o preço final do dispositivo e pelas limitações do adaptador que não apresenta o desempenho final de um SSD nativo. Como regra para definição da capacidade do SSD versus o SO utilizado temos para o Windows XP no mínimo 2 GB de memória, sendo o ideal 4 GB. Se a opção for pelo Windows Vista, o mínimo aceitável são 8 GB e o ideal 16 GB elevando o seu custo final. O adaptador O mercado oferece uma vasta gama de adaptadores para memórias FLASH com interface SATA, IDE e até PCI. Existem adaptadores para um ou mais cartões de memória como Secure Disc (SD) e Compact Flash (CF). Estes produtos são cada vez mais comuns em lojas online. O adaptador CF-SATA escolhido (figura 1) permite ligação de um cartão CF (memória muito usada em câmeras digitais profissionais pela sua rapidez) que passa a ser reconhecido como um disco SATA comum. O adaptador é pequeno e pode

ser instalado em notebooks e em desktops. O padrão SATA usa as mesmas conexões para discos de todos os tamanhos (ao contrário do padrão IDE). O cartão A escolha do cartão de memória deve recair sobre modelos mais rápidos, garantindo melhor performance do dispositivo. Cartões CF de 266X e os novos de 300X constituem as melhores escolhas. Para este projeto focamos a solução para Windows XP com um cartão CF Transcend 300X de 4 GB (figura 2), tendo como objetivo o baixo custo aliado a um bom desempenho.

Montagem

A montagem dos componentes é extremamente simples e intuitiva. Basta acoplar o cartão CF ao adaptador e este ser ligado ao cabo de energia e de dados SATA já dentro do PC, e pronto! Mais fácil, impossível. Alguns adaptadores são encaixados diretamente nos conectores IDE ou SATA, enquanto outros são ligados através de cabos. Existem alguns que acompanham uma placa de fixação para baias de 2,5”, ou um espelho para fixação na parte traseira

do gabinete em um slot PCI. Portanto, a forma de acomodação da peça dentro do computador pode variar. Na pior das hipóteses, o adaptador virá sem qualquer forma de fixação e o leitor precisará usar um pouco de criatividade na sua instalação. A sugestão neste caso é usar uma caixa própria para circuitos eletrônicos, facilmente encontrada no mercado.

Funcionamento

O aparelho é reconhecido pelo BIOS como um dispositivo SATA comum. A instalação do Sistema Operacional (utilizamos o Windows XP) é feita normalmente, como em qualquer HD tradicional. Para melhorar o desempenho do SO, algumas otimizações devem ser implementadas visando evitar excesso de escritas sobre o CF e reduzir o chamado footprint (as “pegadas ou rastros” deixados pelo sistema). O objetivo é tentar deixar o SSD direcionado somente para leitura, usando outro dispositivo para a escrita e para os programas adicionais. A fim de obter isto, o sistema Windows XP foi modificado pelo programa nLite, ficando menor e mais enxuto, mas mantendo todas as funcionalidades (mais informações no Box 1).

23

F2. CompactFlash de alta velocidade.

2009 # 88 # PC&CIA

PC88_SSD.indd 23

13/8/2009 17:04:49


Testes

F4. Resultado do teste com HDTune

F3. Performance aferida com o HDTach

24

O objetivo é ocupar o menor espaço possível no CF com a menor quantidade de arquivos e programas. A pasta “Meus Documentos” foi movida para uma partição em outro HD (um disco rígido de verdade), onde também foram instalados todos os demais programas. O recurso de recuperação do sistema foi desabilitado, a pasta de e-mails foi redirecionada e o arquivo de memória virtual também foi relocado. Essas otimizações são importantes para o sucesso do projeto.

Box 1: nLite O programa nLite (http://www.nliteos. com) permite a criação de uma instalação personalizada do Windows. Vários itens podem ser modificados, removidos ou adicionados. Podem ser excluídos drivers, programas e outros componentes não usados, ou integrados novos drivers, atualizações ou programas à instalação original. Toda a estrutura do XP pode ser “tunada” e sua instalação automatizada. O programa é facilmente instalado (requer apenas o .NET Framework 2) e é bem intuitivo. As modificações são divididas em etapas bem explicadas. Existem opções de salvamento e recuperação das alterações feitas. Para inciar o uso tenha em mãos o CD original do XP e a chave serial usada. Vários tutorias na internet dão mais detalhes sobre o uso do nLite, uma ferramenta muito interessante para “enxugar” o XP.

Para evitar perder o trabalho todo caso o Windows se corrompa, é recomendável fazer backup com programas especializados, tais como o Norton Ghost ou o Clonezilla. A recuperação é muito rápida, uma formatação/reinstalação/reconfiguração que levaria horas acontece em menos de 10 minutos.

Testes

Os testes comparativos foram feitos em um computador baseado no processador Core2Quad Q9450, placa-mãe Asus P5QE com 4 GB GSKILL DDR2 1000 MHz de memória e um HD Samsung HD502IJ SATA II de 500 GB. Notamos taxas de transferência abaixo das de um HD comum. O grande diferencial fica no baixo tempo de acesso, critério muito importante que, além de reduzir bastante o tempo de boot (tabelas 1 e 2 ), torna o SO extremamente disponível para as aplicações. Como podemos ver nas figuras 3 e 4, a velocidade de leitura do HD é bastante superior à do nosso dispositivo de armazenamento de estado sólido. Mas, por que o tempo de boot melhora tanto com o uso do “SSD”? Tempo de carregamento do Windows CF Transcend 300X

15,4 s

Samsung HD502IJ

22,3 s

Tempo total de boot CF Transcend 300X

26,5 s

Samsung HD502IJ

36,1 s

A resposta pode estar no tempo de acesso muito baixo e na velocidade linear do SSD, que formam o diferencial necessário para a melhora de desempenho obtida. Outro fato que ponderamos é o “isolamento” do SO em uma unidade dedicada (no caso o SSD) que corre em paralelo com os aplicativos acionados em outro HD, o que também pode influenciar na melhora de performance do sistema.

Conclusão

Toda a expectativa criada com a construção do “SSD popular” foi recompensada pela melhora obtida e mais, pelo prazer de estudar e experimentar uma nova tendência a um preço bem conveniente ao bolso. Na prática, obtivemos um SO que carrega muito mais rápido e uma resposta mais imediata dos aplicativos utilizados (mesmo aqueles instalados em outros HDs). O sistema todo ficou mais “esperto”. O dispositivo está funcionando no referido computador desde outubro de 2008 e já conta com muitas horas de uso sem apresentar defeito algum. Assim, mãos à obra e rumo à tecnologia que promete virar padrão de armazenapc mento muito em breve. T1. Tempo de inicialização do Windows XP

T2. Tempo total de inicialização da máquina, contando o tempo do POST

PC&CIA # 88 # 2009

PC88_SSD.indd 24

13/8/2009 17:04:57


PC85_Editorial.indd 5

23/1/2009 09:29:36


Hardware

Alguns cuidados com discos rígidos comprados pelo grey market Finalmente meu HD novo chegou... 26

Comprou um disco novo? De revendedor autorizado? Não?! Então, preste atenção aos casos relatados aqui para poder evitá-los.

Marcus Brandão de Moura

Bacharelando em Sistemas de Informação. Certificado Nexans em cabeamento e D-Link DBCex e DBC, atualmente compõe a equipe de redatores da revista.

Invariavelmente, vai chegar um momento em que precisaremos de um novo disco rígido. Certamente este novo componente terá capacidade de armazenamento superior ao seu antecessor, caso ele vá substituir o disco atualmente em uso, ou então, um disco adicional está sendo adquirido. Neste caso, a capacidade de armazenamento já não é o ponto principal a ser analisado. Independentemente de qual for a situação, precisamos prestar atenção a algumas coisas não muito boas que estão ocorrendo com muitos discos rígidos SATA vendidos a preços baixos pelo chamado grey market. É comum encontrarmos no Brasil muitos discos rígidos sendo vendidos no mercado cinza. Em segundo lugar vem o mercado legal, original do fabricante, e por último o mercado negro. Pelo menos esta é uma boa notícia. Como vimos o grey market não é necessariamente ilegal ou imoral, ele só não mantém as características originais de garantia e suporte técnico do fabricante. Nesse sentido, esse tipo de produto acaba saindo mais barato, principalmente se considerarmos um preço de compra inicial mais baixo e a ausência da embalagem original do mercado varejista.

Por falar em embalagem, esta é muito importante em um disco rígido. Os discos rígidos atuais são bem resistentes podendo atingir até 350 g de choque mecânico, mas eles foram projetados para serem transportados em uma embalagem que oferece um excelente acondicionamento, proporcionando redução e controle de umidade, temperatura e choques mecânicos.

Box 1: “Cores” do mercado O chamado white market (mercado branco) é formado pelas vendas de produtos a partir da rede de distribuidores autorizados pelos fabricantes e/ou seu varejistas credenciados. Nesse tipo de mercado, a garantia original do fabricante é repassada integralmente. Já o grey market (mercado cinza) é formado pela venda de produtos originais obtidos a partir de grandes compradores OEM que não conseguiram dar saída em todo o quantitativo dos produtos e resolveram vender o excedente no mercado. Esses produtos não costumam ter a garantia original do fabricante e às vezes nem mesmo o suporte técnico o contempla. O segmento que sobrou é o black market (mercado negro). Esse sim, é desleal e perigoso. Trata-se da comercialização de produtos falsificados, muitas vezes contrabandeados. Garantia?! Suporte técnico?! É melhor não esperar por isso.

PC&CIA # 88 # 2009

PC88_discos.indd 26

13/8/2009 17:05:48


Hardware Uma característica intrínseca do grey market é que o disco rígido fará mais viagens para chegar até o cliente final do que os produtos do mercado branco, com isso, esse produto sofrerá uma maior quantidade de choques mecânicos, será exposto a uma variação de temperatura sem controle e poderá ser estocado ou transportado em ambientes úmidos. Qual a consequência disso?

Meu HD está meio esquisito

O que pode ocorrer com um disco do mercado cinza pode ser representado por problemas relacionados a um manuseio excessivo e descuidado. Só isso? Não. Isso faz toda a diferença. Outro detalhe desse tipo de manuseio recai sobre aquela conhecida prática dos

revendedores e lojistas aplicarem etiquetas adesivas como forma de controle de garantia. Com isso, faz-se necessário violar a embalagem plástica antiestática, a última proteção do disco rígido. As boas empresas fazem seus controles de garantia pelos números de série e códigos dos modelos dos discos rígidos, método muito eficaz, uma vez que não existem dois números de série iguais de um mesmo modelo de disco rígido. Essas informações vêm impressas na etiqueta do disco e também na etiqueta do saco anti-estático, tornando desnecessária a violação da embalagem. Entretanto, há quem abra a embalagem e curiosamente conecte o disco rígido a um computador sob o pretexto de ver se está funcionando bem. Muito zelo, não é mesmo? E que mal há nisso?

F1. Conector macho de alimentação de um disco SATA avariado.

Este, ilustrado na figura 1. Observe atentamente a figura. Note dois detalhes: o primeiro é que o dente, trilho ou projeção plástica, como queira, do conector de alimentação SATA (o mais largo) está quebrado. Compare-o com o conector de dados. Pois bem, é justamente essa projeção que impede que o conector de alimentação saia de sua posição correta ou ainda que não encaixe corretamente. E se acontecer dessa projeção quebrar e o conector deslocar-se de posição e for energizado posteriormente? Agora vamos notar o segundo detalhe. Houve um curto-circuito entre os pinos 3 e 4. A contagem dos pinos é feita a partir da projeção plástica, à esquerda, de acordo com a figura 1. Os três primeiros contatos são +3,3 VCC (laranja), os três seguintes são terra da fonte (preto), após isso vem mais três com +5,0 VCC (vermelho), mais uma “camada” com três contatos de terra da fonte e finalmente os três contatos de +12,0 VCC (amarelo). Não precisamos dizer que esse curtocircuito só foi possível graças à quebra da projeção plástica que impediria o deslocamento do conector de alimentação. E agora, o que aconteceu com o disco rígido? Qualquer um pode dizer que trata-se de perda total e que quaisquer R$ 10,00 obtidos na venda de um disco desses pode ser “lucro”. Isso está errado, esse disco pode estar em perfeito estado de funcionamento. Bem, mas e o curto-circuito? Não houve avaria? Em muitos casos não, porque os discos rígidos destinados a ambientes domésticos e de micro e pequenas empresas não são utilizados em perfis que exijam hot swap ou hot plug, com isso, a linha de +3,3 VCC acaba ficando sem sua principal função. Experimente utilizar um daqueles conhecidíssimos adaptadores de conectores da fonte de alimentação para alimentação SATA, sem o fio laranja (figura 2). Vá em frente, provavelmente vai funcionar. Excelente! Salvamos o disco rígido comprado pelo grey market! Não é mesmo? Bom... Não necessariamente. Ainda existem os perigos invisíveis, como as exposições descontroladas a umidade, temperatura e choques mecânicos. Então, o disco ainda pode estar avariado? Infelizmente sim.

27

2009 # 88 # PC&CIA

PC88_discos.indd 27

13/8/2009 17:05:58


Hardware

F2. Adaptador de alimentação SATA sem os 3,3 VCC. 28

Mas veja bem, se desta vez talvez não possamos curar o seu disco, pelo menos podemos verificar se realmente ele está com problemas. Isso só pode ser feito com ele em funcionamento. Inicialmente ligue o seu disco rígido na posição horizontal, com a face do circuito virada para baixo. Faça isso do lado de fora do gabinete. Concentre-se em ouvir curtos ruídos secos (se os ruídos forem longos e agudos, o disco já foi...). Você poderá tornar essa tarefa muito mais fácil se puder utilizar um estetoscópio neonatal. Não é caro e ajuda muito a ouvir todos os ruídos do disco rígido. O disco parece bem? Então prossigamos com um teste de desempenho bem revelador, usando o HDTach 3.0 que pode ser baixado em (http://www. simplisof t ware.com /Public /index. php?request=HdTach). Instale e execute o software de forma que ele faça um teste no disco em questão. Observe a figura 3. Note que a curva do gráfico ía decrescendo de forma suave até que de repente mergulha vertiginosamente e volta a patamares mais normais. Isso é preocupante. Capture, salve esta tela

e desligue o computador. Espere uns 20 minutos e ligue seu sistema novamente de forma a repetir o teste. Caso essa queda abrupta no gráfico se mantenha presente, mesmo que em diferentes pontos da curva, é conveniente executar o software de diagnóstico do fabricante. Conseguimos um candidato ideal para isso, nosso disco de teste, um Seagate Barracuda 7200.11 modelo ST31000333AS foi comprado no grey market e já chegou com problemas. Só que piorou bastante em menos de duas semanas, veja só a figura 4. De fato, o disco parecia morto mesmo, como gostaríamos para este artigo. Baixamos então o software Seagate Seatools (http://www.seagate.com/ww/v/index.jsp?locale=en-US&name=seatoolswin-eula&vgnextoid=d0d51d4dad65 1110VgnVCM100000f5ee0a0aRCRD) para fazer um diagnóstico completo no disco. Quando o amigo leitor precisar fazer esse teste, prepare-se com muita paciência porque leva mais de quatro horas em um disco de 1 TB. A figura 5 mostra o disco em questão sendo testado pela opção “teste automático

completo”. Após esse teste, o disco pareceu se comportar melhor. Como não tínhamos nada importante gravado nele, realizamos o “teste avançado”, que não oferece garantia da continuidade dos dados gravados no disco após o teste. Ao final desse teste avançado, após compras no supermercado,

Box 2: Problema com discos Seagate? É verdade, alguns discos Seagate da linha Barracuda 7200.11 apresentaram problemas de desempenho e compatibilidade com algumas controladoras. Meio chato, mas de fácil solução. Os discos afetados são de 160, 320, 640, 1000 e 1500 GB e podem ser melhor identificados mediante a utilização do software Drive Detect (http://support.seagate.com/kbimg/utils/drivedetect.exe). Se o seu disco Seagate precisar de atualização de firmware, que corrigirá o problema, visite a página (http:// seagate.custkb.com/seagate/crm/ selfservice/search.jsp?DocId=207 957&Hilite=) para maiores detalhes de como fazer. Boa sorte, mas não se preocupe, é bem simples.

PC&CIA # 88 # 2009

PC88_discos.indd 28

13/8/2009 17:06:05


Hardware

F3. Queda abrupta no desempenho. Preocupante.

29

banho no cachorro, janta preparada e uma sessão de cinema, o disco ficou limpo e nenhum erro foi reportado. O teste com o HDTach foi muito bom. Então o disco está curado? Calma, não é bem assim. Internamente ele pode estar com avarias que se refletirão em desgaste acentuado de forma prematura, normalmente sobre o atuador. Use o disco, mas mantenha o anterior como backup. Se for acionar a garantia, espere ele apresentar um pouco mais de defeito, mas cuidado para não perder o prazo da garantia. Os seis primeiros meses de um disco rígido são suficientes para que se diga se o disco vai ou não apresentar defeito.

Lá se vai F4. o disco...

Conclusão

Procure testar o seu disco periodicamente e compare os resultados obtidos, como nas figuras 3 e 4. Discos rígidos não se curam. O nosso, utilizado nos testes, nunca será confiável, mesmo parecendo estar tudo bem, por isso estaremos sempre monitorando sua pc atividade. Até a próxima.

F5. Disco em teste.

2009 # 88 # PC&CIA

PC88_discos.indd 29

13/8/2009 17:06:13


Hardware

el

Samsung 30

ML-2010 Impressora Laser

econômica e recarregável Em tempos em que a economia e o respeito ao meio ambiente são fatores importantes na aquisição de produtos, uma impressora com toner recarregável se encaixa bem nos atuais cálculos de custo-benefício. Renato Paiotti

N

o painel do seu carro você nota que o combustível está no reserva, você para no posto mais próximo e estaciona sobre um macaco hidráulico, onde o frentista levanta o seu carro. Com diversas ferramentas ele começa a remover o seu tanque de gasolina, juntamente com a bomba de combustível e bicos injetores, coloca bicos novos, uma bomba nova e um tanque novo porém cheio de combustível. Pode parecer absurdo mas é assim que funciona a maioria das impressoras a laser, onde a cada recarga de toner que o usuário tem que fazer, troca-se todo um conjunto de cilindros, engrenagens e repositório de toner só para ter as mesmas peças porém com o repositório cheio. Mesmo que exista no mercado uma certa quantidade de empresas que remanufaturam estes toners, ou a própria empresa recicle este

material, nem todos são reaproveitados e acabam indo para o lixão municipal. Outro fator é o econômico, pois não pagamos pelo refil do toner e acabamos pagando pelo conjunto inteiro (cilindro e engrenagens) que estavam novos no refil anterior. Aproveitando para atender a necessidade dos usuários que estavam à procura de um meio mais barato de adquirir uma impressora a laser, a Samsung lançou a ML-2010, que tem o toner recarregável. No site do fabricante não existe a informação de que o cartucho que compõe a impressora é recarregável. O procedimento de troca indica que o usuário deve abrir a impressora, remover o cartucho vazio, colocar um novo e fechá-la, não mencionando nada sobre a recarga. Porém, é possível adicionar somente o toner, sem a necessidade da troca do refil.

PC&CIA # 88 # 2009

PC88_Samsung.indd 30

18/8/2009 10:35:39


este é Atom, o menor processador da Intel.

Hardware

F1. Botão Toner Save aciona o modo de impressão econômica.

Características da impressora

A ML-2010 tem uma velocidade de 22 ppm (páginas por minuto), sendo que a primeira página começa a ser impressa em menos de 10 segundos. Outra característica importante desta impressora é que o acesso ao cartucho do toner é pela parte frontal do equipamento, facilitando a vida do usuário na hora da troca , ou quando for necessário remover algum papel atolado. Caso o papel fique preso depois de ter passado pelo cilindro, existe uma tampa na parte superior que pode ser aberta para removê-lo. Esta impressora tem sido muito bem aceita pelo mercado por apresentar suporte a todos os principais sistemas operacionais. Além do Windows XP e Vista, há drivers para o Windows 98/ME e ainda suporte oficial ao Mac OS e ao GNU/Linux, oferecendo os drivers no próprio CD que acompanha a impressora, e também no site. O driver para Linux é o mesmo da Samsung ML-4500, que já acompanha a base de drivers Foomatic usada no CUPS, portanto sequer precisamos do CD para configurar a impressora em nosso laboratório. O funcionamento da impressora, tanto no Windows XP quanto no Linux, foi exemplar. Outro item importante é o prático botão Toner Save (figura 1), que aciona o modo de impressão econômica, reduzindo

F2. Refil de 80 gramas, junto do cartucho original da impressora.

a quantidade de toner aplicada no papel e aumentando a autonomia da impressora em até 40%. Este recurso remete ao botão “Draft” presente em impressoras jato de tinta mais antigas, a impressão fica um pouco mais fraca mas gasta-se menos tinta, ou toner, neste caso. Com seu formato compacto ela se encaixa bem nos padrões home/office, com baixo ruído e duas bandejas de suporte de papel.

O Refil

O refil pode ser encontrado em garrafinhas contendo 80 gramas para uma simples recarga, que custam em média de R$ 10,00, ou em garrafinhas com 1 kg que recarrega o cartucho por até 12 vezes - por R$ 70,00. O refil que utilizamos neste artigo foi o de 80 gramas (figura 2), adquirido na eLaser (www.elaser.com.br).

Recarregando o toner

Para a recarga do toner é importante ter em mente a sujeira que pode ocorrer caso algum movimento em falso aconteça, pois o pó do toner é muito fino. Por este motivo, separe uma mesa para esta tarefa. Feita com todo o cuidado, a sujeira será mínima, o máximo que pode acontecer é sujar as pontas dos dedos.

Remova o cartucho da impressora, sempre com cuidado, pois o cilindro é sensível. Há uma alça específica para remoção e instalação do cartucho. Depois, com uma chave philips solte os dois parafusos da tampa lateral direita que protege as engrenagens (figura 3). A tampa que protege o reservatório lembra uma tampa de garrafa de produto de limpeza, ou seja, ela não é rosqueável, e sim por pressão. Remova-a com cuidado, lembrando de deixar o cartucho na posição vertical para não deixar escapar o pouco de toner que resta no reservatório, a fim de evitar sujeira. Veja a figura 4. Agora que você já conhece o segredo para abrir o cartucho, basta realizar a recarga. Antes de colocar o toner novo, elimine o restante do antigo dando leves batidas no cartucho para que ele se solte mais facilmente. Para colocar o toner novo, utilize um pequeno funil, que pode ser feito com uma folha de papel, e acrescente o conteúdo inteiro da garrafa no reservatório. Para encher o reservatório da ML-2010, 80 gramas são suficientes. Feche a tampa do reservatório e, com um pincel, limpe eventuais vestígios de toner na parte externa do cartucho antes de recolocar a tampa lateral com os dois parafusos.

31

2009 # 88 # PC&CIA

PC88_Samsung.indd 31

18/8/2009 10:39:27


um produto que irá se beneficiar de um Atom Z500.

Hardware

F3. Removendo a lateral do cartucho.

32

Insira o cartucho na impressora e feche a tampa dianteira. Imprima uma página de teste e pronto. É importante, durante a recarga, evitar tocar no cilindro verde para não manchálo com a gordura ou sujeira que temos nas mãos, pois isto pode danificá-lo ou diminuir a qualidade da impressão. Eventualmente o cilindro precisará ser trocado, como em qualquer outra impressora, mas ele também está disponível separadamente nas lojas especializadas. O preço é bem em conta.

Conclusão

Para uso pessoal ou profissional, a Samsung ML-2010 se mostra uma das opções mais atraentes do mercado. A qualidade de impressão está no mesmo nível das concorrentes, a velocidade é boa e ela não é especialmente barulhenta. Não é todo dia que temos a oportunidade de testar uma impressora que funcione nativamente em sistemas GNU/Linux e, ainda por cima, ofereça a possibilidade de recarregar o toner facilmente. Micro e pequenas empresas certamente encontrarão na ML-2010 tudo o que procuram em uma impressora de qualidade. Apesar de custar em média R$ 450 (as concorrentes custam R$ 300), a capacidade de recarga do toner faz toda a diferença. Após a segunda recarga já recuperamos a diferença de valor, e daí em diante só teremos economia. pc

Removendo F4. a tampa do reservatório.

PC&CIA # 88 # 2009

PC88_Samsung.indd 32

13/8/2009 17:05:29


Hardware

33

2009 # 88 # PC&CIA

PC88_Samsung.indd 33

14/8/2009 09:37:00


Hardware

34

Mega IPM31 Avaliamos a placa-mãe Mega IPM31, um novo produto

da Mega Ultimate Technology, voltado para os integradores que desejem um produto com um bom desempenho e baixo custo.

E Alfredo Heiss

Formado em Eletrônica e Técnico em TI, com mais de 10 anos de experiência nas áreas de hardware, sistemas operacionais para servidores e redes. Atualmente é membro da equipe de redatores da revista.

stá estreando no mercado brasileiro uma nova marca, a Mega Ultimate Technology, com placas de baixo custo, oferecendo uma opção de placas para os integradores de computadores com garantia e suporte nacional. Por trás, na fabricação desta nova marca, se encontra a Digitron. Para os leitores que ainda não conhecem o nome Digitron, este é um dos maiores fabricantes nacionais de placas. Hoje emprega mais de 1200 funcionários e o seu centro fabril se encontra na Zona Franca de Manaus. Se você já comprou ou compra placas-mães das marcas Gigabyte, SuperMicro ou Intel fabricadas nacionalmente, provavelmente está levando para casa um produto da linha de produção da Digitron. No ano 2007 a Digitron decidiu investir na fabricação de produtos com marca própria, desta iniciativa nasceram as marcas PCWARE e MEGA. A distribuição

destes produtos no mercado nacional é feita através de uma rede de revendas que já atendem todo o Brasil. Em breve o leitor terá em mãos algumas placas destas marcas, como a IPM31, que foi cedida para testes no nosso laboratório.

Detalhes

Esta placa é destinada ao mercado de baixo custo, onde integradores buscam um produto acessível e que proporcione um bom desempenho. Como a produção é nacional, o integrador também ganha uma garantia maior e facilidades para reposição em caso de defeito. Sua caixa para transporte e venda é simples, apresentando na parte frontal algumas especificações do modelo de processador, FSB e memórias que são suportados. Não é raro em lojas de informática, os vendedores confundirem as especificações de algumas placas, por causa

PC&CIA # 88 # 2009

PC88_Mega.indd 34

13/8/2009 17:06:50


Hardware de caixas e nomes de placas parecidos. Com estas informações disponíveis de forma bem clara na frente do produto, evitamos alguns problemas. Também encontramos na caixa alguns selos da Intel e outro da RoHS, mostrando que a marca tem uma preocupação com o meio ambiente. Todas as informações na embalagem e o manual estão em português. A placa vem embrulhada com material antiestático. O kit da placa é bem reduzido, encontramos apenas um cabo Sata com um adaptador de força, um cabo IDE 80 vias e um cabo para disquete 3 ½, um espelho traseiro para o gabinete e um CD com drivers para Windows XP e Windows Vista 32 bits. O layout da placa é bem distribuído. Os bancos de memória DDR2 se encontram livres, não há dificuldade para se instalar memórias, mesmo com a adição de uma placa de vídeo de grandes proporções na conexão PCI-E 16x. As portas SATA não estão na direção desta última conexão, não havendo dificuldades para instalação de HDs ou drives de DVD. O único componente que não está com uma posição favorável é o southbridge, que se encontra muito próximo ao conector PCI-E 16x. Existem dois conectores de alimentação para ventoinhas, um para a CPU e outro para uma ventoinha de gabinete. O que nos chamou a atenção é que ambos usam um conector de quatro pinos, comumente usado em ventoinhas com controle de rotação PWM. Na maioria das placas-mãe, mesmo as de alto custo, são oferecidos vários conectores, mas apenas a ventoinha da CPU é controlada por PWM. Infelizmente esta placa não fugiu à regra e apenas a ventoinha da CPU é controlada por PWM, o segundo conector fornecido não tem esta função implementada. A figura 1 nos dá uma visão geral da placa. No coração da placa-mãe existe o chipset G31 da Intel, com suporte a processadores Celeron, Pentium Dual Core, Core2Duo e Core2Quad. A placa-mãe suporta FSBs de 800, 1066 e 1333 MHz. A placa oferece dois conectores para memórias DDR2, onde podemos instalar até o máximo de 4 GB. São suportadas as frequências de 533, 667 e 800 MHz. Na refrigeração do chipset foi usado um dissipador de alumínio com aletas finas, o que ajuda na troca de calor apro-

35

F1. Visão geral da placa IPM31.

veitando a ventilação gerada pelo cooler do processador, mantendo a temperatura do chipset baixa. O responsável pela ponte sul é o antigo ICH7, que se encaixa perfeitamente com o objetivo de oferecer um produto com um bom desempenho a um custo baixo. Este chip possui quatro portas SATA 2.0, uma conexão IDE, uma conexão para disquetes e algumas portas USB. O som com 6 canais é fornecido por um chip Realtek ALC662, que é compatível com o padrão High Definition. A saída de rede Gigabit também é fornecida por um outro chip da Realtek, modelo RTL8111B. Estes dois dispositivos têm suporte nativo no Windows Vista e na maioria das distribuições GNU/Linux recentes, mas no CD que acompanha a placa apenas são fornecidos drivers para Windows XP e Vista 32 bits.

A placa oferece as expansões comuns para placas de baixo custo padrão microATX. Internamente encontramos um conexão PCI-E 1x, uma PCI-E 16x normalmente usada para a placa de vídeo, duas PCI 32 bits. O painel traseiro apresenta duas portas PS-2, uma saída VGA DB-15, uma porta serial e uma porta paralela, três conectores para o som e uma saída RJ45 para a rede Gigabit. Internamente são oferecidas mais quatro portas USB e uma porta adicional serial. Portas seriais não são comuns hoje em dia, mas são úteis para comunicação com equipamentos legados. Um grave defeito desta placa é a falta de um dissipador para a ponte sul. A temperatura deste chip era de 76°C com o sistema em repouso, aberto em cima de uma bancada dissipativa. Se estivesse dentro de um gabinete com pouca refrigeração, fechado em baixo de uma mesa por exemplo, com 2009 # 88 # PC&CIA

PC88_Mega.indd 35

13/8/2009 17:07:00


Hardware certeza teríamos temperaturas maiores que 90°C neste componente, correndo o risco de danificá-lo. Notem na figura 2 um outro problema que temos na região da ponte sul. O layout deste componente na placa se encontra muito próximo da trava de segurança do conector PCI-E 16x. Isto nos obriga a instalar um dissipador de perfil baixo. A boa notícia é que existe furação na placa-mãe para facilitar a instalação de um dissipador neste componente.

Instalação

36

O manual que acompanha o produto é muito simples, e está em Português. O manual aborda temas como o layout da placa, especificações, instalação do processador e periféricos, conectores externos do painel traseiro e internos, mas esquece de comentar temas importantes como limpar as configurações salvas na BIOS em caso de erro com um clear CMOS, ou detalhes das configurações existentes na BIOS. A BIOS fornecida com a placa é da AMI, mas infelizmente não oferece muitas opções de configuração. Esta placa é realmente voltada para o mercado de integradores que não podem perder tempo configurando componentes. Não existem opções para configurar a velocidade de trabalho das memórias, caso tenham sido detectados incorretamente parâmetros como latências ou o barramento central do processador. Apenas configurações e opções para habilitarmos os dispositivos onboard são encontradas no BIOS. No primeiro boot da placa, as opções carregadas de fábrica são as Fail-safe Defaults. Esse modo seguro de iniciar garante uma maior compatibilidade com os componentes instalados, evitando algumas dores de cabeça de princípio. Mas como as opções deste modo são muito conservadoras, recomenda-se que a placa tenha seu BIOS configurado para o modo de operação mais eficiente. Como as opções são poucas, não existe nenhum segredo, apenas prestar atenção em alguns detalhes como habilitar as portas USB para o modo de operação 2.0. Para a instalação do sistema operacional, é fornecido suporte apenas para sistemas Windows de 32 bits. Caso se deseje utilizar um sistema operacional de 64 bits da Microsoft, os drivers deverão ser baixados no site dos fabricantes dos

Southbridge da placa muito próx- F2. imo ao PCI-E 16x, dificultando a instalação de um dissipador.

componentes. No site da Mega não encontramos suporte a sistemas operacionais de 64 bits. Não existem softwares para manutenção ou monitoração do sistema, como os fornecidos por outras marcas, nem mesmo para leitura da temperatura ou linhas de tensão na placa-mãe. Caso seja necessário algumas destas ferramentas, seremos obrigados a recorrer a algum programa de terceiros (existem muitos gratuitos). Os integradores que trabalham com distribuições Linux podem utilizar esta placa, uma vez que os componentes utilizados são suportados por boa parte das distribuições existentes no mercado, entre eles citamos o Ubuntu 9.04 e o Mandriva 2009.1. Mas infelizmente o suporte deverá ser dado pelo próprio integrador, a Mega parece desconhecer o incentivo que está sendo dado ao software livre para computadores de baixo custo e nem sequer cita suporte ao Linux nos seus produtos.

Testes

Imaginamos as seguintes situações para realizar os testes. Primeira, o micro típico de escritório: um processador com fraco desempenho, barato e com o vídeo integrado. Uma configuração típica para escritórios que trabalham com editores de texto e planilhas, vendidos em grande volume por micro e pequenos integradores. A segunda situação seria um computador voltado para um escritório que necessite de um poder de processamento maior, seja por causa do sistema de ERP ou outro aplicativo mais exigente. Por fim, a terceira situação proposta é a de um PC doméstico, que hoje precisa de um custo baixo mas com possibilidades de upgrade no futuro. O vídeo onboard desta placa jamais será usado para jogos pesados que demandem alto desempenho, entretanto mostraremos como a adição de uma placa de vídeo de alta performance pode resolver este problema facilmente.

Processadores

Intel Pentium Dual Core 2140 1,6 GHz / Intel Core 2 Quad Q6600 2,4 GHz

Placa-Mãe

Mega IPM31

Memória

2x 1 GB DDR2 800 Patriot

Vídeo

Onboard - Nvidia 8800 GTS 768 MB

HD

Seagate SATA 400 GB 7200 RPM

Fonte

PC Power & Cooling 610 W Silencer

Sistema Operacional

Windows Vista Ultimate 64 bits SP1 / Windows XP Professional SP3

T1. Configuração usada no Teste

PC&CIA # 88 # 2009

PC88_Mega.indd 36

13/8/2009 17:07:10


Hardware Para os testes, usamos a configuração descrita na tabela 1. O primeiro passo foi verificar o desempenho da placa dentro do sistema Windows Vista. Com os drivers devidamente instalados, a nota do sistema foi de 3,4 pontos. Como o sistema de pontuação do Windows Vista sempre considera a nota do subsistema mais lento como a nota final, e esta foi a do vídeo integrado, não há mudanças nessa nota independentemente do processador utilizado. O vídeo integrado no chipset G31 da Intel oferece suporte ao Aero do Vista, mas infelizmente não existe um bom suporte a instruções 3D, nem suporte a shaders gráficos ou ainda aceleração de vídeos de alta definição para serem usados com um bom computador residencial. Já que é comum micros de baixo custo virem com o sistema operacional Windows XP, após um teste de compatibilidade com o Vista, instalamos este com o Service Pack 3 para darmos continuação aos testes de desempenho. Usamos três softwares de benchmarking, cada um com propósito distinto. O primeiro foi o PCMark 2005, usado para avaliar o conjunto montado. O segundo teste foi testar a desempenho 3D da placa-mãe, e mostrar a vantagem de se utilizar um placa de vídeo para algumas funções. E um último teste, uma avaliação da controladora de memória integrada no chipset G31 da Intel e as diferenças de desempenho com o vídeo integrado e uma placa de vídeo discreta. Os resultados do PCMark podem ser conferidos na figura 3. A configuração mais simples, com o processador Pentium DualCore teve um resultado de 3438 pontos, o que é muito bom para um computador de baixo custo como o sugerido nessa configuração. Já com adição de um processador QuadCore, o Q6600, tivemos um resultado de 5198 pontos. Já a variação do resultado no benchmark 3DMark 2006 está diretamente ligada ao uso de uma placa de vídeo. Como vemos na figura 4, o processador Quadcore não teve potência suficiente para alterar o resultado neste teste, mas com a adição de uma placa de vídeo GeForce 8800GTS ambos os processadores tiveram ótimos resultados. A adição de uma placa de vídeo simples, como uma Nvidia GeForce 8400GS ou uma ATI Radeon HD3450 já seria suficiente para melhorar muito o desempenho 3D do vídeo

F3. Resultado PCMark 2005

F4. Pontuação do 3DMark. A grande diferença se deve à placa de vídeo utilizada.

37

F5. Resultado do Sandra. Resultado em GB/s.

onboard, fora a adição de recursos como aceleração para mídias digitais em formato de alta definição. No teste da banda disponível no barramento da memória notamos uma pequena diferença devido à influência da placa de vídeo, porque o vídeo onboard consome um pouco de banda já que compartilha da memória principal. Os resultados de largura de banda podem ser vistos na figura 5.

Conclusão

A placa tem várias qualidades interessantes para o público ao qual ela é direcionada, tem boa capacidade de expansão e um bom desempenho. Só não daremos maiores recomendações para esta placa devido ao fato de não existir um dissipador de calor no southbridge, obrigando este componente

a trabalhar com uma temperatura muito alta, correndo o risco de sofrer algum dano irreversível. A Mega fornece outros modelos de placas com o chipset Intel G31, como os modelos WG31M e WG31M-L, que não têm este problema de aquecimento, e consequentemente, terão um vida útil maior sem trazer dores de cabeça ao integrador que usá-los. As marcas Mega e PCWARE, ambas da Digitron, oferecem os mesmos modelos de placa, provavelmente por terem a mesma linha de montagem, apenas mudando as embalagens dos produtos. Então a recomendação desta placa também se aplica ao modelo IPM31 da PCWARE, que possui as mesmas qualidades, mas infelizmente o pc mesmo defeito. 2009 # 88 # PC&CIA

PC88_Mega.indd 37

13/8/2009 17:07:19


Hardware

Upgrade para Athlon

el

AM2

38

Placas-mãe no padrão AM2 ganham um novo fôlego com a possibilidade de um upgrade para os novos processadores Phenom II. Alfredo Heiss

P

ode-se dizer que a plataforma AMD AM2 obteve sucesso no mercado. É encontrada em todo o tipo de computador, desde simples computadores de escritório com processadores Sempron, até os mais caros e poderosos com processadores Athlon X2. Com o lançamento do Phenom X4, surgiu a plataforma AM2+, uma revisão da AM2 com barramento Hyper Transport mais veloz e com gerenciamento de energia mais avançado, capaz de controlar separadamente os núcleos do processador e a controladora de memória interna. Apesar da revisão, o AM2+ manteve a compatibilidade com a versão anterior. Tornou-se possível aproveitar qualquer processador AM2 em uma placa AM2+, bem como instalar processadores AM2+ em boa parte das placas-mãe mais antigas, bastando, para isso, que o fabricante disponibilizasse uma atualização de BIOS com o suporte aos novos processadores. Mas, como bem sabemos, o mundo da informática não para e as evoluções são constantes. O Phenom já não é mais o processador topo de linha da AMD, cedendo lugar para seu irmão mais novo,

o Phenom II. Junto com o novo processador chega uma novo padrão: o AM3, que vem atualizar a plataforma da AMD para utilizar as memórias DDR3, que estão ganhando mercado rapidamente. Entretanto, foi tomada a decisão de manter o mesmo socket das gerações passadas e esta decisão não foi aleatória. Para usufruir de todo o potencial dos novos processadores Phenom II, é necessário ter uma placa-mãe AM3, com suas memórias DDR3. Mas a estratégia de manter o mesmo socket da plataforma antiga cria a possibilidade de upgrades para os usuários já de placas AM2 e AM2+, que podem migrar para este novo processador sem a necessidade de trocar todo o sistema. Isto é possível porque os processadores AM3 trazem duas controladoras de memória integradas, uma DDR3, para a nova plataforma, e uma DDR2, revisada, para manter compatibilidade com as plataformas antigas. A seguir demonstraremos o quão válido é um upgrade para um processador AM3 e detalharemos o procedimento. Para tal, usaremos dois processadores de gerações diferentes mas com frequências de trabalho iguais.

PC&CIA # 88 # 2009

PC88_Upg_AthlonAM2.indd 38

13/8/2009 16:23:32


este é Atom, o menor processador da Intel.

Hardware compatibilidade com softwares antigos (a compatibilidade com o Windows XP é feita através de uma máquina virtual).

Phenom II

F1. Processador Athlon 64 X2 6400+ no padrão AM2.

Athlon 64 AM2

No ano de 2003, a AMD inovou com o lançamento dos Athlons 64. Os processadores Hammer ou K8, até então como eram conhecidos, traziam integrados a controladora de memória, e não usavam mais o FSB (Front Side Bus) para a interligação com o chipset e periféricos a favor do HTT (Hyper Transport Technology), uma interligação ponto a ponto em alta velocidade que facilita a comunicação entre o processador e os demais componentes. (figura 1), e consegue fornecer uma vazão de dados de até 8 GB/s. Em 2006 ocorreu um processo de evolução nestes processadores. Tanto o padrão como o socket mudaram para o padrão AM2. Destas mudanças, destacamos alguns pontos. Controladora de Memória A controladora de memória integrada passou a dar suporte apenas a memórias DDR2. As versões single-core deste processador suportam memórias até a frequência de 667 MHz, enquanto as versões dual-core aceitam frequências até DDR2 800 MHz. Uma característica destes processadores, a frequência de operação das memórias era obtida através de uma divisão da frequência do processador pela metade do seu multiplicador padrão, e não pela frequência base do HTT. Como o divisor para a memória era calculado somente com números inteiros, infelizmente, os processadores com o multiplicador interno ímpar não conseguem aproveitar toda a banda oferecida por uma DDR2 800. Um Athlon 64 X2 6000+ tem um multiplicador interno de 15x, consequentemente suas memórias trabalham a 375 MHz (3000 / 8) ou DDR2 750 MHz.

Cache Internamente este processador tem dois níveis de cache, ambos exclusivos por núcleo. O nível um, ou L1, tem 128 KB, 64 KB para instruções e 64 KB para dados. O segundo nível (L2) tem 512 KB ou 1 MB. Quando uma informação se faz necessária, o processador realiza uma busca de forma ordenada, começando pelo cache nível um. Se a informação desejada não estiver lá, a busca prossegue ao cache de nível dois e, por fim, à memória principal. Virtualização Todas as versões do Athlon 64 X2 na plataforma AM2 têm instruções para aumentar o desempenho de máquinas virtuais. Na época não parecia fazer muito sentido incluir este recurso em todos os processadores, mas a longo prazo esta se mostrou uma ótima escolha da AMD. Todos os processadores AM2 já poderão executar o Windows Seven, que requer este recurso para oferecer

Ao contrário do que aconteceu na geração passada, a primeira geração dos processadores Phenom e sua arquitetura K10 foi criticada pelo público e mídia em geral, devido a alguns erros de engenharia (Bug TLB), inadequação do processo de fabricação ao tamanho do chip, e falta de otimização do software, uma vez que o sistema operacional Windows não tem um agendador de processos capaz de trabalhar de forma eficiente com vários núcleos em modo power save. Com a segunda geração de processadores Phenom, a AMD espera corrigir os erros e melhorar o desempenho (figura 2). Vamos analisar as principais diferenças entre as arquiteturas. Controladora de Memória A controladora de memória da geração K10 passou por uma série de revisões. A primeira mudança foi a adição de um canal, oferecendo dois canais de 64 bits ao invés de apenas um de 128 bits. Como o número de núcleos por processador tende a aumentar, a adição de um canal garante um uso melhor da banda de memória total disponível. O suporte a memórias DDR3 foi adicionado através de uma nova controladora de memória, sem remover a controladora DDR2, o que torna os processadores AM3 compatíveis com placas-mãe antigas.

39

F2. Processador AM3 Phenom II 955 Black Edition com uma frequência de trabalho de 3,2 GHz e compatibilidade com a plataforma AM2.

2009 # 88 # PC&CIA

PC88_Upg_AthlonAM2.indd 39

13/8/2009 16:23:43


Hardware

F3. Imagem do CPUID com detalhes da placa-mãe.

40

HyperTransport 3.0 Máquinas Gamers, às vezes com quatro placas de vídeo de alto desempenho, exigem um barramento de alta velocidade para comunicação entre o PCI-E e a CPU. Servidores multiprocessados também precisam deste barramento de alta velocidade para comunicação entre os seus núcleos. Para satisfazer esta demanda, a AMD passou a utilizar na arquitetura K10 o HyperTransport 3.0 que fornece uma vazão de dados de 16 GB/s. Cache Nos processadores Phenom II existem três níveis de cache. Os dois primeiros são exclusivos de cada núcleo e o terceiro é compartilhado entre todos eles. A principal diferença entre a primeira geração de processadores Phenom e esta é a quantidade de memória compartilhada entre os núcleos, que passou de 2 MB para 6 MB. A diferença desta geração para os primeiros Athlons 64 é a maneira que os acessos ao cache são feitos. O Phenom sempre busca as informações no nível mais próximo ao núcleo, o cache L1 do processador, ao invés de ficar solicitando a informação desejada aos vários níveis de memória como era feito nos primeiros Athlons. Apesar deste cache ser muito rápido e oferecer um vazão de dados grande, o L1 é limitado em 64 KB para dados. Por causa disto, o circuito responsável pelo pre-fetch (busca antecipada) foi totalmente revisado, e agora trabalha com o segundo e terceiro níveis de cache como grandes bancos de dados para o primeiro nível.

Como cada núcleo tem seu próprio cache e apenas o L3 é de acesso comum, o circuito de pre-fetching mantém nele apenas as informações que serão úteis a mais de um núcleo. Se este não for o caso, é melhor descartar do L3 e manter apenas no cache do núcleo que a está utilizando. Este tipo de arquitetura tem suas vantagens e desvantagens. Como apenas as informações relevantes para mais de um núcleo são mantidas no L3, existe mais espaço livre no cache. Mas caso a informação que um núcleo precise esteja de posse de outro núcleo e não no cache L3, será preciso consultar todos os outros núcleos atrás desta informação, o que é chamado de “snoop traffic”. Eficiência Energética O recurso Cool’n’Quiet ganhou novos estágios para diminuir ainda mais o clock do processador. Além disso, quando não há instruções na fila de processamento, existe um modo de economia de energia mais profundo, chamado C1E, que permite que os núcleos dos processadores sejam desligados por alguns ciclos. Na primeira geração de processadores Phenom este controle é mais apurado, sendo possível controlar a frequência de cada núcleo isoladamente e até colocar aqueles que não estiverem sendo utilizados em estado de dormência. Este recurso é muito interessante, entretanto, acabou sendo prejudicial ao Phenom porque não dependia apenas do processador mas também do sistema operacional. O raciocínio por trás deste recurso diz que se houver, digamos, apenas um processo em execução, podemos baixar a frequência, e até desligar três núcleos, e manter apenas um funcionando em sua frequência máxima. O problema reside no fato de que o agendador de processos dos sistemas operacionais Windows não consegue entender este conceito de power saving. Ao invés de manter o processo em um núcleo o tempo todo e permitir que os demais descansem, o Windows o mantém 25% do tempo em cada um dos quatro núcleos, dividindo a carga igualmente entre eles - mas infelizmente não permitindo que entrem em estado profundo de dormência. Dessa forma, o processo fica um tempo em um núcleo e em seguida é transferido para outro, que provavelmente estará em modo de economia de energia, com a frequência

reduzida. Alguns milissegundos vão se passar até que o núcleo volte à sua frequência original, para em seguida o processo ser movido novamente para outro núcleo, que também estará em modo de economia de energia. E assim sucessivamente. O resultado final é que o processo cai repetidamente em núcleos que estão com a frequência mais baixa, o que faz com que o processamento não seja tão rápido. E isto apareceu nos benchmarks, deixando o processador em desvantagem. Sistemas GNU/Linux conseguem aproveitar muito bem este recurso. Mas como o Windows é maioria, a AMD optou por retirar esta capacidade do Phenom II, fazendo com que os quatro núcleos alterem suas frequências simultaneamente. Alimentação do Processador Além do circuito de alimentação dos núcleos de processamento, o Phenom II tem um exclusivo para o northbridge interno, onde se encontram a controladora de memória e o barramento HTT. Com isso, mesmo que os núcleos do processador estejam no modo desligado, é possível que a placa de vídeo e outros componentes continuem a trocar informações com a memória RAM. Virtualização As instruções para virtualização continuam presentes, e foram adicionadas algumas novas funcionalidades que permitem ao Phenom II aliviar o processamento do hypervisor e melhorar o desempenho das máquinas virtuais. Umas das tarefas mais complicadas para o hypervisor é a de ficar traduzindo a tabela de memória virtual de cada VM para a memória física do computador. A geração K10 de processadores AMD consegue entender as duas tabelas e faz esta tradução de forma automática para o hypervisor, dispensando-o desta tarefa.

Verificando a compatibilidade

O Phenom II é um processador híbrido AM3 e AM2+. Dessa forma, ele foi feito para ser compatível com a maioria das placas AM2+ que já existem no mercado. Se a placa for recente, as chances são grandes de ela já suportá-lo, no entanto, se for um pouco mais antiga, provavelmente será apenas necessário atualizar o BIOS para uma versão mais nova.

PC&CIA # 88 # 2009

PC88_Upg_AthlonAM2.indd 40

13/8/2009 16:23:54


Hardware Mas se este processador foi projetado para ser compatível com AM2+, que por sua vez foi projetado para ser compatível com o AM2, como fica o caso do Phenom em uma placa AM2? Será que ele funciona? Infelizmente não são todas as placas AM2 que o suportarão. Existe uma série de pré-requisitos que devem ser satisfeitos para que o suporte ao processador seja homologado, principalmente no que diz respeito ao circuito de alimentação. Além da placa oferecer recursos de alimentação suficientes, também é necessário que o fabricante disponibilize um BIOS que reconheça o novo processador. Aqui surge outro problema: muitas vezes não é interessante para o fabricante disponibilizar o suporte para uma placa antiga demais. Ele perde a venda de um produto novo, e ainda por cima assume responsabilidade pelo funcionamento de um processador novo em uma placa que até já saiu de linha. Dor de cabeça certa, por isso não são todos que topam fazer isto. Para conferirmos se um sistema suporta um novo processador, basta visitar o site do fabricante e verificar a lista de CPUs suportadas pela placa. Se o fabricante constatou que a placa pode aceitar o Phenom II, ele terá adicionado este processador à lista. Se o modelo da placa não for conhecido, pode-se usar software gratuito CPU-Z para fazer essa identificação (figura 3). O procedimento segue no Box 1. Verificada a compatibilidade, feita a atualização de BIOS para que o processo de POST da placa-mãe reconheça o novo processador, o nosso sistema já está pronto para o upgrade.

Testes

Para a comparação de desempenho entre um processador no padrão AM2 e o novo padrão AM3 foi usada a seguinte configuração:  Phenom II 955 Black Edition 3,2 GHz;  Athlon 64 X2 6400+ 3,2 GHz;  Asus M4N82 Deluxe;  2 x 1 GB DDR2 800 Patriot;  VGA Geforce GTX 275 896 MB;  Seagate 1,5 TB SATA;  Fonte PC Power & Cooling 610 W com PFC;  Windows Vista Ultimate 64 bits SP2.

Compatibilidade entre sistemas O CPU-Z é um software para Windows que faz a leitura das informações sobre processador, memória e placa- mãe de nosso sistema. Com ele é possível verificar de forma fácil o modelo de nosso processador, confirmar suas frequências de trabalho, quantidade de memória instalada, configurações de timmings feitas na BIOS entre outras opções. O download deste software deve ser feito no site www.cpuid.com ou através deste link www.cpuid.com/download/cpuz/cpuz_151_setup.exe. A última versão disponível na data em que este artigo foi escrito é a 1.51, mas recomendamos que o leitor use sempre a última versão. Caso o leitor já conheça o modelo de sua placa-mãe e o fabricante, pule os passos um e dois deste tutorial. Passo um - Faça a instalação e execute o software. É natural demorar alguns segundos para este iniciar, visto que ele irá realizar uma leitura de todo o hardware suportado. Na tela de entrada do sistema devemos confirmar se as informações de nosso processador atual estão sendo lidas corretamente, incluindo o campo Package com as informações se nosso sistema é um AM2 ou AM2+ com 940 pinos. Se o processador instalado for de gerações anteriores, não será possível fazer este upgrade. Passo dois – Para verificar a modelo de sua placa-mãe. Existe uma aba chamada Mainboard, onde estão as informações que necessitamos. O campo Manufacturer apresenta o nome do fabricante, este nome deve ser

A placa-mãe M4N82 obedece o padrão AM2+ e, portanto, tem suporte ao HyperTransport 3.0 presente nos processadores AM3 e AM2+. Apesar da alta velocidade de comunicação, muitos argumentam que o HyperTransport 3.0 não traz um ganho de desempenho muito grande sobre a versão 1.0 (2 GHz DDR). Para tirar esta dúvida, limitamos o barramento do Phenom II a 2 GHz, igual ao HTT 1.0, e repetimos alguns

anotado para podemos verificar em seu site as informações sobre o modelo de nossa placa, que está marcado no campo Model. Passo três – Procure no site do fabricante as especificações de sua placa-mãe. É comum existir um campo chamado CPU Supported List ou Processadores Suportados. Procure nesta lista de processadores os Phenom II, e a partir de qual versão da BIOS há suporte para estes. Se estes processadores não forem encontrados na lista de processadores, é improvável haver algum suporte na placa. Passo quatro – Se existirem processadores Phenom II suportados por sua placa-mãe, anote os modelos e baixe na parte de downloads o último BIOS de sua placa, ou a versão indicada pelo fabricante que habilita o suporte a estas CPUs. Passo cinco – Faça a atualização de BIOS com o software indicado pelo fabricante. Muitas placas-mãe já possuem em suas BIOS algum utilitário para esta atualização. Após esta atualização, sua placa-mãe já está pronta para receber os processadores Phenom II. Um último comentário: se o leitor deste texto não conhece os procedimentos para realizar a atualização de BIOS de sua placa-mãe, recomendamos que este serviço seja prestado por um técnico experiente de sua confiança. Apesar de ser algo simples, esta atualização é crítica e caso ocorra algum evento ou erro não programado, a estabilidade do sistema pode ser afetada.

41

testes para comparar os resultados com os obtidos com a frequência original. A diferença é desprezível, e provavelmente isto se deve às mudanças internas do Phenom, cujo cache L3 compartilhado entre os núcleos o torna menos dependente do HTT. Usamos o software de benchmarking Sandra 2009 SP3 para avaliar as diferenças internas entre os processadores AM2 e AM3. A figura 4 nos apresenta os resultados 2009 # 88 # PC&CIA

PC88_Upg_AthlonAM2.indd 41

13/8/2009 16:24:02


Hardware

F4. Taxa de transferência interna e das controladoras de memória.

42 F5. Taxa de transferência interna e das controladoras de memória.

F6. Softwares otimizados para utilizar vários núcleos serão beneficiados por um upgrade de CPU.

F7. Resultados dos testes obtidos com o software Cinebench R10 64 bits.

das taxas de transferências entre núcleos dos processadores e de sua controladora de memória. Uma comparação direta dos resultados chega a ser injusta. A arquitetura do processador Athlon X2 6400+ tem pelo menos seis anos de idade, enquanto o Phenom II é um produto recém-nascido, com inúmeras melhorias no seu cache, que garantem uma taxa de transferência muito maior do que a geração antiga. A controladora de memória DDR2 também foi muito aprimorada e garante um desempenho maior. O bechmark SuperPI foi utilizado para demonstrar a potência de cálculo das unidades aritméticas dos processadores. Apesar de ser um teste simples, existe uma característica nele que o torna interessante para nós: este teste é mononuclear, ou seja, utiliza apenas uma thread, independentemente se temos dois ou quatro núcleos, o resultado será dado apenas por um deles. A figura 5 nos apresenta o resultado deste teste. Como esperado, o processador Phenom II tem o melhor resultado, mas a diferença é menos expressiva que nos outros testes. Sem a vantagem dos quatro núcleos, o Phenom II vence exclusivamente por causa da sua arquitetura revisada. Utilizando softwares que fazem uso dos núcleos adicionais, o resultado é diferente. O compactador 7zip é um exemplo de como vários núcleos podem ajudar em determinadas tarefas (figura 6). Os dois núcleos adicionais do Phenom II X4 garantem uma boa diferença sobre o Athlon X2. A alta paralelização do 7zip garante que todos os núcleos sejam utilizados e, como operam com a mesma frequência, quanto maior o número de núcleos, maior será o resultado final. O último teste é o Cinebench R10, que é baseado no software profissional Cinema 4D, muito usado em produções para o cinema. Ele apresenta a possibilidade de executar o teste tanto no modo single-thread quando multi-threaded, utilizando todos os núcleos disponíveis em nosso(s) processador(es). Além do teste de renderização, que é realizado exclusivamente pelo processador, há um último teste que consiste em uma cena acelerada pela placa de vídeo. Como utilizamos sempre a mesma placa de vídeo, conseguimos avaliar se a troca do processador poderia ajudar no desempenho 3D do sistema. Observe os resultados na figura 7.

PC&CIA # 88 # 2009

PC88_Upg_AthlonAM2.indd 42

13/8/2009 16:50:50


Hardware

Mínimo Máximo

Athlon 64 X2 3.2GHz

Phenom II 9 55 3.2GHz

0,8 A (9,6 W)

1,2 A (14,4 W)

8,4A

7,5A

T1. Resultados das duas plataformas.

Mesmo no teste single-thread, que usa apenas um núcleo do processador, notamos que o tempo de renderização do Phenom II foi 24% melhor que o do Athlon. Lembrando que ambos os processadores trabalham na mesma frequência e que o teste utiliza apenas um núcleo, teoricamente estariam em igualdade de condições. A vitória do Phenom II neste teste, assim como no SuperPI, deixa claro que seus núcleos são mais eficientes que os do Athlon, portanto mesmo aplicações que não se beneficiem de multiprocessamento vão se beneficiar de um Phenom II. É claro que dividindo a imagem entre os núcleos o ganho de desempenho é maior, pois os dois núcleos do Athlon não fazem frente aos quatro do Phenom II. Já no desempenho 3D, notamos que em algumas situações o processador pode ser um “gargalo” para a placa de vídeo de alto desempenho. A simples troca da CPU trouxe um ganho de aproximadamente 20%.

Consumo

Durante os testes de estresse, fizemos medições da corrente consumida pelo processador para averiguar se o ganho de desempenho também seria acompanhado por um gasto maior de energia. A tabela 1 apresenta os resultados das duas plataformas. O Cool’n’Quiet foi ativado em ambos os processadores, e as leituras foram feitas com os sistemas em carga máxima (com o auxílio do software CPU Stability Test) e mínima (sistema em repouso). Apesar do Phenom II ter um processo de fabricação refinado (45 nm) se comparado com o antigo Athlon 64 X2 6400+ (90 nm), ele consome mais energia quando em repouso, mesmo com os recursos de economia de energia habilitados. Isto provavelmente acontece devido aos núcleos extras. Em compensação, em situações de carga total, o consumo máximo deste processador é inferior ao do antigo 6400+, com um desempenho muito melhor se levarmos em consideração a adição de núcleos no processamento. Isto representa uma maior eficiência energética, ou seja, ele processa mais informações por watt consumido. Aqui cabe um pequeno comentário: a placa testada segue o padrão

AM2+, portanto, já tem suporte ao gerenciamento de energia avançado presente nos Phenom II. Com este controle é possível desligar os núcleos de processamento quando estiverem ociosos, deixando ligados apenas o controlador de memória e northbridge interno. Se a placa-mãe seguir o padrão AM2, este recurso não estará presente e provavelmente o consumo do sistema será maior.

Conclusão

É excelente que os fabricantes continuem a oferecer produtos para padrões antigos. Mesmo que não seja possível utilizar todos os recursos do Phenom II, como o HTT 3.0 e a sua nova controladora de memória DDR3, o ganho de desempenho, frente ao agora antigo Athlons X2, é expressivo. Várias placas montadas e vendidas em nosso mercado oferecem suporte para a nova geração de processadores. Entre as mais facilmente encontradas, podemos citar os modelos Gigabyte GA-MA69VM-S2 e Foxconn M61PMV, mas não desanime se você não tiver uma destas placas. Visite o site do fabricante do seu modelo e verifique sua compatibilidade. pc

43

2009 # 88 # PC&CIA

PC88_Upg_AthlonAM2.indd 43

13/8/2009 16:26:30


Testes

44

MSI para a plataforma AM3 As características do padrão AM3 já são conhecidas há bastante tempo, mas só agora ele chega ao nosso mercado, trazendo vida nova para a plataforma da AMD. A MSI já oferece todos estes benefícios no seu modelo 790FX-GD70. Saiba tudo sobre esta placa nas próximas páginas.

U Alfredo Heiss

Formado em Eletrônica e Técnico em TI, com mais de 10 anos de experiência nas áreas de hardware, sistemas operacionais para servidores e redes. Atualmente é membro da equipe de redatores da revista.

ma das principais características dos processadores AMD é a controladora de memória integrada. Este trunfo garante um acesso bem mais rápido às informações presentes na memória RAM frente aos processadores que utilizam o sistema de FSB. Mas existe uma desvantagem da controladora de memória integrada: para adicionar suporte a um novo tipo de memória é necessário trocar tanto o processador quanto a placa-mãe. Por exemplo, existem várias vantagens de se utilizar DDR3 frente a antiga DDR2, como sua tensão de alimentação mais baixa e suas frequências de operação mais elevadas. Por isso a AMD está evoluindo o seu padrão AM2+ para o AM3, que adiciona o suporte a memórias DDR3.

Os processadores Phenom II mais recentes já têm esta controladora de memória com suporte a DDR3. Mas para usufruirmos de todos os recursos oferecidos por esta CPU, necessitamos de uma placa que esteja no padrão AM3. Felizmente, recebemos da MSI uma placa-mãe 790FX-GD70, que oferece suporte completo a estes processadores e uma série de atributos voltados para um público high-end. Neste artigo conheceremos todos os detalhes da placa e testaremos seu desempenho.

MSI 790FX-GD70

A MSI sempre teve uma grande preocupação em atender bem os seus clientes, que exigem alto desempenho e estabilidade. Esta placa está no topo da

PC&CIA # 88 # 2009

PC88_AM3.indd 44

13/8/2009 17:10:05


Testes

pirâmide das placas na plataforma AM3 e é um exemplo desta preocupação. Voltado para gamers, um público exigente que pede o melhor desempenho nos produtos com um visual que destaque para serem apresentados em gabinetes com janelas de acrílico ou com casemods. Foi escolhida para esta placa uma PCI envernizada com uma cor escura, para criar um belo contraste com os conectores e LEDs azuis presentes nela que, aliás, não são poucos. Há vários LEDs que indicam quantas fases do regulador de tensão estão ativas, uso dos HDs, um display para mensagens de POST mostradas em códigos hexadecimal. Além destes recursos, a MSI colocou alguns botões como Power On, Reset e um Clear CMOS, na borda inferior da placa que facilitam muito o overclock.

O conjunto que acompanha a placa é relativamente simples, com cabos SATA, IDE e FLOPPY na cor vermelha, alguns manuais e guias de instalação rápido, duas pontes para ligar placas de vídeo AMD em CrossFire, e um espelho traseiro com algumas portas USB extras. Mas o conjunto de softwares é interessante, principalmente por um utilitário para criação de uma imagem do HD, o HDDBackup. O CD deste software é inicializável, nos dá a opção de criar uma nova imagem ou restaurar um sistema. O processo é muito simples, basta ter duas partições, escolher qual será a de origem e destino e pedir para ele realizar o backup. Mas o grande destaque é a placa 790FX-GD70 . Construída com o conjunto de chipset AMD 790FX e o southbridge SB750, este conjunto nos fornece 42 linhas PCI-E, sendo que, destas, trinta e duas são voltadas apenas para os conectores PCI-E 16x, que nos permitem implementar um CrossFireX com até quatro placas de vídeo (figura 1). As demais linhas são usadas para conexão interna dos componentes da placa, sendo quatro exclusivas para a comunicação com a ponte sul. A utilização deste conjunto também garante que todos os recursos disponíveis

no Phenom II são suportados, incluindo o seu barramento HyperTransport 3.0 até 2,6 GHz e os recursos para economia de energia do processador. Este chipset também garante compatibilidade com os futuros lançamentos da família AM3, tendo uma boa longevidade e possibilidade de upgrades futuros. A 790FX-GD70 foi construída pensando no público entusiasta, que exige um excelente desempenho, com opções de overclock e muitos recursos. A tabela 1 detalha todos os recursos encontrados nesta placa. Dissipadores de calor foram instalados em cima do circuito de alimentação do processador, do northbridge e do southbridge. Todos estes dissipadores estão interligados com um heatpipe, que ajuda na distribuição homogênea do calor. Estes dissipadores estão posicionados de forma a aproveitar a refrigeração do processador e do gabinete. A ponte sul oferece seis portas SATA, com suporte a RAID 0, 1, 0+1 e 5. Uma novidade nos southbridges da AMD é o suporte a R AID 5, nenhum modelo anterior tinha este recurso. Além destas, foi adicionado um chip Jmicron® modelo JMB322 que fornece duas portas SATA adicionais, além de uma porta E-SATA no painel traseiro. Estes conectores estão organizados de forma muito prática, com todos eles voltados para o lado de fora da placa-mãe. Como este produto é direcionado para o público gamer, e placas de vídeo de alto desempenho costumam ser maiores, poderia haver certa dificuldade na instalação dos HDs se estes conectores estivessem voltados para cima. Outra característica que vale ser citada é a utilização de capacitores sólidos em toda a placa, que ajudam na estabilidade e aumentam o tempo de vida deste produto. O cuidado com o regulador de tensão também deve ser mencionado, pois um processador de alto desempenho ou em overclock consome uma quantidade razoável de corrente elétrica. Se estes circuitos forem mal dimensionados terão sua vida útil reduzida. Neste caso, o fabricante usou um regulador de tensão com cinco fases, montados no esquema 4+1, sendo um exclusivo para a ponte norte interna do Phenom II, e quatro para o restante do processador. Todas

45

2009 # 88 # PC&CIA

PC88_AM3.indd 45

13/8/2009 17:10:21


Testes

46

F1. Vista superior da placa.

PC&CIA # 88 # 2009

PC88_AM3.indd 46

13/8/2009 17:10:31


Testes Plataforma

AM3

HyperTransport

3.0

NorthBridge

790FX

SouthBridge

SB750

Slots para Memória

4x DDR3 DIMMs (240pinos / 1,5 V)

Frequências Suportadas

1066/1333/1600*/1800*/2133*

Quant. Máxima RAM

16 GB

Rede

2x Gigabit Realtek

Firewire

Sim

USB 2.0

7 Traseiras / 4 Internas

Áudio

8 canais

SATA

8 Internas + 1 E-SATA

IDE

1

FLOPPY

1

RAID

0, 1, 0+1 e 5**

Conexões PCI-E

4x PCI-E 16x, 1 PCI-E 1x

Conexões PCI

2x PCI 32bits

T1. Especificações da 790FX-GD70

*Frequências suportadas apenas em Overclock. **Raid 5 é suportado apenas com a controladora AMD SB750,

as fases do regulador de tensão possuem indutores blindados, que também ajudam na estabilidade do sistema. A MSI garante suporte a CPUs até 140 W.

BIOS

Para entusiastas de overclock, a BIOS da Award presente nesta placa garante várias opções de ajustes finos de tensão e latências. Para pessoas que gostariam ter um overclock em suas máquinas mas não têm experiência, são fornecidos alguns utilitários e ferramentas para um overclock seguro. Destacamos a função OC Gear & OC Drive, onde através de dois botões (figura 2) presentes na parte inferior da placa, conseguimos realizar um overclock dinâmico, mesmo com o sistema ligado, independentemente de sistema operacional ou drivers instalados. Com o uso destas funções, aumentamos e diminuímos o

F2. Detalhe s da placa com os botões de Power, Reset, ClearCMOS, OC Gear e OC Drive.

FSB do processador girando apenas um botão no sentido horário ou anti-horário, de maneira simples e indolor. Outra opção presente nesta placa para overclocks é o ACC (Advanced Clock Calibration), um recurso que troca o gerador de clocks interno do processador por outro presente no chipset, que supostamente oferece estabilidade e frequências maiores. Existe uma segunda função para este recurso: devido a um “bug” dos processadores Phenom II é possível ativar, em alguns modelos, os núcleos que foram desabilitados na fábrica. Neste artigo não vamos explorar este recurso, mas o faremos em um momento apropriado. Para mais informações, leia o Box 1.

GreenPower

Mas esta placa não é limitada a apenas bons recursos para overclock. Para as pessoas que gostam de comprar produtos que ten ha m um bom rendimento e qualidade, a MSI adicionou alguns recursos que aumentam sua eficiência elétrica, como o GreenPower. O processador Phenom II X4 955 trabalhando em sua frequência-padrão tem um consumo

de corrente, em stress, de aproximadamente 8 A, ou 96 watts. De acordo com a MSI, a placa suporta processadores com até 140 watts de potência, o que nos dá uma boa margem de segurança para overclock e um rendimento de aproximadamente 55% em cada fase do regulador de tensão. Já em repouso, este mesmo processador não ultrapassa 3 A de consumo, o que diminui o rendimento para 20%. Quando o recurso GreenPower está habilitado, a placa-mãe desliga fases desnecessárias na alimentação do processador, aumentando o rendimento das demais. No caso acima citado, com um consumo de 3 A, os leds da placamãe indicam que apenas duas fases do regulador de tensão estão ativas com um rendimento de 51%. Neste exemplo, desconsideramos o consumo dos componentes do regulador de tensão. É importante explicar que, aqui, consideramos que as cinco fases do regulador de tensão fornecem a mesma potência, uma vez que são construídas

Desbloqueio de núcleos no Phenom II

47

Se a AMD mantivesse uma linha de produção para cada modelo de processador produzido, os custos de produção seriam enormes e o preço do produto seria proibitivo para todos. Para evitar tais custos, ela mantém apenas uma linha principal, e de acordo com as características dos chips de silício feitos, remarca estes processadores como Phenom II X4, X3 ou X2. Para nossa sorte, a ponte sul SB750 da AMD trouxe o recurso AAC, que além de aumentar a estabilidade no overclock, traz a possibilidade de destravar os núcleos desativados na fábrica da AMD. Uma pessoa que comprou um Phenom II X3 720 de 2,8GHz, poderia ativar o quarto núcleo e ganhar um Phenom II X4 920. Mas existe um porém, os núcleos podem estar desativados devido a algum defeito encontrado na linha de produção e a AMD remarcou aquele processador para ser um Phenom II X2 ou X3. Neste caso, se habilitarmos os núcleos desativados, teremos instabilidade no nosso sistema.

2009 # 88 # PC&CIA

PC88_AM3.indd 47

13/8/2009 17:10:40


Testes com os mesmos componentes e não existe esquema elétrico para identificarmos qual fase é a responsável pela alimentação do northbridge interno do processador.

Testes

48

Montamos um sistema AM3 para testes, para avaliar o desempenho da plataforma em geral e os recursos para overclock da placa-mãe, e ainda (por que não?) o potencial de overclock do Phenom II. Abaixo segue a descrição de todo o hardware utilizado nos testes. Phenom II 955 Black Edition 3,2GHz  CoolerMaster Hyper 212 Plus  Placa Mãe MSI 790FX-GD70  2x 2 GB DDR3 1600 Corsair 9-9-9-24  VGA Geforce GTX275 896 MB GDDR3  HD Seagate Barracuda 1,5 TB 7200.11  DVD SATA Samsung  Fonte PC Power & Cooling 610 W com PFC  Windows Vista Ultimate SP1 Os softwares utilizados para os testes foram Sandra Lite 2009 SP3, Cinebench R10 64 bits e o 7Zip Benchmark e o CPU Stability para verificar a estabilidade do sistema e consumo máximo do processador. Na medição do consumo, utilizamos um alicate-amperímetro modelo Yokogawa CL250. Todos os testes foram realizados em suas configurações padrões, o clock da memória foi reduzido para 1333 MHz, o máximo suportado pelo processador Phenom II sem overclock e configurado em DualChannel no modo Unganged, que nos garante uma largura de banda maior, especialmente com softwares paralelizados, já que este modo nos fornece dois canais com 64 bits ao invés de um só, de 128 bits. O primeiro teste realizado foi a ferramenta de benchmark incluída no software de compactação 7zip. Essa ferramenta pode ser usada em vários sistemas operacionais, e seu resultado é dado em MIPS (Milhões de Instruções por Segundo), tornando muito simples a comparação entre vários sistemas. Este software também faz muito bom uso de processadores multinucleares. A figura 3 apresenta os resultados obtidos.

F3. Resultado do benchmark 7zip dado em MIPS (Milhões de Instruções Processadas por Segundo)

F4. Pontuação do Cinebench nos modos mono e multi processado

Até o presente momento, esta é a pontuação mais alta obtida por um processador em nossos testes. Estamos ansiosos para comparar estes resultados com a nova plataforma da Intel. O segundo teste mostra a possibilidade deste conjunto ser usado como uma estação de trabalho profissional. Foi usada a ferramenta CineBench R10 64 bits, um pequeno benchmark baseado no Cinema 4D, software de renderização de imagens em 3D. O resultado pode ser conferido na figura 4. O ganho de desempenho quando o software utiliza todos os núcleos é enorme. Infelizmente jogos e aplicações de nosso dia-a-dia são mal otimizadas para processadores multinucleares, e não veem ganhos tão grandes. Realizamos um último teste para verificar as larguras de banda disponíveis na comunicação interna do processador, seus núcleos e a banda disponível com as memórias DDR3. O software utilizado neste teste é o Sandra 2009 SP3 e os resultados são mostrados na figura 5. Os dados referentes a taxa de transferência no cache interno interno não sofrem alteração para um Phenom II se ele estiver sendo usado em uma plataforma AM2, mas há uma grande diferença na vazão de dados entre o processador e a memória na

plataforma AM3, devido às frequências elevadas das memórias DDR3. Durante todos os testes realizados, verificamos através de um alicate-amperímetro a potência consumida pelo processador. Apresentamos na tabela 2 o consumo dele em repouso e em carga total. Apesar do alto consumo em carga máxima, este processador tem um bom rendimento, visto que temos quatro núcleos trabalhando paralelamente. Até poucos anos atrás, tínhamos processadores Pentium IV que apresentavam um consumo tão alto quanto este, mas nem de perto o seu desempenho.

Overclock

Realizamos um overclock no processador Phenom II para verificar os recursos da placa nesta situação. O overclock foi feito utilizando-se a opção Cell Menu dentro do BIOS da placa-mãe, onde configuramos manualmente as opções disponíveis. Elevamos a frequência do processador até atingirmos o ponto de instaConsumo do Processador Mínimo

12 W

Máximo

98,4 W

T2. Comsumo medido no conector ATX - 12V

PC&CIA # 88 # 2009

PC88_AM3.indd 48

13/8/2009 17:10:49


Testes aproximado em cada núcleo do processador. Os resultados podem ser conferidos na figura 6. Obtivemos um ganho de aproximadamente 25% com o overclock. Considerando que não foi usada nenhum técnica de refrigeração extrema, como um watercooler, ou tensões abusivas, este é um bom resultado. F5. Vazão de dados aferida com o Sandra 2009 SP3

Conclusão

bilidade a 4,0 GHz, quando recuamos até aproximadamente 3,9 GHz, onde obtivemos total estabilidade. Realizamos

um teste mononuclear já conhecido por overclockers no mundo, o SuperPI, para visualizarmos o ganho de desempenho

Linux - Controle de Redes Quando tratamos de assuntos como Segurança, Firewall e Traffic Control, a busca por materiais de estudo no nosso idioma e com bom conteúdo é algo difícil de se fazer. Sempre há a necessidade de peneirar as informações encontradas na Internet durante horas e horas, o que dificulta muito o aprendizado. O entusiasta André Stato também já passou por esta dificuldade, desde quando iniciava sua pesquisa com Iptables até assuntos mais complexos como Controle de Banda, uso de QOS, traffic control e roteamento. Juntando sua experiência em redes com certificações Cisco e LPI, Stato escreveu o livro “LINUX - Controle de Redes” que aborda o tema Firewall no sistema operacional GNU, junto com a ferramenta Iptables e mais de quinze módulos adicionais, incluindo controle de software na camada 7 de rede.

Nos primeiros capítulos do livro é feita uma introdução aos tipos de Firewall e suas aplicações e uma pequena introdução ao Iptables e seus módulos. A seguir, o autor nos inunda com muita informação e experiência prática sobre o uso destas ferramentas para aprimorar a segurança de sua rede. Também é abordado o tema de roteamento dinâmico com vários protocolos através da ferramenta livre Quagga. O material encontrado neste livro será muito bem usado por administradores de redes em ambientes mistos/Linux, estudantes de segurança e/ou pessoas que pensem em se aprimorar com uma certificação SANS Módulo Security ou LPI 303 Security. O livro pode ser encontrado na loja vir virtual da Saber Marketing (http://www. http://www. sabermarketing.com.br)) por R$ 59,90.

Resenha por:

Alfredo Heiss

2009 # 88 # PC&CIA

49

Linux - Controle de Redes

F6. Resultado do SuperPI na frequência padrão e overclock.

O novo padrão AM3 corrige muitos dos erros cometidos anteriormentes e implementa uma série de melhorias, trazendo novo fôlego para os processadores AMD. A MSI também está de parabéns pelo produto ofertado para o padrão AM3. A placa 790FX-GD70 tem muitos recursos, da qual destacamos os quatro slots PCI-E 16x que permitiriam montar um computador de altíssimo desempenho para jogos, as oito portas SATA internas que combinadas com HDs de alta capacidade, como os Seagate de 2TB, possibilita montar ótimos sistemas mesmo para os mais exigentes, sem esquecer o sua preocupação com qualidade e eficiência. PC


Redes

Quando procuramos soluções de alto desempenho e baixo consumo de energia, temos nas mãos um grande problema. Mas, neste artigo, mostramos uma solução para PBX-IP que alia estes dois requisitos. Utilizando placas de voz para telefonia da DigiVoice e uma placa-mãe MiniITX com processador Core2Duo Mobile, podemos construir um PBX-IP para atender a muitos tipos de empresas - sem pesar na conta de energia.

50

PBX-IP Consumo

de Baixo Wagner Barth

PBX-IP, do que se trata?

s BônVuoice Digitior PC&cCoInAto L e a d es o v h gan exclusi 3 . p3 Veja

Um PBX-IP é uma plataforma computadorizada de telefonia, ou seja, um equipamento constituído normalmente de um computador do tipo PC que, utilizando um software, proporciona um sistema de telefonia com todas as funcionalidades de um PABX convencional e muito mais. Pode oferecer desde sistemas de telefonia simples até sistemas mais complexos, aliando recursos como: atendimento automático de chamadas, correio de voz, salas de conferência, filas de atendimento (utilizadas por exemplo em Call Centers), redirecionamento de chamadas, fácil integração as operadoras de telefonia pública e IP (Telefonia IP), o que poderá oferecer uma redução significativa de custos nas ligações pelo uso da internet. Outro motivo para utilizarmos um PBX-IP, e o fato deste sistema ter se tornado tão popular, é que o leitor não estará

preso aos grandes fabricantes de PABX do mercado, o que o torna muito mais fácil de instalar e configurar do que um sistema de telefonia proprietário. Podemos obter configurações desde pequeno porte como um PBX-IP de 4 ou 8 troncos analógicos, utilizando placas VB0408 para 4 ou 8 canais FXO da DigiVoice, até um PBX-IP de maior porte, contendo um link E1 (R2/MFC ou ISDN) utilizando uma placa VB3030, e em torno de 50 ramais IP, empregando softphones, ATAs ou IpPhones (telefones IP). Para iniciarmos este projeto iremos usar uma plataforma baseada em GNU/Linux, utilizando o Asterisk como software de PBX-IP. Escolhemos a distribuição MeucciBE, desenvolvida pela Digivoice, por conter todos os aplicativos necessários para criarmos um PBX-IP em uma única distribuição e também por já estar preparada para suas placas, além de estar traduzida

PC&CIA # 88 # 2009

PC88_PBX.indd 50

13/8/2009 18:51:15


Redes para o nosso idioma, Português Brasil. Esta distribuição ativa automaticamente as placas da DigiVoice, desta forma o leitor não precisará se preocupar em instalar drivers para as placas de voz. Para obter gratuitamente a distribuição MeucciBE e obter maiores detalhes sobre a distribuição, acesse o site www.meucci.org. Lá o leitor encontrará também um fórum de dúvidas, de acesso gratuito. Como detalhes para o hardware utilizado vale lembrar que no desenvolvimento deste tipo de solução o que menos impacta no custo final do projeto são o HD (disco rígido) e a memória RAM. Como estes componentes têm baixo custo, a escolha de HD e memória com boa performance e capacidade é bastante recomendável, se possível instalando o máximo suportado pela placa-mãe (a grande maioria aceita pelo menos 4 GB). Esta recomendação tem como base a longevidade da solução, mas a capacidade mínima de HD e memória dependem do projeto final do PBX-IP, variando conforme os recursos que serão utilizados. Para o nosso projeto não serão necessários muito espaço de armazenamento nem grande capacidade de memória RAM, portanto o leitor poderá utilizar, por exemplo um HD de 160 GB e 1GB de memória RAM. Neste artigo estamos propondo a criação de um sistema dedicado para a função de PBX-IP baseado na placa-mãe J9F2EXTREMER3-LF, fabricada pela Jetway, que o leitor já teve a chance de conhecer na edição anterior. O principal motivo da escolha dessa placa é a economia de energia que ela proporciona, pois utiliza um processador Core2Duo Mobile, o mesmo tipo usado em notebooks. É muito importante utilizar hardware econômico pois este tipo de sistema permanece ativo 24 horas por dia, sendo seu impacto na conta de energia bastante visível.

Instalação

Para instalarmos a distribuição basta inserir o CD no drive e “bootar” o sistema. Será iniciada a instalação, devemos apenas nos ater às informações que serão apresentação na tela de boot (figura 1), e selecionarmos o tipo de HD disponível em nossa plataforma (o processo de instalação irá apagar todo o conteúdo da HD onde será instalado). Após selecionarmos o tipo

Menu de boot do CD F1. do MeucciBE.

51 IP atribuído por F2. DHCP pode ser visto na tela de console

de HD basta teclarmos “enter” e aguardarmos pelo término da instalação. Não podemos nos esquecer de já termos inserido a placa da DigiVoice no slot PCI da placamãe antes de iniciarmos a instalação, pois durante o processo a placa será detectada e terá seus drivers instalados automaticamente. Caso isso não seja feito, a placa poderá ser instalada posteriormente, porém não iremos abordar este processo. É bom lembrar ao leitor que estamos desenvolvendo um servidor de telefonia, e portanto este computador estará dedicado a esses serviços apenas, não devendo ser utilizado para outros como servidor de e-mail, firewall, etc, pois estes serviços consomem recursos e poderiam comprometer os serviços de telefonia. Quando a instalação terminar o computador reiniciará automaticamente, e neste momento é recomendável retirar o CD de instalação do drive. Como todas as configurações deste PBX-IP serão feitas por meio de um brow-

ser, a partir de outro computador, o PBX-IP deve estar conectado à rede para permitir este acesso. O MeucciBE esta preparado para receber um IP automaticamente quando conectado a uma rede com um serviço DHCP disponível, o IP atribuído será mostrado na tela de console (figura 2) após efetuarmos o logon, utilizando como usuário “root” e senha “digi”. Sugerimos que o IP do PBX-IP seja fixo, pois trata-se de um servidor de telefonia e portanto terá clientes (ramais) logados, não devendo ter seu IP trocado durante sua operação. Definir o IP manualmente é fácil. Como a distribuição MeucciBE é baseada no sistema operacional openSuSE 10.2, a sua configuração pode ser facilmente realizada utilizando a ferramente Yast, que pode ser acessada com o comando yast no console. Selecione então “Network Devices”, seguido da interface desejada e configure seus parâmetros de rede. Um exemplo da tela de configuração do Yast pode ser visto na figura 3. 2009 # 88 # PC&CIA

PC88_PBX.indd 51

13/8/2009 17:11:46


Redes

Configurando o seu PBX-IP.

52

Antes de iniciarmos as configurações a DigiVoice solicita que seja feito um cadastro gratuito da distribuição para que seja fornecida uma licença de uso. É interessante observar que a DigiVoice utiliza este cadastro para ter um controle estatístico de quantos sistemas MeucciBE existem, e dessa forma é mais fácil desenvolver melhorias para o sistema e manter os usuários informados sobre novas versões. Utilizando o browser de sua preferência podemos acessar o sistema digitando o IP do servidor, a solicitação de cadastro será feita apenas na primeira vez que o sistema for acessado (ver figura 4). Após realizar o cadastro será enviado um código de registro por e-mail que irá habilitar o seu PBX-IP. Copie e cole este código no campo “Chave de Licenciamento” para habilitar o seu sistema, como mostra a figura 5. Depois de feito o registro, será apresentada ao leitor a tela do MeucciBE. Clicando no logo ou no link “entrar” serão solicitados usuário e senha, que por padrão são “admin” e “digi”, respectivamente. Vários recursos estão disponíveis nesta distribuição, como relatórios de chamadas, salas de conferência, filas, correio de voz para os ramais, URA etc. Vamos passo a passo criar um PBX-IP que irá permitir ao leitor receber e fazer ligações, servindo como base para dar prosseguimento a configurações mais específicas como conferências entre outras. Ramais IP Podemos criar ramais IP utilizando protocolos SIP ou IAX2. Qual a vantagem de utilizarmos ramais IP? Como principal vantagem temos que o leitor não necessitará de uma fiação separada para a telefonia, pois a conexão com os ramais IP são feitas usando a própria rede de dados (Intranet ou Internet) além de permitir que estes ramais possam ser conectados, em qualquer lugar dentro da empresa, casa, etc, pois basta que o ramal seja conectado a uma porta ethernet que tenha acesso ao PBX-IP. Para o protocolo SIP temos disponíveis desde softwares que funcionam como telefones (chamados softphones), alguns deles gratuitos e outros pagos, até telefones IP digitais, passando pelos ATAs, que fornecem saídas para conexão com aparelhos de telefones convencionais.

Tela do Yast para F3. configurar opções de IP, entre outras.

F4. Tela de cadastro

F5. Tela de registro

PC&CIA # 88 # 2009

PC88_PBX.indd 52

17/8/2009 10:39:45


Redes

F6. Softphone X-Lite

Telefone IP IPM-400 F7. da Stracta

Existem vários softphones disponíveis para download, podemos citar o X-Lite como um dos mais utilizados por suportar o protocolo SIP e ser gratuito. Suporta vários codecs, porém não suporta o codec G-729 que é o mais utilizado pelas operadoras VoIP (Voice over Internet Protocol), na figura 6 vemos a interface do X-Lite, que pode ser encontrado no site do fabricante (www.counterpath.com). Como exemplo de ATA e IpPhone podemos citar o modelo IPA-210, um ATA com duas portas FXS (ramais analógicos) que suporta o protocolo SIP e o codec G-729, e o telefone IP IPM-400, também com suporte ao protocolo SIP a ao codec G-729 (figura 7). Tanto a ATA IPA-210, quanto o telefone IP IPM-400 suportam uma variedade de codecs além do G-729, tais como o GSM, G-711a e G-711u, entre outros. Maiores informações podem ser obtidas no site do fabricante (www.stracta. com.br). Criando o ramal IP com protocolo SIP Para criar um ramal utilizando protocolo SIP devemos selecionar a opção “Ramais” do menu “Configurações” (figura 8), selecionar o dispositivo SIP na caixa de rolagem e clicar na opção “Aplicar”. Na tela que será apresentada (figura 9), deverão ser colocados os parâmetros para o ramal, caso desejemos ter uma ramal de número 1000, por exemplo, deveremos pre-

53

F8. Selecionar ramal do tipo SIP

F9. Configurando um ramal do tipo SIP

2009 # 88 # PC&CIA

PC88_PBX.indd 53

13/8/2009 17:12:02


Redes encher os campos que irão criar esta conta, estes parâmetros deverão posteriormente ser adicionados ao terminal SIP (ramal) que será utilizado pelo usuário. Os campos de preenchimento necessário são:  Ramal: Onde deve ser colocado o número do terminal, no nosso caso 1000  Secret: Deve ser colocada a senha que será utilizada para que o terminal SIP faça o registro nesta conta. Os demais campos adicionam outras funcionalidades ao ramal, para saber mais sobre elas o leitor pode posicionar a seta do mouse no campo para receber uma caixa de ajuda, que irá aparecer em seu browser.

54

Gravando um ramal Podemos gravar as ligações deste ramal, tanto as entrantes quanto as que saem, ou ambas. Existem três opções disponíveis, que podem ser encontradas na tela de criação de um ramal, são elas:  Sempre  Nunca  Por demanda (gravação acionada pelo usuário) A opção “por demanda” significa que o ramal iniciará a gravação somente quando o usuário do ramal assim desejar, para isso basta que seja digitado durante a conversação o código “*1”, e a gravação começará. Para que a gravação termine, basta colocar o telefone no gancho novamente. Devemos lembrar que o processo de gravar ramais consome recursos de máquina, devendo portanto ser utilizado com cautela para não comprometer o sistema. Habilitando Correio de Voz Outro recurso muito utilizado é o de correio de voz para os ramais, recurso este que não está disponível na maioria dos PABX de mercado, porém em PBX-IP baseados em plataformas Asterisk como o MeucciBE encontra-se disponível para todos os ramais que forem criados. Para adicionar este recurso ao ramal que estamos criando, basta mudar o campo “Estado” da seção Correio de Voz para “Habilitado”, figura 10, e já temos uma caixa postal criada para o ramal, os demais campos definem as características da caixa postal. O principal campo a ser preenchido é o “Senha do Correio de Voz”, pois quando

F10. Configurando uma caixa postal para o ramal

F11. Barra de Aplicar Alterações

o leitor for consultar uma mensagem de caixa postal o sistema irá solicitar que seja digitada esta senha. A consulta a caixa postal pode ser feita de qualquer ramal do PBX-IP utilizando o código “*98”, o leitor ouvirá um menu de navegação aos recursos da caixa postal, semelhante aos utilizados em telefonia celular. Finalizando a criação do ramal Para terminarmos a criação deste ramal devemos clicar na opção “Aplicar”. Todas as configurações feitas até o momento estão sendo preparadas para serem salvas, será apresentada uma barra vermelha na parte superior da tela (figura 11), com os dizeres “Aplicar Alterações”, deve-se clicar com o mouse nesta

barra, após este clique o leitor receberá uma janela que irá solicitar a confirmação das alterações ou cancelamento das alterações. Clicando em “Continuar”, o ramal será salvo e estará disponível para ser registrado por um aparelho de telefone IP ou softphone. O leitor poderá adicionar ao PBX-IP mais ramais, que já estarão prontos para que possam falar entre si pois a distribuição MeucciBE automaticamente adiciona as regras de ligações entre ramais.

Criando troncos com operadoras de telefonia

Agora que já temos ramais em nosso PBX-IP, o próximo passo será criar troncos com as operadoras de telefonia, públicas

PC&CIA # 88 # 2009

PC88_PBX.indd 54

17/8/2009 10:39:58


Redes

F12. Placa VB0408 FXO da DigiVoice para linhas analógicas

Criando um tronco com uma operadora VoIP Normalmente, as operadoras VoIP disponibilizam seus troncos utilizando o protocolo SIP. Para adicionarmos uma operadora VoIP devemos utilizar a opção “Canais” do menu “Configurações” e selecionar “Adicionar um canal SIP”, figura 13. Os parâmetros de criação deste tronco VoIP devem ser adicionados na área de texto do box “detalhes de peer”, estes parâmetros devem ser fornecidos pela operadora VoIP de sua escolha. Na figura 14 temos um exemplo dos parâmetros necessários usados pela maioria das operadoras VoIP, devemos observar que é importante que o campo “Campo de Registro” seja preenchido corretamente, pois é a partir dele que a operadora VoIP irá identificar o usuário e permitir o seu registro (temos um exemplo da sintaxe utilizada no Box 1). Existem muitas operadoras VoIP no mercado, e como exemplo podemos citar duas grandes operadoras como a VONO (www.falevono. com.br) e TellFree (www.tellfree.com.br).

Criando Rotas de Saída

e VoIP. O que é um tronco? Tronco é o termo utilizado para o grupo de linhas de telefone com a operadora de telefonia pública ou VoIP. Para nos conectarmos às operadoras de telefonia pública podemos usar troncos analógicos, também conhecidos como POTS (Plain Old Telephone Service), que consistem nas linhas de telefone tradicionais que utilizam um par de fios. Para nos conectarmos a uma operadora VoIP necessitaremos que o sistema de PBX-IP tenha acesso à internet. Criando um tronco PSTN (Rede de telefonia Pública Comutada) Neste exemplo utilizaremos uma placa VB0408 de 8 canais analógicos (FXO) da DigiVoice (figura 12). Os canais do tipo FXO (Foreign eXchange Office) servem para receber as linhas de telefone convencionais de uma operadora de telefonia pública. Quando usamos mais de uma linha telefônica em um PBX-IP é comum criarmos um grupo contendo todas estas linhas, esse método é utilizado pois quando o PBX-IP necessita encontrar uma linha disponível

(livre) para que uma ligação seja feita, é muito mais fácil que o sistema procure por estas linhas em um grupo do que tentar localizá-las uma a uma. Quando utilizamos plataformas baseadas em Asterisk este grupo de linhas de telefone é comumente chamado de grupos de canais. A plataforma MeucciBE automaticamente cria um grupo de canais, “g1”, que será utilizado para ligações de saída, desta forma o leitor não terá que se preocupar com maiores detalhes sobre como criar um tronco PSTN, podemos visualizar este tronco pela opção “Canais” do menu “Configurações”. Para configurarmos a placa VB0408, caso necessário, devemos editar um arquivo-texto pelo console do Linux. O arquivo chama-se digivoice.conf e encontra-se no diretório /etc/asterisk, este arquivo está ricamente comentado com todos os parâmetros disponíveis de configuração da placa, e para facilitar a vida do leitor a distribuição MeucciBE já cria um arquivo padrão com configurações default que atendem à maioria das operadoras de telefonia pública no Brasil.

Chegamos ao ponto esperado pelo leitor, utilizar os ramais que foram criados no PBX-IP e começar a fazer ligações a partir deles. Mas o que são rotas de saída? Elas são os caminhos por onde as ligações saem, ou seja, quando uma ligação é feita a partir de um ramal o número de telefone digitado é analisado pelo sistema por um conjunto de rotas criadas, quando uma destas rotas atender a solicitação entregará a ligação para o tronco que estiver associado a esta rota. Na maioria dos PABX convencionais, para que seja possível fazermos uma ligação é necessário que seja discado “0” (zero) antes do número, de modo que seja feita a captura de uma rota de saída, já no PBX-IP isso não é mais necessário pois ele trata as rotas analisando o número discado pelo ramal.

55

Box 1: Registro para conta SIP As operadoras VoIP necessitam que o usuário se registre antes de realizar uma chamada. Sintaxe de registro: conta:senha@hostdaoperadora/id Ex: 1121213232:12345@operadoravoip.com.br O parâmetro “id” pode ser opcional em algumas operadoras.

2009 # 88 # PC&CIA

PC88_PBX.indd 55

13/8/2009 17:12:30


Redes Com a placa da DigiVoice conectada a PSTN poderemos criar uma rota para que as ligações locais saiam por ela para completar as ligações locais, e para fazermos ligações DDD (Ligações de longa distância) criaremos uma rota com destino a uma operadora VoIP.

56

Rota para a PSTN (placa DigiVoice) Para termos acesso às rotas de saída da plataforma MeucciBE utilizamos a opção “Rotas Saintes” do menu “Configurações”, o MeucciBE já possui uma rota padrão, a rota “0 exemplo”, que permite a saída de ligações pelo grupo de canais “g1”, este grupo de canais é criado como padrão na distribuição MeucciBE e está associado aos canais da placa de voz Digivoice. Podemos excluir ou editar esta rota, e também adicionar outras. Iremos editar a rota-exemplo para, a partir do dígito “0”(zero), obter esta rota e sair com ligações para o grupo de canais “g1”. Permitiremos apenas ligações locais, incluindo celulares. Clique na rota padrão “0 Exemplo” e altere o modelo de discagem que esta como “0|.” para NXXXXXXX (este valor é uma máscara, veja mais no Box 2), conforme o exemplo da figura 15. Esta máscara de discagem irá permitir que apenas números de telefones que iniciem pelos dígitos 2 a 9 (máscara N) e que sejam completados com outros 7 dígitos de 0 a 9 (máscara X) sejam encaminhados para o grupo de canais “g1”, que está associado à placa de voz da DigiVoice e conectada a linhas de telefone de uma operadora de telefonia pública. Podemos inserir mais máscaras em uma mesma rota como, por exemplo, a regra para permitir

F13. Adicionar um canal SIP para operadoras VoIP

F14. Detalhes de cadastramento de uma conta para uma operadora VoIP

Box 2: Máscaras de plano de discagem Existem máscaras que nos permitem criar estas regras: Z: Aceita somente um dígito de 1 a 9 N: Aceita somente um dígito de 2 a 9 X: Aceita somente um dígito de 0 a 9 . (ponto): Aceita um ou mais dígitos de 0 a 9 |: Exclui os dígitos a sua esquerda [25-9]: É válido como sendo um único dígito, utilizado para definir dígitos específicos e/ou range de dígitos, no exemplo é aceito o dígito 2 e o intervalo de dígitos de 5 a 9.

F15. Rota de saída para a PSTN

PC&CIA # 88 # 2009

PC88_PBX.indd 56

17/8/2009 11:22:54


Redes ligações para números de emergência 19X - esta máscara permite que sejam discados números como 190, 192, 196, etc. Os campos obrigatórios para esta rota de saída são:  Nome da Rota: Já esta preenchido como “exemplo”, e pode ser renomeado caso necessário.  Mo de lo de Di s c a g e m : E s tão sendo utilizadas as máscaras NXXXXXXX e 19X  Sequência de Canais: Utilize o canal do tipo DGV com o grupo g1 (DGV/g1) Há vários outros campos, mas os importantes para o nosso caso são estes três. Para finalizar não devemos esquecer de clicar na opção “Aplicar Alterações”. Rota para operadora VoIP Adicionaremos uma nova rota de saída, que será utilizada para fazer ligações usando a operadora VoIP, quando o leitor discar para números DDD. Clique na opção “Adicionar Rota” e complete os campos:  Nome da Rota: VoIP  Modelo de Discagem: 0ZZNXXXXXXX  Sequência de Canais: Selecione a operadora VoIP que foi cadastrada Na figura 16 temos um exemplo de uma rota de saída utilizando uma operadora VoIP. Para fazer ligações DDD usando a maioria das operadoras VoIP não é necessário discar o código de uma operadora, e sim somente o código de área e o número de telefone, por exemplo, 011, 021, 051, dentre outros códigos DDD.

Recebendo ligações

Há várias maneiras de um PBX-IP receber uma ligação em um tronco PSTN, VoIP ou interface celular, a mais comum é encaminhar a ligação recebida para uma UR A (Unidade de Resposta Audível), aquela mensagem que recebemos nos instruindo para qual departamento ligar; outra maneira é encaminhar a ligação para uma telefonista. Para recebermos ligações devemos utilizar a opção “Rotas Entrantes” do menu “Configurações”. Nesta opção já existe uma rota de entrada padrão, any DID / any CID, que funciona como um “catch all”, ou seja,

F16. Rota de saída para operadora VoIP

57

F17. Indicando o destino de uma ligação entrante

um “pega-tudo” dos troncos, caso chegue uma ligação, seja no tronco PSTN ou VoIP, esta rota irá atender a esta ligação. A rota any DID / any CID encaminha a ligação recebida para uma URA padrão do sistema que reproduz uma mensagem de teste indicando que a plataforma MeucciBE foi instalada corretamente, como não iremos abordar a criação de URA neste artigo, iremos mostrar como direcionar uma ligação de entrada para um ramal, funcionando como se fosse o ramal da telefonista da empresa. Clique na rota padrão any DID / any CID e com a barra de rolagem caminhe até o final da tela, onde temos a opção “Configurar Destino”, nesta opção podemos selecionar o destino da ligação entrante, podemos observar que está selecionada a

opção “URA” exemplo, para direcionarmos a ligação para um ramal basta selecionarmos a opção “Ramais” e escolhermos o ramal de destino para a ligação, figura 17.

Conclusão

Agora é só o leitor colocar a “mão na massa”, ou no telefone, e começar a fazer ligações, receber, usufruir da caixa postal dos ramais e das demais facilidades que um PBX-IP pode proporcionar. Caso o leitor esteja interessado em conhecer mais sobre a plataforma MeucciBE, a DigiVoice oferece cursos gratuitos em seu Centro de Treinamentos para os clientes que adquirirem um de seus modelos de placas de voz para telefonia. Maiores informações podem ser obtidas no site www.digivoice.com.br. pc 2009 # 88 # PC&CIA

PC88_PBX.indd 57

17/8/2009 10:40:25


Sistemas Operacionais

58

SpaceMonger Encontre facilmente o espaço perdido no seu HD. Para isto basta um software que mostre quanto cada diretório (ou pasta) e arquivos estão usando do seu HD. Estes softwares são muito úteis, pois se você precisa de espaço de imediato, é suficiente abrir o software e procurar por arquivos desnecessários e apagá-los.

E

sta situação é mais comum do que se imagina: você está fazendo o download de um arquivo grande, a transferência está acontecendo com boa velocidade, mas já na casa dos 90% surge na tela a mensagem fatal “Espaço em disco insuficiente”. Normalmente ,o próximo pensamento é “Onde foi parar o espaço do meu HD?” seguido de uma grande frustração. Pois é, você não tem idéia do que possa estar ocupando todo o espaço do disco, e não sabe nem por onde começar. Mas, felizmente, isso acabou, pois com o SpaceMonger você pode descobrir facilmente e limpar os diretórios e arquivos responsáveis pelo sumiço do espaço livre que havia antes.

Download

Anibal B. Nascimento Jr.

Atualmente faz parte da equipe do laboratório da Revista. Entusiasta das áreas de hardware e programação.

Este utilitário pode ser obtido no site do fabricante: http://www.sixty-five.cc/. Até a data de conclusão deste artigo a versão mais recente era a 2.1, que é comercial, portanto, paga. Entretanto, na própria seção de downloads do site há a versão 1.4 dispo-

nível gratuitamente. Esta antiga versão contém apenas funcionalidades básicas, mas que são mais do que suficientes para a tarefa que precisamos executar. Ainda por cima, trata-se de um executável autocontido, que sequer precisa ser instalado, ou seja, você pode levá-lo para qualquer lugar em um pendrive e executá-lo diretamente no PC de clientes ou amigos.

Utilização

Como não precisa ser instalado, basta executar o arquivo SpaceMonger.exe para iniciar o programa. Em seguida, clique no botão “Open”, que está localizado no canto superior esquerdo da janela do programa. Surgirá a janela “Select Drive to View”, que solicita qual unidade (drive) você deseja explorar. O que você verá deve se assemelhar à figura 1. O programa lê os diretórios e arquivos da sua partição e os organiza graficamente na forma de blocos aninhados. Arquivos maiores são representados por blocos maiores, todos são desenhados dentro dos blocos dos diretórios aos quais pertencem.

PC&CIA # 88 # 2009

PC87_SpaceMonger.indd 58

13/8/2009 17:13:28


Sistemas Operacionais Para navegar nos diretórios, basta clicar duas vezes sobre eles. Ainda na figura 1, há um diretório cheio de arquivos que não queremos mais. Ele pode ser eliminado facilmente, basta clicar sobre ele para que seja selecionado e a seguir clicar no botão “Delete” na barra de ferramentas. Após a deleção, o SpaceMonger recalcula o espaço do disco e atualiza a tela, conforme é visto na figura 2.

Conclusão

O SpaceMonger é bem eficaz e seu mapa gráfico é claro, o que facilita a busca por arquivos e diretórios grandes, que eventualmente estejam ocupando mais espaço do que deveriam. É uma boa ferramenta para aquela avaliação periódica que sempre adiamos por falta de tempo, ou até por preguiça. Para o técnico em informática ele pode ser bem útil pois, além de ser freeware, pode ser executado a partir de um pendrive ou qualquer outro dispositivo móvel como um CD. Isto permite execut a r u ma limpeza na s máquina s de clientes de forma transparente, sem ter de instalar nada. De forma geral, o SpaceMonger se saiu muito bem e cumpriu o que prometeu sem qualquer tipo de erro, portanto, é recomenpc dado.

59

F1. HD com pouco espaço livre.

F2. Agora temos 2 GB de espaço livre.

2009 # 88 # PC&CIA

PC87_SpaceMonger.indd 59

13/8/2009 17:13:37


Sistemas Operacionais

el

Desfragmentação

otimizada de disco

vencio

A desfragmentação de disco é uma solução normalmente adotada quando o computador já não é tão rápido como nos primeiros dias de uso. Apesar de trazer benefícios em muitos casos, saber a hora certa e ter ferramentas adequadas é essencial. 60

D

Diego Pagliarini Vivencio

Bacharel em Ciência da Computação e mestrando na área de virtualização e sistemas multi-core pela UFSCar. É Analista de Informática e trabalha com virtualização de servidores no Instituto de Química da Unesp Araraquara.

a mesma forma que durante nossa vida nos acostumamos a juntar muitas coisas, na vida digital não é diferente. Fotos, documentos, vídeos, jogos, muitas vezes itens que nem têm mais serventia, tudo vai se acumulando nos discos rígidos. É sempre aquele pensamento: e se eu precisar algum dia? Não é raro buscar por um determinado arquivo e descobrir ter três ou quatro cópias espalhadas pelo disco. Conforme o disco é ocupado, tem-se a impressão de que ele está mais lento, e nessa hora a primeira ação que vem à cabeça é desfragmentá-lo. Desfragmentar oferece alguns benefícios, dos quais o mais conhecido é o ganho em desempenho pelos arquivos estarem armazenados sequencialmente. Um efeito indireto é a redução do desgaste do disco, pois a agulha precisa mover-se menos para acessar os dados. Em conjunto com a desfragmentação, é possível adotar políticas de posicionamento dos dados, situando arquivos acessados frequentemente na parte mais rápida do disco, ou agrupando os arquivos utilizados durante a inicialização do sistema.

Antes de desfragmentar

Algumas medidas simples podem auxiliar no processo de desfragmentação. Uma delas é fazer uma limpeza no disco, livrando-se de arquivos temporários e restos deixados por programas. O próprio Windows tem um utilitário para esse tipo de limpeza, além das várias alternativas gratuitas disponíveis. Softwares antivírus podem causar problemas se estiverem configurados para varrer cada dado lido do disco. Certifique-se que não é essa a situação, caso contrário desative a proteção temporariamente. Partições muito ocupadas oferecem péssimos resultados ao serem desfragmentadas, o tempo total da operação aumenta consideravelmente e vários arquivos continuarão fragmentados no final do processo. Uma opção é tentar compactar os arquivos pouco usados (recomendamos o 7-Zip, cujo formato .7z tipicamente comprime melhor que os tradicionais .zip e .rar), liberando espaço para que o desfragmentador possa atuar em melhores condições. Uma sugestão no momento da aquisição é comprar um disco maior do que o necessário. Ter bastante espaço livre diminui a taxa de fragmentação,

PC&CIA # 88 # 2009

PC88_Desfragmentacao.indd 60

13/8/2009 16:27:50


este é Atom, o menor processador da Intel.

Sistemas Operacionais além de facilitar o trabalho da ferramenta empregada. Atualmente a diferença para comprar um disco um pouco maior é muito pequena, compensando o investimento.

O JkDefrag

O JkDefrag (www.kessels.com/JkDefrag) é um desfragmentador gratuito desenvolvido por Jeroen Kessels e licenciado sob a LGPL. Ele utiliza a API (conjunto de bibliotecas) de desfragmentação do Windows, presente em todas as versões partir do 2000. Essa API é empregada na maioria das ferramentas de desfragmentação, inclusive na que vem inclusa no Sistema Operacional. Ele apresenta várias vantagens em relação ao desfragmentador embutido no Windows. Sua velocidade de operação é sensivelmente superior. Muitos podem se perguntar como isso é possível, se são baseados na mesma API? A biblioteca oferece apenas os mecanismos para garantir a movimentação segura dos dados dentro do disco rígido, mas a implementação do software influencia no resultado final ao tomar melhores decisões ao definir quais e como os dados devem ser movidos. Seu principal diferencial é a organização dos dados nas partições. O JkDefrag classifica os dados em três grupos:  Grupo 1: esse grupo é composto por diretórios. Diretórios estão entre os itens mais acessados no disco, e com essa informação espalhada podem ocorrer momentos de lentidão ao abrir uma pasta;  Grupo 2: nesse grupo estão os arquivos em geral. Aqui se incluem arquivos menores e aqueles acessados/ modificados frequentemente;  Grupo 3: nesse grupo ficam os arquivos classificados pelo criador do programa como space hogs (devoradores de espaço). São arquivos pouco acessados ou que são muito grandes. Nessa categoria se inclui o conteúdo da lixeira, dados de restauração de sistema, arquivos compactados (.zip, .rar, .7z, etc) e arquivos que não são acessados há mais de 30 dias ou maiores que 50 MB. Como otimização, ele organiza os dados nas partições da seguinte forma: primeiro ficam os diretórios, seguidos pelos arquivos comuns, deixando os space hogs no final da partição. O segredo do JkDefrag é deixar

F1. Tela inicial do JkDefrag Portable.

um pequeno espaço vazio (por padrão 1% do tamanho total da partição) entre cada um dos grupos. Apesar de parecer simples, esse detalhe é primordial. Sem isso, todos os dados ficariam agrupados no início da partição, e ao salvar arquivos temporários e novos arquivos eles acabariam sendo salvos após os space hogs, forçando a agulha do disco a se deslocar mais. Além dessa técnica, ele oferece várias otimizações acessíveis através de linha de comando. É possível aumentar o espaço entre os grupos, ou adotar estratégias especiais na ordenação dos arquivos, dentre elas:  Nome completo: arquivos de um mesmo programa ficam agrupados, minimizando o tempo de abertura dos aplicativos;  Último acesso: os arquivos acessados frequentemente ficam no início do disco, otimizando sua abertura;  Data de criação: arquivos mais antigos tem grande chance de fazer parte do sistema operacional, de drivers ou programas utilizados diariamente, sendo interessante posicioná-los no começo do disco. É importante pensar muito bem na técnica que será utilizada, pois há fatores secundárias a observar. Por exemplo, a técnica de ordenar pelo último acesso conflita com a varredura automática de alguns antivírus, que ao escanear o disco atualizam a informação de último acesso de todos os arquivos. Neste caso, apesar de inteligente, esta técnica pode ser inviável. O funcionamento padrão do programa analisa todas as partições no sistema, desfragmenta e realiza a otimização rápida (separação dos dados em grupos). Para outras opções que apresentamos, é necessário recorrer à linha de comando. Felizmente, várias pessoas desenvolveram interfaces gráficas que permitem escolher as partições a serem

Devo desfragmentar o pendrive? Dispositivos baseados em memória flash, como pendrives, cartões de memórias e SSDs não precisam nem devem ser desfragmentados. Como não são dispositivos mecânicos, acessar qualquer região da memória leva o mesmo tempo. Além disso, esse tipo de memória tem um número limite de gravações por célula e por esse motivo os dispositivos empregam uma técnica conhecida como wearleveling, na qual os dados gravados são distribuídos pela memória a fim de evitar que uma certa região se degrade antes do restante. Ainda que os arquivos apareçam de forma contígua no sistema de arquivos, eles estarão fragmentados internamente.

61

processadas ou acesso às opções avançadas. Iremos analisar uma versão desenvolvida para rodar diretamente de um pendrive ou CD, perfeita para que faz manutenção.

Versão Portátil

O JkDefrag Portable (http://portableapps.com/apps/utilities/jkdefrag_portable) é um peso pena de apenas 1 MB mantido pelo PortableApps.com, um grupo focado em desenvolver versões portáteis de softwares convencionais. Softwares portáteis são aqueles que podem rodar diretamente de um dispositivo removível, sem a necessidade de instalá-los no sistema. Há versões portáteis de vários aplicativos conhecidos, como o Firefox, ClamWin, VLC e até mesmo o OpenOffice.org, permitindo manter um ambiente de trabalho completo no bolso da camisa. Vale a pena visitar o site, pois há ferramentas para as mais diversas áreas, desde utilitários de manutenção até jogos simples para passar o tempo. 2009 # 88 # PC&CIA

PC88_Desfragmentacao.indd 61

13/8/2009 16:28:11


um produto que irá se beneficiar de um Atom Z500.

Sistemas Operacionais O resultado é mostrado na figura 3. As informações dos diretórios ficaram logo no início da partição (uma faixa fina na parte inferior da representação gráfica), seguido pelos arquivos comuns e no final os space hogs, intercalados pela MFT. É possível observar os intervalos entre as regiões, bem como alguns espaços vazios no meio das regiões. Isso é normal, o JkDefrag procura conciliar eficácia com desempenho, e tentar eliminar todos os espaços vazios aumentaria o tempo dispendido sem trazer benefícios. O importante é ter espaço livre contíguo, evitando que novos arquivos acabem fragmentados.

Conclusão F2. Processo de desfragmentação

62

F3. Sistema de arquivos otimizado

A interface padrão pode ser vista na figura 1. Através dela é possível selecionar qual partição será processada pelo JkDefrag, além de permitir escolher se será realizada apenas uma análise, uma desfragmentação simples ou otimizada. É útil analisar antes de fazer qualquer tipo de operação, pois é possível ter uma idéia do tempo necessário baseado no grau de fragmentação. Uma desfragmentação otimizada pode ser demorada na primeira vez que for realizada, mas nas execuções subsequentes, com os dados antigos já otimizados, a operação será bem mais rápida.

O processo de desfragmentação é ilustrado na figura 2. As áreas em amarelo são arquivos fragmentados, as áreas em verde-claro são arquivos desfragmentados e aquelas em verde-escuro são os space hogs. Regiões pretas correspondem ao espaço vazio. Arquivos que não podem ser movidos aparecem em vermelho. A região rosa quase no meio da partição corresponde à MFT (Master File Table) do NTFS, que armazena a estrutura do sistema de arquivos. Ela ocupa 12,5% do tamanho total da partição, mas essa reserva não é fixa, podendo ser utilizada por arquivos comuns se não houver espaço disponível.

Apresentamos ao leitor uma ferramenta simples, mas que permite trazer benefícios no desempenho geral do equipamento. É um excelente diferencial em um serviço de manutenção, saindo do lugar comum de usar o utilitário embutido no sistema sem precisar recorrer à compra de licenças. Uma possibilidade é configurar o JkDefrag para atuar a cada boot, através das tarefas agendadas do Windows. Como o disco estará sempre com baixa fragmentação, o tempo para desfragmentar será reduzido. Para isso é necessário algum conhecimento da linha de comando, cuja documentação está disponível no site oficial do utilitário. No início de julho o criador do JkDefrag liberou a versão 4.0, sob o nome de MyDefrag (www.mydefrag.com). Junto com a alteração, ele passou a ser fornecido sob uma nova licença de uso, que exige que o software seja utilizado na forma como é distribuído (atualmente só está disponível no formato de instalador). Não se sabe ainda se o novo licenciamento pode afetar a criação de versões portáteis, mas até o encerramento desta edição a variante portable ainda era baseada na versão 3.36 do JkDefrag. Isso não chega a ser um problema, pois essa versão é muito sólida e confiável, e as principais melhorias da versão 4.0 foram na interface gráfica e no suporte a scripts para operações complexas. Pra quem quiser utilizar os recursos avançados, recomendamos explorar o site oficial, onde está disponível toda a documentação, além de outras interface gráficas de terceiros que facilitam o acesso a outras funcionalidades desse pequeno notável. Até a próxima! pc

PC&CIA # 88 # 2009

PC88_Desfragmentacao.indd 62

13/8/2009 16:27:56


Tendências Tendências

20ª Pesquisa da FGV Os investimentos em TI continuarão a crescer a taxas vigorosas! Isto é o que mostra a 20ª pesquisa anual da Administração de Recursos da Informática, conduzida pela FGV. Ter consciência da realidade do mercado é uma necessidade para quem trabalha em qualquer ramo, e no da informática não poderia ser diferente. Conheça as tendências e use esta informação a favor do seu negócio.

N

a última semana de maio, o professor Fernando S. Meirelles apresentou à imprensa os resultados da 20ª pesquisa anual e tendências de software, realizada entre agosto de 2008 e abril de 2009 pelo Centro de Tecnologia de Informação Aplicada da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas. O prof. Meirelles e sua equipe fazem um trabalho muito bom para quantificar o mercado brasileiro desta área e facilitar as informações a todos os que necessitam delas, desde 1989.

Índices

Entre os índices utilizados na moderna administração da informática, destaca-se o gasto total medido como percentagem da receita líquida da empresa. Este índice é reconhecido como um dos principais indicadores, permitindo o planejamento, o monitoramento e a comparação com outras empresas. O percentual da receita líquida aplicado em informática aparece cada vez mais como um fator-chave estratégico determinante no sucesso da empresa. Outro indicador para complementar o anterior é o custo anual por teclado. Uma evidência da sua relevância é o uso crescente de uma variação conhecida como Total Cost of Ownership ( TCO ) ou Custo Total de Propriedade, termo muito popular na área e um conceito que aparece no vo-

cabulário utilizado em artigos orientados para a gestão de TI pelos fabricantes de equipamentos, produtos de informática e pelas consultorias. Empresas como IBM, HP, Microsoft e Dell, entre outras, oferecem sua receita e metodologia de cálculo e redução do TCO. A pesquisa dá continuidade ao Fórum de Informações sobre a Administração de Recursos de Informática nas Empresas, atualizando as anteriores, bem como as publicadas no livro do prof. Meirelles, Novas Aplicações com Microcomputadores, editado pela Pearson/McGraw-Hill na sua 34ª reimpressão em 2008. A amostra teve duas mil respostas válidas, dentro de mais de cinco mil empresas pesquisadas por alunos de graduação e pós-graduação da FGV (Fundação Getúlio

Hélio Fittipaldi Vargas). Esta amostra é bastante representativa das médias e grandes empresas nacionais de capital privado, sendo que mais de 60% das empresas pertencentes ao grupo das quinhentas maiores do Brasil estão entre as pesquisadas.

63

Pesquisa reconhecida

As grandes empresas nacionais, multinacionais da indústria e comércio na área de TI e órgãos do governo, reconhecem o valor e a qualidade deste trabalho desenvolvido pela FGV em estabelecer parâmetros, visto a dificuldade, principalmente em anos passados quando o mercado ilegal destes equipamentos era muito significativo e o professor Meirelles com sua equipe conseguiu, de maneira criativa e utilizando outros marcadores (como exemplo, a

Evolução histórica F1. do valor médio do índice G.

2008 # 88 # PC&CIA

PC88_fgv.indd 63

13/8/2009 17:14:11


Tendências

Tendências F2. Índice de gastos por setor da economia.

64

produção de monitores de vídeo nacionais que não sofriam a concorrência da importação ilegal), estabelecer os números deste mercado. A quantidade e a qualidade das informações obtidas na pesquisa permitem muitas análises e a quantificação de diversos índices para monitorar e planejar o uso da Tecnologia de Informação nas empresas.

Gastos e Investimentos em Informática

No diagrama da figura 1, podemos notar a evolução histórica do valor médio do índice G que é igual a gastos (despesas e investimentos) sobre o faturamento líquido anual. O Índice G é composto pelo gasto total destinado à informática compreendendo: investimentos, despesas e todas as verbas alocadas em informática como instalações, equipamentos, suprimentos, softwares, te-

F3. Liderança dos bancos em gastos e investimentos

leprocessamento, treinamento, custos com o pessoal direto e indireto, entre outros. Telecomunicações também entra na conta, pelo menos a parte referente a dados, se estendendo a todo o custo de telecom nas empresas onde informática já cuida da telefonia com voz e dados. O gasto total das empresas nacionais costuma estar entre 1% e 20% do faturamento líquido. O mais frequente é um valor entre 1% e 10%. Encontra-se, com certa frequência, empresas de determinados setores que alocam, por vários anos, valores crescentes acima de 6% do faturamento em sua informatização e automação. Este índice depende de vários fatores: os dois principais são o estágio ou nível de informatização e o setor no qual a empresa opera. Mas, infelizmente, não existe ainda uma forma simples e direta de estabelecer o estágio ou nível de informatização de uma empresa com precisão.

Mercado Brasileiro e Uso Corporativo

Quando a empresa progride no processo de uso da informática o Índice de Gastos cresce, um conceito que não costuma ser facilmente aceito pelos executivos. Nos últimos 20 anos o Índice de Gastos tem crescido em média 8% ao ano, passando de 1,3% em 1988 para 6% em 2008/9, existindo ainda muito espaço para alcançarmos os níveis dos países mais desenvolvidos. Setores da economia No diagrama da figura 2, temos o Índice de Gastos por setor da economia, no qual se vê diferenças significantes entre os setores clássicos onde temos a indústria, o comércio e os serviços. Os valores mostram que, em média, o setor de Serviços é o que mais gasta e investe em TI. Neste setor, os bancos lideram e apresentam valores 50% superiores aos outros participantes do mesmo setor, conforme mostra o diagrama da figura 3. Evolução anual

Índices e Valores

1988

2002

2008/9

20 anos

6 anos

2008

Venda no ano (milhões de micros)

0,4

4,4

12

19,00%

19,00%

16,00%

Base Instalada (micros em uso, milhões)

1

18

56

21,00%

21,00%

22,00%

Preço do micro padrão (US$ 1.000)

5,4

0,5

0,4

-12,00%

-5,00%

-4,00%

Custo Anual por Teclado (US$ 1.000)

16

10

10

-2,00%

0,00%

-1,00%

Custo Anual por Usuário (US$ 1.000)

9

10

10

1,00%

0,00%

1,00%

Custo Anual por Funcionário (US$ 1.000)

2

7

8

6,00%

3,00%

3,00%

Gastos Informática / Faturamento Líquido

1,30%

4,70%

6,00%

8,00%

4,00%

5,00%

Micros em uso nas empresas (média)

20,00%

6,00%

8,00%

Usuários Ativos nas empresas (média)

14,00%

4,00%

6,00%

Relação Usuário / Micro nas empresas

3

1,2

1,1

-5,00%

-1,00%

-2,00%

Micros em redes nas empresas

5,00%

94,00%

98,00%

16,00%

1,00%

8,00%

% de usuário (usuários/funcionários)

7,00%

64,00%

78,00%

13,00%

3,00%

1,00%

Relação funcionários / teclado

20

0,2

1,7

-12,00%

-3,00%

-1,00%

T1.

PC&CIA # 88 # 2009

PC88_fgv.indd 64

13/8/2009 17:14:20


Tendências Tendências

F4. Crescimento do índice de gastos para as empresas do comércio

O valor do Índice de Gastos para os bancos é maior devido a dois fatores estruturais: o segmento é o mais informatizado e o denominador do índice é medido de outro modo. A evolução do Índice de Gastos para as empresas do Comércio começou com um pequeno crescimento até 1993, quando passa a ter uma aceleração devido ao fenômeno da automação comercial. O comportamento do varejo foi diferente do restante do comércio, seus gastos com informática eram superiores aos outros e oscilaram de forma levemente decrescente em torno de 1,1% até 1995, quando retomaram um crescimento e comportamento semelhantes ao do setor. Os valores para o comércio comprovam a evidência empírica de que o índice de gastos é em função do setor e do estágio de informatização. Até 1995 o varejo era pouco informatizado, com índice próximo de 1,1%, mas quando as empresas começaram a usar mais recursos da informática, com automação, o índice passou a crescer 9% ao ano, passando de 1% entre 1991 e 1995 para 2,7% em 2008, como mostra o diagrama da figura 4. Os diagramas mostram que o comércio cresceu um pouco menos que a média das empresas, e o varejo ainda menos que o comércio. A curva de tendências aponta para um crescimento na direção dos valores do setor comercial.

Custo Anual Por Teclado

Outro indicador proposto para analisar o uso de TI é o CAPT (Custo Anual Por Teclado). O CAPT é uma variável que foi calculada para cada empresa da amostra a partir da seguinte fórmula:

F5. Variação do valor médio do CAPT

Evolução dos PCs em F6. uso nas empresas brasileiras.

CAPT =

CAPT =

(Gastos+investimentos em TI) Teclados (F0x) x (G0x) TEC0x

Onde:  F0x = Faturamento anual líquido em US$ milhões (F08 = valor em 2008);  G0x = Gastos totais com informática no ano (despesas + investimentos) / F0x;  TEC0x = Número de teclados instalados (TEC08 = teclados em uso pela empresa no final de 2008). Esta variável representa o total de estações de trabalho instaladas, levando em consideração tanto microcomputadores quanto eventuais terminais leves. O valor médio em 2008 é de US$ 10.200 por ano por teclado, ou R$ 18.800,00. Veja na figura 5 que em 1999, o

65

valor do CAPT caiu 15%, de US$ 14.200 para US$ 12.100 (próximo do valor internacional para grandes empresas dos países mais desenvolvidos). O principal motivo foi a desvalorização cambial. Em moeda nacional o custo por teclado subiu 10%, passando para cerca de R$ 22.000,00. Ficou estável em dólares até 2002, quando caiu quase 20% para US$ 10.000, mas subiu próximo de 15% em reais, para um valor de R$ 29.000,00. De 2003 a 2006 permaneceu em torno de US$ 9.000, crescendo 14% em 2007 para um valor de US$10.300.

Números do mercado

Os investimentos em TI deverão continuar crescendo a taxas vigorosas, à medida que mais empresas percebam os benefícios associados, assim como as empresas que já empregam TI continuem ampliando sua utilização. Isso ocorre devido à evolução tecnológica reduzindo o custo por usuário, o que tende a aumentar a atratividade dos investimentos. Tal ciclo, potencialmente 2008 # 88 # PC&CIA

PC88_fgv.indd 65

13/8/2009 17:14:28


Tendências

Tendências

Evolução de Pcs em USO Base Nacional Ativa por Tipo nas Empresas ANO

XT

286

1988

97,00%

3,00%

1990

82,00%

14,00%

4,00%

1992

57,00%

22,00%

19,00%

2,00%

1994

21,00%

10,00%

36,00%

31,00%

2,00%

1996

1,00%

4,00%

22,00%

52,00%

21,00%

1,00%

7,00%

30,00%

53,00%

8,00%

1,00%

1998 2000

386

486

Pentium I

P II

PIII

P4 +

Outros

7,00%

49,00%

38,00%

4,00%

2002

2,00%

21,00%

31,00%

38,00%

10,00%

2004

1,00%

8,00%

17,00%

27,00%

46,00%

1,00%

2005

5,00%

13,00%

22,00%

58,00%

2,00%

2006

2,00%

10,00%

17,00%

69,00%

2,00%

2007

1,00%

6,00%

13,00%

78,00%

2,00%

4,00%

10,00%

84,00%

2,00%

1,00%

49,00%

50,00%

2008 Tendências

T2.

66

virtuoso para as organizações, impõe aos gestores um importante desafio: gerenciar a informatização da organização de forma consistente e coerente, garantindo o alinhamento com a estratégia empresarial e a evolução conjunta dos modelos de organização e gestão. Segundo a pesquisa, existem, em maio de 2009, 60 milhões de computadores em uso no Brasil, corporativo e doméstico (figura 6). Em 2008 foram vendidos 12,2 milhões de PCs, mais de 30.000 unidades por dia, com crescimento de 16 % sobre 2007 quando pela primeira vez superaram as vendas de televisores. A base instalada ativa de computadores no Brasil atingiu 56 milhões em 2008. O preço de um computador padrão tem caído em reais, e devido ao câmbio valorizado nos últimos anos ficou em dólares, por volta de US$ 400. Temos hoje no Brasil um computador para cada três habitantes. A previsão para 2012 é de 100 milhões de máquinas, ou seja, um computador para cada 2 habitantes, afirma o professor Fernando S. Meirelles.

Evolução do hardware

Quando observamos o número de computadores nas empresas em nosso país, organizados pelo modelo do processador (no diagrama da figura 7), podemos extrair informações importantes sobre o comportamento do mercado em relação à atualização de hardware. Em 2008, modelos baseados em processadores Pentium I, II, III e IV (ou

Evolução de F7. PCs em Uso

equivalentes de outros fabricantes como a AMD) e modelos posteriores (Core), representaram 98% da base ativa de microcomputadores nas empresas nacionais. A categoria “Outros” representa processadores que não se encaixam nas demais categorias, como os Atom e outros que ainda vão ser lançados. Este gráfico não representa as vendas, mas sim o número de computadores existentes e funcionais. A tendência mostra que em 2012 estes outros processadores poderão dominar 50% do mercado, o que significa que começam a ser vendidos agora. Se acrescentarmos a esta estatística as pequenas empresas, o valor deve ser semelhante incluindo o mercado SOHO (microempresas, pequenos escritórios,

profissionais liberais e principalmente os de uso doméstico), uma vez que também têm sua base ativa formada por modelos mais recentes.

Conclusão

A pesquisa da Fundação Getúlio Vargas é um instrumento útil para o administrador, pois é uma ferramenta de planejamento poderosa entre as áreas de TI e permite aos executivos compararem números da sua empresa com os do mercado e as projeções para o futuro. Mostramos nesta breve matéria apenas alguns aspectos desta pesquisa, pois ela é extensa e detalhada demais para ser publicada aqui na íntegra. Se o leitor se interessar, poderá adquirir a pesquisa completa pc diretamente na livraria da FGV.

PC&CIA # 88 # 2009

PC88_fgv.indd 66

13/8/2009 17:14:36


PC87_IntelAtom.indd 31

10/6/2009 21:23:55


PC88_Desfragmentacao.indd 63

13/8/2009 16:29:59

Pc & Cia nº 88  

Revista de informática

Pc & Cia nº 88  

Revista de informática

Advertisement