Hardware mag 45

Page 1

5,90 €

Fév./Mars 10 n°45

DOSSIER

p.36

Objectif

Maximum nos toutes uces

Astlages régeaking r tw timise

op pour votre Pc

DOSSIER

Perfs Cartes 3D Cartes mères W7 HDD et SSD

p.134

test

Radeon HD5670 Jouez fluide et beau pour 80 euros

p.112

comparatif

Alimentations

Antec, Fortron, Seasonic, etc : silence, rendement, design, nos élues p.126

dossier

Le Multitouch sous win7

Ecrans Lcd, Pc all in one, applications : commandez votre PC du bout des doigts

p.54

Atom 2, CULV, AMd Vision, core i5 Quelle sera la plateforme de votre futur portable ?

Bonus : les bons réglages pour gagner en autonomie

guide

p.24

Exploitez à fond le P55

p.68

guide

Silence, GPU !

Astuces software et 8 Ventirads pour cartes 3D gagnez juSqu’à 50 degrés et soulagez vos oreilles

Des cartes testées à leurs limites avec tous nos conseils

Preview GT300: Fermi, l’avenir de la 3D selon nVidia

BEL/LUX : 6,5 € - CH : 11,80 FS - CAN : 10,25 $ DOM: 6,10 € NCL/S : 710 CFP - NCL/A : 1500 CFP - POL/S : 750 CFP


Hardware N43 SPKS 140909.indd 1

14/09/2009 14:23:54


Courrier des lecteurs : Email : lecteurs@techage.fr

Édito

Abonnements : Axiome Abonnement Presse PCUpdate/Hardware Magazine L’Engarvin 06390 COARAZE Pour tout renseignement sur les abos : 06 26 64 23 29 abo@axiomegroup.biz Ont participé à ce numéro : MPM Editions (Rédacteur en chef : Jérémy Panzetta ; rédacteur : Benjamin Bouix ; pigistes : Manuel Da Costa, Damien Labourot) ; Tridam Conception graphique : David Benamou Maquettiste : Cyril Albo Hardware Magazine est édité par Tech.Age SA au capital de 78300 €, 25c boulevard Royal, L-2449 Luxembourg Administrateur délégué et directeur de la publication : Christian Marbaix Rédacteur en chef délégué : Thomas Olivaux Publicité : Stéphanie Chauvin stephanie@techage.fr

L’envoi de tout texte, photo ou vidéo implique l’acceptation par l’auteur de leur libre publication dans le journal. Les documents ne sont pas retournés. La loi du 11 mars 1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41 d’une part que « des copies ou reproductions strictement réservées à l’usage du copiste et non destinées à une utilisation collective» et d’autre part que les analyses et courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction, intégrale ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinea premier de l’article 40). Cette représentation ou reproduction, par quelques procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants de l’ancien code pénal.

Réussir son intégration ! Lorsque l’on m’a proposé de rejoindre l’équipe, j’avoue avoir hésité une seconde. Pas une de plus. Fier et heureux, j’arrive le premier jour et on me montre un bureau. Il semble avoir déjà souffert. Il a un vécu, une odeur et des traces de pâte thermique. Et là, pas encore assis, je me sens déjà irrité. Un truc me pique les yeux. Une nouvelle carte graphique peut-être ? Un nouveau processeur ? Un boîtier dernier cri ? En fait non, rien de tout ça. Je pensais que la rédac était superéquipée en matos et je vois un PC Commodore, un peu jaune. La petite étiquette 386 SX-25 me permet de me remémorer des épisodes bien tristes dans l’histoire de l’informatique ! Quelques secondes plus tard, un certain T.O., dont vous semblez lire les histoires tous les mois, s’excusait d’avoir posé là son « dernier délire ». « Parce qu’il y avait de la place », ben voyons… Permettez-moi de vous parler de ce qui intrigue donc le garçon ce mois-ci : intégrer du hardware contemporain, un Xeon L3426, une GTX260, 4 Go de RAM, le tout watercoolé dans ce vieux boîtier. Comme s’il n’avait pas mérité une retraite paisible…

Bon, pendant que j’y suis à râler

Textes, photos : copyright 2002/2010 Tech.Age SA

Si comme nous, vous avez suivi le CES, vous avez certainement dû voir l’explosion du marché des tablettes. Enfin. Tous les constructeurs en avaient une à montrer dans un coin de stand. On a vu des choses très fines et ridiculement lentes, auxquelles on a préféré des choses un peu plus épaisses mais décentes à utiliser, sous Tegra notamment. Certains avaient des produits très aboutis côté matériel notamment HP, MSI, la palme revenant à Lenovo avec son produit hybride avec un notebook, avec écran tactile détachable et un OS… propriétaire. Eh oui car… (c’est là que je me fâche pour de vrai) où est le système d’exploitation ou la couche logicielle adaptée chez Microsoft ? Quand on voit leur démonstration, on a de quoi prendre peur. On voit qu’on peut se servir du pack Office mais on garde 7 avec une ergonomie de PC avec souris & co ! Et dire que c’était un argument de vente à la sortie de cet OS au mois d’octobre… Ça n’est pourtant pas si compliqué de faire une interface utilisable avec nos doigts potelés. Quand on a su développer un si joli Media Center, il ne nous semble pas compliqué d’intégrer d’autres éléments. Et si on pouvait aussi avoir du contenu numérique en ligne à acheter, on n’aurait rien contre ! Surtout quand on sait le faire dans une Xbox 360 ou un Zune HD.

Impimeur : N.I.I.A.G Printed in Italy, imprimé en Italie N° de commission paritaire : 0913 U 83994 Dépôt légal : premier trimestre 2010

Faut-il encore que cela soit Apple qui fasse la démonstration d’une tablette efficace ? Heureusement, il semblerait que Google relève le défi. Si Android sait faire mieux que l’iPhone, c’est confirmé dans ce numéro avec le Milestone, il devrait y arriver sans peine aussi pour les tablettes. Enfin, on espère…

Distribution : MLP

Allez, j’arrête de râler. Je vais prendre sur moi. Je dois réussir mon intégration au sein de la rédaction, moi le bleu… Mais je souhaitais aussi finir mon premier édito en vous parlant du cas B.B. qui ne comprend rien. Quand on lui dit : « Benji, dehors ! », il comprend : « Benji, dewar ? » et quand on voit la bombonne fumante d’azote arriver, on se dit que c’est peine perdue et qu’on va encore devoir présenter nos excuses aux constructeurs pour le matos mort sur le champ de bataille…

Imprimé sur papier 100% recyclé

Quant à moi, je dois vous laisser, j’ai des portables à rendre et un bureau à ranger. Un truc qui semble me poursuivre depuis des années…

DL


Sommaire •

News •

Le meilleur du hardware et le CES 2010 Preview de Fermi, le nouveau GPU nVidia 6 Cas pratiques 16

Dossier •

Maîtriser le P55

Maximum Perfs

68

Pratique •

Quel chipset pour AM3 ? 80

Le socket AM3 compte déjà six northbridges associés à quatre southbridges, donnant lieu à bon nombre de cartes mères aux excellents rapports qualité/prix. Quelles sont les puces les plus intéressantes ? Quels sont les pièges à éviter et les bonnes affaires ?

36

Cartes 3D, cartes mères, W7, HDD et SSD : Astuces, réglages, tweaking Quand on est fan de PC, difficile de se contenter d’une installation de base. Même si Seven atténue le besoin d’optimisation, comment se passer du plaisir d’améliorer nos machines, s’approprier les réglages et gratter encore un peu de rapidité. Voici nos conseils d’expert pour exploiter à fond votre PC !

Faites taire votre carte graphique Rarement discret, plus souvent insupportable, le ventirad de nos cartes graphiques massacre régulièrement nos pauvres tympans. On peut néanmoins gagner en silence, avec des modifications logicielles sous Windows, en modifiant le BIOS ou en changeant carrément le radiateur. Et si c’est conseils ne suffisent pas, nous avons ajouté un comparatif de ventirads GPU.

24

Toutes les astuces sur trois best-sellers en P55 Le P55 s’annonce comme la plateforme par excellence de ce début d’année 2010. Après avoir passé de longues semaines avec trois bestsellers, nous vous proposons ici des conseils et des astuces pour bien les maîtriser, aller au bout de leurs capacités, que vous soyez un débutant ou déjà bien expérimenté. Des conseils qui profiteront aux possesseurs d’autres cartes aussi !

134

Sommaire Février/Mars

54

A chacun sa plateforme mobile CULV, Core i7 mobiles et maintenant Atom Pinetrail, Core i5 avec GPU embarqué et AMD Vision, ça bout du côté des portables. Ajoutons les Centrino et autres netbooks existants et on explose ! Faisons le tri dans tout ça : quelle plateforme vous correspond ?

24

112

Atom 2, CULV, AMD Vision, Core i5

Garder Windows 7 et Vista en forme !

86

Il existe de nombreuses raisons expliquant les ralentissements de Windows, sans oublier les éventuels dysfonctionnements du système, à commencer par nos mauvaises habitudes. Plutôt qu’une fastidieuse réinstallation, une bonne maintenance évite que les performances de votre système ne se détériorent au fil du temps.

Offres d’abonnements p29-30-73-74


Objectif

Les meilleurs outils de dépannage et de contrôle PC à distance 92

Maximum

Le contrôle à distance est un procédé simple à mettre en oeuvre et très pratique pour dépanner et piloter un PC à travers un réseau local ou Internet. Encore faut-il utiliser les bons outils pour se faciliter la tâche. Voici une sélection des meilleurs d’entre eux. •

Astlages régeaking r tw

Décuplez votre autonomie 100

36

Atom 2, CULV, AMd Vision, core i5 Quelle sera la plateforme de votre futur portable ?

Geek

106

Softs du mois

110

38

Silence, rendement, design, les meilleures alimentations du moment 112

Multitouch : contrôlez Seven avec les doigts 126 La technologie tactile n’est pas nouvelle mais Windows Seven est le premier OS de Microsoft supportant nativement le multipoint.

54

Bonus : les bons réglages pour gagner en autonomie

Comparatif

Arctic Cooling et Fractal Design, les petits nouveaux, parviendront-ils à concurrencer les ténors ? La première alimentation 80 Plus Gold de Seasonic est-elle à la hauteur ? Découvrez sept nouvelles alimentations en test, grâce à notre analyse de marché, choisissez la meilleure.

Cartes 3D Cartes mères W7 HDD et SSD

optimise pour votre Pc

Quel que soit votre ordinateur portable, il existe une foule de petites améliorations qui, mises bout à bout, peuvent grandement améliorer l’autonomie de votre machine : entretenir votre batterie, améliorer votre système d’exploitation afin d’économiser de l’énergie, agir sur le hardware pour prolonger votre durée de vie nomade. Voici notre méthode afin de gagner le précieux temps qui manque toujours sur ces engins.

Perfs

nos toutes uces

Comment ça marche ? Quels sont le matériel et les applications nécessaires ? Découvrez une nouvelle façon de commander votre PC.

Test

A la recherche du smartphone parfait

Android, iPhone OS, Maemo, Windows Mobile, voici les quatre prétendants à la couronne d’OS mobile du futur. Pour juger de qui pourrait l’emporter, nous avons réuni les fers de lance de chaque étendard avec le Motorola Milestone, le HTC HD2, l’iPhone 3GS et le N900.

134

Voici une déclinaison toujours moins chère de la nouvelle génération AMD, mais qui garde le support DirectX 11. Proposée à 80 euros, est-ce vraiment une aubaine ?

120

HD5670 : DirectX 11, Eyefinity, jeu fluide à 80 euros ?

Nos configurations de référence

126

137


News

actualités Belle moisson au CES

Le CES 2010 nous a permis de découvrir quelques nouveaux boîtiers chez les acteurs habituels que sont Cooler Master, Thermaltake, Antec, Silverstone et Zalman. Le premier cité nous a présenté le HAF-X qui pourrait encore changer d’ici sa commercialisation. En substance, il s’agit d’un « grand » HAF dont le but est d’offrir un refroidissement irréprochable, grâce à deux ventilateurs de 200 mm au sommet de la tour (protégés par des filtres antipoussière), un ventilateur de 230 mm frontal, un 140 mm à l’arrière et enfin, un 200 mm optionnel dans le panneau latéral. Il proposera quatre baies 5 pouces ¼, cinq baies 3 pouces ½ internes et deux baies 3 pouces ½ externes. Il ne sera disponible qu’en noir et sera officiellement présenté lors du CeBIT en mars. Chez Thermaltake, on a noté la présentation de l’Element V aux couleurs de nVidia. Pourquoi ? Parce que ce boîtier a subi de nombreux tests de refroidissement chez nVidia afin d’être certifié pour les futures cartes graphiques GF100, les fameuses Fermi. Pour ce faire, un système de refroidissement destiné aux cartes Fermi en SLI a été mis au point et consiste en un gros airduct incluant un ventilateur de 120 mm. Silverstone a marqué les esprits avec son Sugo SG07. Il s’agit d’un boîtier au format barebone pouvant accueillir une carte mère mini-ITX et… une Radeon HD 5970 ! Il a été spécialement étudié pour accueillir de grandes cartes graphiques et est livré avec un bloc

Gros plan sur le système de refroidissement certifié nVidia Fermi dans le Thermaltake Element V. Faire rentrer dans un barebone une carte mini-ITX et une Radeon HD 5970, tel est le pari gagné par le Sugo SG07 de Silverstone.

d’alimentation interne spécifique de 600 W. La ventilation n’est pas oubliée avec un grand ventilateur de 180 mm sur le sommet du boîtier. Belle prouesse technique, reste à comprendre l’utilité d’avoir une carte mini-ITX dans un boîtier aux formes généreuses, sans rapport avec ce très petit format de carte mère… Loin de ses standards habituels, Zalman sort un boîtier « low cost ». Il s’agit du Z7 dont le prix de vente, hors taxes, a été fixé à 79 dollars, une première pour Zalman. Il ne s’agit que d’un boîtier en acier classique, habillé par une façade spécifique frappée d’un logo Zalman illuminé. La ventilation est assurée par trois modèles de 120 mm, un frontal, un à l’arrière et un dans la porte latérale, dont la vitesse est réglable via un variateur.

est plus petit et offre deux portes ventilées, tout comme le DF-35, sauf que ce dernier propose lui aussi des baies hotswap. Au sommet du boîtier, tous ces modèles ont droit à une baie externe 2,5 pouces de type hotswap qui permet de connecter rapidement un disque dur ou un SSD à ce format. Inédit et intéressant. Le DF-85 propose une ventilation composée de deux 120 mm à l’arrière, de trois ventilateurs 120 mm frontaux et de deux 140 mm au sommet du boîtier. Les plus petites versions DF-30 et DF-35 offrent, pour leur part, deux 120 mm frontaux, un 120 mm arrière et un 140 mm supérieur. Ce ne sont pas des boîtiers dénués d’intérêt mais aux prix qu’on espérera vite en baisse puisque le DF-85 est annoncé pour 209 dollars et le DF-30 pour 149 dollars, hors taxes.

USB 3.0, quel gâchis

Depuis la fin 2009, des disques durs externes et des cartes mères compatibles avec le SuperSpeed USB « 3 » sont désormais disponibles. Mais les « pépins » s’accumulent. Il y a d’abord l’absence de chipsets supportant nativement l’USB 3.0

News

Antec revient enfin aux affaires, après une période plutôt calme. Après le Lanboy Air, présenté en fin d’année dernière, voici la série des Dark Fleet. Il s’agit de boîtiers au look militaire dont la particularité est d’offrir des baies frontales modulables et pouvant s’ouvrir individuellement. Chaque petite « porte » cache un ventilateur de 120 mm, dont la vitesse est réglable via un potentiomètre intégré, derrière lequel se trouvent des baies 3 pouces ½. Le plus grand modèle, le DF-85, comporte trois portes et neuf baies 3 pouces ½ et on a, en outre, droit à quatre baies hotswap. Le DF-30

Un disque USB 3.0 externe Super Talent flashé à 300 Mo/s…

79 dollars pour le Zalman Z7 ; on n’est pas habitué à ces prix chez le Coréen.

6

I Hardware Magazine

Les VF3000 de Zalman, rouge pour les cartes ATi et noir pour les cartes nVidia.


100% hardware

Look militaire pour les nouveaux boîtiers Dark Fleet d’Antec.

Janvier/février 2010 p.18

et ce ne sera pas le cas avant 2011 ! Fait étonnant quand on sait qu’Intel fait partie du consortium USB et que l’on parle de ses spécifications depuis plusieurs années déjà. Il faut donc, pour le moment, recourir à une puce NEC pour bénéficier de la vitesse de transfert de l’USB 3.0. Sur des cartes mères architecturées autour des chipsets AMD ou de l’Intel X58, cela ne pose pas de problèmes, contrairement aux chipsets Intel pour les processeurs LGA 1156. En cause, les lignes PCI-Express castrées de ces chipsets obligeant de connecter la puce NEC aux lignes PCI-Express du processeur, ce qui réduit la vitesse du port PCI-Express 16x en 8x. Une solution est de recourir à une puce PLX qui va assembler plusieurs lignes PCIExpress du chipset, pour en sortir des lignes PCI-Express 2.0 mais dans pareil cas, des slots PCI-Express 1x ou 4x de la carte mère ne sont plus utilisables. Si cela ne suffisait pas, voilà que les fabricants de boîtiers sont face à un problème de taille : aucune norme n’a été définie pour les connecteurs USB 3.0 qui doivent prendre place sur les cartes mères. Les headers USB 2.0 ne sont pas compatibles puisque l’USB 3.0 ajoute des câbles pour assurer son haut débit et pour

améliorer sa gestion de l’énergie. Difficile donc de proposer des boîtiers dotés de ports USB 3.0 en façade. Cette situation délicate n’est pas nouvelle puisque lors de l’arrivée de l’USB 1.1, aucune norme n’avait été mise au point, ce qui avait obligé, dans un premier temps, les fabricants de boîtiers à proposer neuf fils individuels à connecter à la carte mère, ce qui fut un cauchemar pour de nombreux utilisateurs, une mauvaise connexion n’étant pas sans conséquence. Il fallut attendre qu’Asus propose un bloc regroupant les neuf fils pour que la situation s’éclaircisse, rapidement, suivi par les autres acteurs du secteur. Silverstone a d’ailleurs contacté Asus pour imposer encore une fois un schéma, mais Asus s’y est refusé. Espérons qu’une solution soit trouvée rapidement, afin que les boîtiers, achat à long terme s’il en est, soient compatibles avec l’USB 3.0…

Quatrième version du CNPS 10X, le Performa, version moins onéreuse vendue 40 dollars.

Antec se relance dans les dissipateurs CPU, ici avec le plus gros de la gamme Kuhler, le Kuhler Box.

Refroidissement

Zalman, toujours dans sa vague premier prix, propose une quatrième version de son CNPS 10X : la version Performa. Au programme, un dessin des ailettes en aluminium revu au niveau du centre pour maximiser le flux d’air derrière le moteur du ventilateur. Ce dernier reste un 120 mm mais doté d’un connecteur PWM, le coûteux variateur de la version Extreme étant aux abonnés absents. La firme coréenne le propose à 40 dollars et annonce qu’il n’est pas beaucoup moins performant que la version Extreme… vendue 80 dollars. Du côté des systèmes de refroidissement

100% passion 100% pratique

choisir, upgrad er

dossier

core i3

et booster son pc !

les nouveautés core i5/i7 : usB 3, sata 6, 3way-s li, look

Le socket 1156 à 100 € !

Le 1er cpu ave c carte graphiq ue intégrée peut iL concurrencer L’athLon ii X4 ? p.30

p.114 Comp aratif

lecteurs 15 mult imédia

mKV, Blu-ray, mP3, flac, tNt, ils savent tout faire !

guide

Le pc home ciné ma parfait

media center 7 de a à z p.128 Comp aratif

boitiers séLectio

fiLms et séries, tv sat et adsL, codecs, streamin g, tonnes d’astuces des et pLugins pour une inter face de rêve

n hiver 2010 : sobriété et efficacité

pratique

PersoNNalisez seVe N

Pas envie de ressem bler à tout le monde ? alliez pratic ité et individualité ! pratique

Jeux dx11 eN test

dirt 2, s.t.a.l.K.e.r . : rendu, physique, quels progrè s?

usb cLés, hdd, pas sez à

p.54

p.80

fractaL design, siLverstone, thermaLtake, zaLman

3.0

n°45

p.104 Comp aratif

cartes P55 sexy !

200 mo/sec

BEL/LUX : 6,5 € -

NCL/S : 710 CFP -

CH : 11,80 FS - CAN

NCL/A : 1500 CFP

: 10,25 $ DOM: 6,10

- POL/S : 750 CFP

En kiosques ce mois-ci alternatifs pour cartes graphiques, Zalman dégaine le VF3000 en deux coloris : rouge, le VF3000A pour les cartes ATi, et noir, VF3000N pour les cartes nVidia. Ils diffèrent au niveau de leur système de fixation. Dommage si vous changez une carte graphique ATi pour une nVidia et vice versa. Ces modèles ne sont compatibles qu’avec les dernières cartes graphiques comme les 5850, 5870 et GTX 260, 275, 280 et 285. Ce VF3000 se dote d’une base en cuivre d’où partent cinq caloducs traversant les ailettes en aluminium, refroidies par deux ventilateurs de 92 mm. Le VF3000 sera livré avec des radiateurs pour la mémoire mais pas pour les mosfets, ce qui risque de poser problème avec certaines cartes graphiques. Zalman rectifiera probablement le tir avec un petit radiateur spécifique, du moins espérons-le. Antec a décidé, pour sa part, de se relancer plus sérieusement sur le marché des dissipateurs avec trois modèles : le Kuhler Box, le Kuhler Flow et le Kuhler Shelf. Les deux premiers sont au format tour, tandis que le dernier propose une forme plus horizontale. Le Kuhler Box est le plus Après les ventirads V10 gros des trois avec deux blocs et V8, voici le V6 chez d’ailettes traversés par quatre Cooler Master.


News

L’OCZ Vertex 2 abandonne le contrôleur Indilinx pour celui de l’Américain SandForce.

1 300 Mo/s en lecture et 1 200 Mo/s en écriture, tels sont les débits de l’OCZ Z-Drive p88.

SSD

Démonstration du SSD SATA 6 Gbps Micron chez Gigabyte avec à la clé, des débits décevants.

par quatre heat pipes chacun et refroidis par un 120 mm PWM (vitesse non précisée) positionné au centre. Il ne fait pas dans la dentelle puisque son poids est de 1,2 kg. Le Kuhler Flow est plus raisonnable avec un poids de 700 g. Il ne propose qu’un seul bloc d’ailettes traversé cependant par pas moins de sept caloducs ! Le ventilateur est un 120 mm PWM dont la vitesse n’est pas précisée non plus. Enfin, le Kuhler Shelf est une sorte de Kuhler Flow inversé. Il pèse aussi 700 g, dispose également de sept heat pipes, le tout refroidi par un 120 mm PWM. Sa hauteur est sensiblement la même que celle du Flow, mais la position horizontale du ventilateur participera davantage au refroidissement de l’étage d’alimentation et des composants entourant le processeur. Du côté de Cooler Master, après les dissipateurs V10 et V8, voici le V6. Toujours inspiré par le design d’un moteur, il propose de nombreuses ailettes d’aluminium traversées par des caloducs, dont la disposition forme un « V » au sommet du radiateur, d’où le nom. Le tout est refroidi par deux ventilateurs de 120 mm situés de part et d’autre des ailettes. Il s’agit de modèles PWM dont la vitesse variera de 800 à 2 000 tours/minute et le niveau sonore de 13 à 35 dBA. Il sera disponible en mars à un prix non encore fixé.

Nous avons pu voir en action au CES des produits prometteurs comme le SSD externe USB 3.0 RAID Drive de Super Talent, mesuré à 300 Mo/s en lecture et 150 Mo/s en écriture. Le secret ? Deux miniSSD liés en RAID au sein du petit boîtier et l’utilisation d’un driver spécifique. Le Crucial/Micron C300 basé sur un contrôleur Marvell était également de sortie mais chez Gigabyte, pour une démonstration en SATA 6 Gbps puisqu’il s’agit du premier SSD compatible avec cette troisième révision de la norme SATA. A l’arrivée, sur une carte mère X58, les débits étaient décevants et n’ont pas atteint ni dépassé les 300 Mo/s promis. La lecture plafonnait à 266 Mo/s et l’écriture à 217 Mo/s. Bien certes, mais un Intel X25-E SATA 3 Gbps n’est pas loin de ce niveau. Il est heureux de voir les contrôleurs se multiplier et ce n’est pas OCZ qui le déplorera. Après s’être ruée en masse sur l’Indilinx Barefoot, la firme californienne sortira sous peu les Vertex 2 basés sur le contrôleur de l’Américain SandForce, le SF-1200. Le SF-1500 sera réservé aux Vertex 2 Pro. Du côté des performances, OCZ annonce 280 Mo/s en lecture et 270 Mo/s en écriture pour le Vertex 2 Pro et 270 et 260 Mo/s dans les mêmes exercices pour le Vertex 2. Ils se différencient aussi au niveau des opérations aléatoires avec avantage à la version Pro évidemment. Ces SSD seront disponibles en versions 50, 100, 200 et 400 Go. Du côté des modèles existants, les Vertex et Agility vont passer à des puces de NAND Flash gravées en 34 nm, ce qui va autoriser l’apparition de modèles de 512 Go. La série Solid revient en version 2, pas avec le contrôleur JMicron mais avec de l’Indilinx et des puces de NAND Flash de 34 nm moins performantes. Le Solid 2 est tout de même annoncé pour 220 Mo/s en lecture et 130 Mo/s en écriture et sera disponible en versions 64 et 128 Go. Toujours dans le low

Kingston s’est allié avec Toshiba pour ses futurs SSD, ici la prochaine version de 128 Go.

cost, OCZ sortira en février un SSD de 32 Go à 99 dollars basé sur le contrôleur Indilinx Amigo moins cher et des puces gravées en 34 nm. Kingston, allié avec Toshiba, annonce un SSD 30 Go suivi de versions 64, 128 et 256 Go basés sur de la NAND Flash Toshiba 50 et 34 nm. Signalons également que le contrôleur Samsung, qui équipe de nombreux SSD d’entrée de gamme, est désormais compatible avec la fameuse fonction TRIM de Windows 7. Garantissant un entretien automatique favorisant les performances sur le long terme des SSD, il faudra patienter jusqu’à ce que les constructeurs qui utilisent ce contrôleur proposent une mise à jour. C’est déjà le cas chez OCZ pour sa gamme Summit et chez Corsair pour les modèles P et, depuis peu, chez Samsung lui-même avec une mise à jour proposée pour le PB22-J. Les Kingston V+ utilisent aussi ce contrôleur, mais il n’existe pas encore de firmwares compatibles TRIM. Enfin, du côté des SSD professionnels, OCZ nous a présenté les Z-Drive p88, des SSD sur carte PCI-Express. Il s’agit de deux PCB superposés comprenant des « barrettes » de puces de NAND Flash facilement interchangeables, pratique en cas de panne. Les contrôleurs sont des Indilinx gérés en RAID par une puce LSI. Les débits laissent rêveur avec 1 300 Mo/s en lecture, 1 200 Mo/s en écriture et 14 000 IOPS pour le traitement aléatoire de fichiers de 4 ko. Ils seront disponibles en versions 512 Go, 1 et 2 To. Terminons par Samsung qui prépare un contrôleur qui sera lancé en même temps que sa NAND Flash gravée en 32 nm. Des capacités de 64, 128, 256 et 512 Go sont à l’ordre du jour. Avouons que toutes ces nouveautés sont alléchantes et prometteuses aussi bien en termes de débits que de capacité. En espérant que les prix soient eux aussi attractifs…

News

Alimentations Cooler Master Voici deux alimentations Cooler Master qui viendront bientôt concurrencer les belles nouveautés testées ce mois-ci. Inaugurant la nouvelle gamme GX à petit prix, la GX 550 W est noire et ressemble à l’Antec TruePower New, à ceci près qu’elle n’est pas modulaire. Annoncée 80 euros, ça semble un peu cher pour lutter face à une concurrence acharnée, mais si les prix baissent vite vers 60 euros, comme c’est probable, nous aurons une prétendante de plus au titre de l’alimentation bon marché la plus séduisante. Egalement, la gamme Silent Pro, qui représente le meilleur rapport qualité/prix de Cooler Master depuis de longs mois, s’étoffe. Nous avions déjà testé et fortement apprécié le modèle 700 W qui offre un rapport bruit/silence/performances au top. Vendue à 150 euros seulement, c’est la 1 000 W la moins chère du marché !

8

I Hardware Magazine


Petites nouveautés CPU Discrètement, AMD et Intel ont sorti quelques nouveaux processeurs ce mois-ci. Chez AMD, la gamme Athlon II s’étoffe des X2 255, X3 440 et X4 635, chacun grimpant d’un demi-coefficient par rapport au maximum d’avant. Ces trois processeurs sont donc respectivement cadencés à 3,1, 3 et 2,9 GHz et le TDP n’évolue pas, 65 W pour le X2, 95 W pour les X3 et X4. Les prix ne sont pas encore connus. Chez Intel, l’illustre socket 775 que nous pensions mort, accueille quelques nouveautés. Outre un petit Celeron E3400 qui remplace le E3300 avec 100 MHz de mieux, notons l’arrivée d’un Pentium E6600 (encore une confusion possible avec l’ancien Core 2 Duo E6600) cadencé à 3,06 GHz et, comme nous l’annoncions le mois dernier, du Core 2 Quad Q9500 (Q9550 avec un cache baissé de 12 à 6 Mo, la fréquence reste inchangée à 2,83 GHz). Vous l’aurez compris, ces nouveautés n’ont pas grand intérêt, malgré la légère baisse de prix qui les accompagne. Les Core i3 et i5 sont nettement plus intéressants que leurs aînés, quant à l’upgrade des machines 775, nous préférerons un véritable Q9550 ou les E8500 et E8600. A titre d’exemple, le Q9550 est trouvable entre 180 et 200 euros, c’est le prix que sera vendu le nouveau Q9500 moins performant.

DisplayPort 1.2, 21,6 Gb/s !

Jouer en 4K c’est déjà has been…

La norme DisplayPort poussée par l’organisme VESA poursuit son évolution. La prise, concurrente du HDMI et utilisée sur les dernières machines Apple, ainsi que 100 % des Radeon HD5000, passe de la version 1.1a à 1.2. La bande passante double, passant de 10,8 à 21,6 Gb/s, rien que ça. Deux buts principaux à ça, le premier visant à distribuer plusieurs flux audio/vidéo simultanément, le second prévoyant l’explosion de la 3D. En effet, avec pareille bande passante, il est possible de diffuser un flux 1 920 x 1 080 à 240 FPS, soit 120 par oeil ; quand on sait que la solution nVidia fonctionne avec 60 FPS par oeil, il y a de quoi voir venir, mais peut-être serait-ce une solution pour supprimer la désagréable sensation de ramure ressentie par certains d’entre nous ? Plus intéressant, un signal USB 2 peut transiter via le même câble, de quoi brancher des clés et autres appareils sur un HUB intégré à l’écran, mais sans câble USB entre celui-ci et l’unité centrale.

Les Radeon HD 5000 passent au mobile

Vous n’avez jamais rêvé d’un écran digne de la Nasa ou du Norad ? C’est presque disponible pour le commun des mortels. Samsung lance « L’écran » capable d’utiliser les capacités Eyefinity des dernières cartes AMD Radeon 5000. Le MD230, c’est son nom, est composé de 2 rangées de 3 écrans délivrant une définition de pas moins de 5760x2160, le tout avec des bordures toutes fines ! Et le prix de la chose ? Une broutille…à 3990$. Si ca vous parait beaucoup, il existe aussi une version 3 écrans d’une résolution de 5760*1080 à 1800$. La liste des jeux compatibles avec écrans est disponible sur http://support.amd.com/ us/eyefinity/Pages/eyefinity-software.aspx

C’est également durant le CES qu’AMD a décidé de lancer sa nouvelle gamme de Mobility Radeon. Malheureusement, AMD, n’ayant pu proposer une version mobile de la Radeon HD 5800, a décidé d’opter pour une stratégie similaire à celle de nVidia en déplaçant toute la gamme vers le haut. Ainsi, les Mobility Radeon HD 5800 sont en réalité des Radeon HD 5700 et les Mobility Radeon HD 5700 (+ une 5650) sont en réalité des Radeon HD 5600 et 5500. Quant aux Mobility Radeon HD 5400, nous ne savons pas encore à quoi elles vont correspondre, mais probablement aux Radeon HD 5300. C’est regrettable puisqu’aussi intéressante soit-elle, cette gamme va tromper de nombreux acheteurs, comme c’est déjà le cas du côté des GeForce. Notez enfin que les Mobility Radeon HD 5165 et 5145 seront des Mobility Radeon HD 4670 et 4570 renommées et ne seront donc pas compatibles DirectX 11, contrairement au reste de la gamme.

Une Mobility Radeon HD 5800 qui embarque le GPU des Radeon HD 5700.

Découvrez nos offres d’abonnements Page 30

Page 29

Page 29

Page 73

Page 74

Page 74

Durée

12 numéros

24 numéros

12 numéros

24 numéros

24 numéros

24 numéros

Avantage

8,8 € d’économie 21,6 € d’économie

paiement par trimestre

Deux NF-S12BFLX clé usb et 50 ou deux NF-P12 numéros offerts + offerts 16,6 € d’économie

clé usb et 50 numéros offerts + paiement par trimestre

Coût

62 €

120 €

17 € par trimestre

17 € par trimestre ou 125 €

125 €

17 € par trimestre

Frais de port France

0

0

0

0

0

0

Frais de port CEE

12

24

24

N/A

N/A

N/A

Frais de port reste du monde

20

40

N/A

N/A

N/A

N/A

Hardware Magazine

I9


News

CES 2010 : des lunettes 3D pour tous

Les lunettes 3D chez Panasonic.

La 3D était également à l’honneur à l’Adult Entertainment Expo qui se tenait parallèlement au CES.

La conversion de vidéos 2D en 3D, une réalité ?

Depuis quelque temps, nous entendons parler de plus en plus de l’affichage en 3D ou plutôt de l’affichage stéréoscopique. Celui-ci consiste, pour rappel, à simuler la vision d’images différentes par l’oeil gauche et par l’oeil droit pour se rapprocher de la 3D et nous donner une meilleure appréciation de la profondeur. De nombreuses techniques existent, mais tous les systèmes qui procurent une qualité suffisante ont besoin de lunettes spéciales, plus ou moins complexes, pour séparer les images destinées à chaque oeil. Ces techniques ne sont pas nouvelles et ont régulièrement fait des apparitions dans le domaine commercial, mais sans grand succès puisqu’une qualité suffisante et du contenu adapté n’étaient pas au rendez-vous. L’apparition de ces technologies a également été mise en pause, le temps que la fabrication d’écrans plats adaptés soit possible. nVidia a été le premier, avec 3D Vision, à proposer une solution moderne qui repose sur des lunettes actives à obturation. Comme leur nom l’indique, elles obturent successivement la vision de l’oeil gauche puis de l’oeil droit. Une fois synchronisé avec l’affichage, ce système permet de contrôler quelles images sont vues par quel oeil.

News

C’est ce système qui a été retenu par les principaux fabricants de TV qui voient tous en 2010 l’explosion de la 3D, profitant du succès populaire d’Avatar qui marque la maturité de la production de films pour cette technologie. Bien entendu, il s’agit là également d’un argument pour faire renouveler le parc… puisqu’il vous faudra acheter un nouvel écran et un nouveau lecteur BluRay. C’est donc également l’occasion de pousser un maximum de personnes à abandonner le DVD. En bref, l’industrie dans son ensemble a de très 10

I Hardware Magazine

bonnes raisons de vous faire aimer la 3D et en avait rempli les stands du CES de Las Vegas, l’un des plus grands salons au monde dédiés à l’électronique grand public. Toshiba, Panasonic, Sony, Samsung, LG, tous mettaient en avant la 3D, bien que de notre côté, ce qui nous a le plus impressionné a été la finesse de certains écrans qui devient réellement impressionnante, alors que notre avis sur la 3D reste mitigé. Tous ont opté pour les lunettes actives parce que c’est la technologie la plus simple à mettre en place au niveau de l’écran, qui doit « simplement » être rapide et lumineux, deux paramètres qui progressent naturellement avec l’évolution technologique. Le coût de la technologie prend, en réalité, place dans des lunettes actives qui représenteront une charge supplémentaire pour l’utilisateur, surtout si une seule paire est livrée par TV, comme la plupart des fabricants semblent l’indiquer. Il faudra donc passer à la caisse pour chaque membre de la famille.

Du mieux, du moins bien et du pire

Plus concrètement, comment se comportent les modèles exposés en 3D ? Globalement, le résultat est proche pour les modèles qui vont être commercialisés cette année, bien entendu chaque fabricant veut mettre en avant ses avantages mais cela reste proche. Nous donnerons cependant un petit avantage aux écrans Plasma de Panasonic sur tous les autres modèles LCD exposés. A l’exception des écrans AMOLED 3D, notamment chez Samsung, qui donnaient le meilleur résultat que nous avons vu à ce jour. Ils sont cependant limités en taille et leur commercialisation n’est pas encore prévue. Bien entendu, une poignée de films au format 3D ne seront pas suffisants pour convaincre d’acheter un nouvel écran. Ils devraient se multiplier cette année, des chaînes de TV dédiées vont apparaître, de grands événements sportifs seront filmés en 3D et les jeux optimisés 3D devraient exploser, avec même quelques titres sur la PS3. Qui plus est, les fabricants de TV parlent tous de technologies destinées à convertir la 2D vers la 3D, Toshiba en premier avec la Cell TV qui intègre un processeur Cell qui pourra s’en charger. La démo la plus impressionnante à ce niveau était, selon nous, celle de JVC, mais le résultat dépend probablement plus de la scène choisie que de la technologie. Pour convertir en 3D, les différentes solutions vont observer plusieurs images successives pour essayer

d’en extraire une notion de profondeur et ainsi produire une image pour chaque oeil. Il ne faut pas s’attendre à des miracles bien entendu, mais ce que nous avons vu était mieux que ce à quoi nous nous attendions. Par contre, les techniques d’affichage 3D sans lunettes, telles que celle d’Alioscopy, nous semblent toujours d’une qualité bien trop faible qui les limite à des affichages publicitaires qui « attrapent » l’oeil ou plutôt les yeux.

Du côté du PC ?

nVidia a décidé d’étendre son support de la 3D à l’affichage triécran. Mais il faudra pour cela disposer de deux cartes graphiques ou d’une carte biGPU. Le fabricant n’a cependant pas pu nous confirmer que ses pilotes supporteraient les technologies concurrentes des fabricants de TV. nVidia l’envisage, mais il s’agit bien sûr de décisions politiques. Autant nVidia aime préciser ne pas être un vendeur de lunettes, autant force est de constater que c’est le cas en pratique. Cela va-t-il changer en 2010 ? Nous l’espérons parce que le modèle nVidia est nettement moins bien, tant en termes de qualité que de confort, que ce que nous avons pu voir chez Sony ou Panasonic, par exemple. Par contre, chez AMD, rien de neuf. Le fabricant a décidé de se contenter d’ajouter dans ses pilotes les fonctions nécessaires aux développeurs tiers. Une société comme iZ3D ou DDD pourra donc optimiser son logiciel pour les GPU AMD et les développeurs de jeux pourront en faire de même. AMD ne compte donc pas pousser de solutions 3D propriétaires mais simplement, pouvoir faire partie de l’écosystème une fois qu’il sera en place. Grosse déception, la gamme d’écrans 3D de Zalman. Le fabricant a décidé de rester sur la technique de la polarisation linéaire qui produit aujourd’hui le résultat le plus mauvais. Le ghosting est important mais pire, vous ne pouvez toujours pas incliner la tête d’un iota sans quoi les lunettes ne font plus leur effet. Garder un dictionnaire sur la tête ou jouer sur un écran 3D Zalman : même combat. Succès ou flop de 2010, une chose est sûre : la 3D va faire parler d’elle et tenter par tous les moyens de vous faire accepter d’encombrantes lunettes !

Si les TV 3D laissent un sentiment mitigé, les TV ultrafines font par contre l’unanimité !


Nvidia annonce le Tegra 2

Jen Hsun Huang, le CEO de nVidia, et un module Tegra 2 qu’il espère voir prendre place dans un maximum de périphériques.

Alors que certains espéraient voir nVidia annoncer de nouvelles GeForce lors de ce CES, c’est du côté de Tegra, les produits ultramobiles destinés aux PDA, smartphones, lecteurs multimédias etc. qu’il y a eu du neuf. nVidia a ainsi annoncé un

nouveau modèle Tegra, sans cependant donner un nom de produit spécifique. Cette évolution du SoC (systemon a-chip) de nVidia repose sur deux nouveautés principales : le remplacement du core ARM11 par deux cores ARM Cortex A9, nettement plus performants, et le passage de la gravure en 65 nm à la gravure en 40 nm. L’un dans l’autre, nVidia devrait ainsi proposer plus de puissance CPU, tout en réduisant la consommation. nVidia n’est pas rentré dans les détails des autres processeurs de Tegra 2, Vidéo, 3D, image… et s’est contenté de dire que la consommation en audio était ridiculement faible

Le 28nm en approche chez Globalfoundries Le nouveau fondeur, qui englobe maintenant les anciennes usines d’AMD ainsi que Chartered, a exposé discrètement quelques wafers lors d’une réception informelle. L’un d’eux était l’un des premiers wafers de production en 28 nm, ce qui veut dire que la technologie est maintenant au point et devrait faire son apparition commerciale comme prévu, dès la fin de cette année.

Le premier wafer de production en 28nm chez Globalfoundries.

Globalfoundries entend bien profiter des déboires de TSMC sur le 40 nm pour s’attirer de nouveaux clients et il semble évident que ce sera le cas d’AMD pour ses GPU. Reste à voir quand ce passage se fera. Nous estimons que cela devrait bien débuter avec le 28 nm. AMD pourrait d’ailleurs bien perdre un peu de temps, ou plutôt de son avance actuelle sur nVidia, lors de cette transition. Passer par plusieurs fondeurs donnera à AMD plus de poids pour faire jouer la concurrence mais pourra lui faire perdre la position de client privilégié chez TSMC, une décision qui doit donc être mûrement réfléchie et surtout ne pas être dévoilée avant la dernière minute. Notez sur le plan technique que le 32 nm de Globalfoundries utilisera la technologie SOI et sera utilisé par les CPU AMD, y compris les APU qui intégreront un GPU sur le même die. D’après le fondeur, le SOI reste très utile et permet des gains importants, mais au prix d’un temps de développement plus long, incompatible avec les GPU qui vont donc se tourner vers le 28 nm qui sera, lui, sans SOI. Plus tard, début 2011, Globalfoundries introduira un procédé de fabrication en 40 nm sans SOI pour concurrencer TSMC sur la production des puces moins avancées. Pour les amateurs des théories du complot, vous remarquerez que lorsque AMD, qui va probablement abandonner TSMC pour Globalfoundries pour certains produits, pourrait profiter d’un énorme avantage sur nVidia, qui a annoncé fermement rester chez TSMC, ce dernier connaît à nouveau de gros problèmes de fabrication sur sa ligne 40 nm qui empêchent les Radeon HD 5000 d’alimenter le marché en volume. Il n’en faut pas plus pour que les amateurs des théories du complot y voient un cadeau de TSMC pour fidéliser un gros client… Une théorie, bien entendu, impossible à vérifier.

et que sa solution était la seule capable de faire face à toutes les vidéos HD. Si Tegra a pris du temps à connaître un succès limité (nous en entendons parler depuis 2 ans !), nVidia estime que tout va aller plus vite avec son successeur, le plus dur étant de pénétrer et de comprendre ce marché sur lequel la concurrence est féroce. Il restera un gros handicap à Tegra 2 : il n’intègre aucun dispositif de communication. Il faudra donc lui adjoindre une puce dédiée à cela, ce qui va tenir nVidia à l’écart de certains designs.

Dans l’immédiat, nVidia entend bien s’associer au succès annoncé des tablet PC. Encore un périphérique dont on nous parle depuis longtemps. 2010 devrait enfin être l’année de leur explosion et nVidia compte bien en être. Enfin, Epic a annoncé que l’Unreal Engine 3 était compatible avec Tegra 2. S’il ne s’agit pas de produire des jeux aussi sophistiqués que sur PC ou consoles (hors Wii), il s’agit bien de profiter d’un marché en plein boom. Si les étoiles s’alignent bien pour nVidia, son expertise graphique pourrait lui permettre de laisser ses concurrents sur place à ce niveau.

Shuttle veut standardiser les notebooks Lors du CES, Shuttle a dévoilé une initiative fort intéressante qui consiste à standardiser l’intérieur d’un notebook et plus précisément le format de la carte mère. Baptisée SPA, pour Shuttle PCB Assembly, cette initiative a pour but principal de faciliter la vie des petits intégrateurs qui pourront ainsi concevoir à moindre coût leurs propres solutions. Le but n’est pas de concurrencer les modèles haut de gamme des grandes marques, qui ont besoin d’un design spécifique en termes de format et de capacités. Concevoir un MacBook Air sur la base de composants standardisés n’est, bien entendu, pas possible. Par contre, avec le SPA (13 à 17’’) et le microSPA (10 à 13’’), Shuttle pense pouvoir révolutionner le segment plus grand public, avec des designs peutêtre moins aboutis, mais plus flexibles. Paradoxalement, Shuttle pense que cela pourrait malgré tout tirer la qualité par le haut, étant donné qu’un châssis SPA pourrait être utilisé plus longtemps sur plusieurs générations et ainsi permettre aux plus petits assembleurs d’éviter le côté trop « cheap » de leurs solutions. Bien entendu, les amateurs de hardware y verront surtout l’opportunité de pouvoir mettre à jour leur portable. Shuttle précise cependant que cette possibilité devrait rester limitée aux revendeurs qui pourront effectuer des mises à jour eux-mêmes, mais pas commercialiser directement les composants, pour des raisons de garantie notamment. Suivant la mise à jour, il faudra remplacer uniquement la carte mère ou le système de refroidissement également. Celuici a bien été standardisé mais est différent suivant la présence ou nom d’un GPU. Notez cependant à ce sujet que pour toutes les solutions avec GPU, il s’agissait d’un modèle d’entrée de gamme peu intéressant. Sera-t-il possible de proposer un « vrai » GPU sur la base de ce format standardisé ou les contraintes liées sont-elles suffisamment importantes pour imposer un design spécifique ?

Hardware Magazine

I 11


Preview

Nvidia GeForce « GF100 » Carte Graphique

Entre révolution et flop, les pronostics sur le futur GPU de nVidia vont bon train. Sans pouvoir encore répondre à cette question, nous allons essayer de vous aider à y voir plus clair. voyons nVidia avancer par grosses étapes au bout d’un long cycle, alors qu’AMD fait évoluer son architecture par plus petites étapes régulières. nVidia essaye d’exploiter cette vision des choses pour rabaisser les Radeon HD 5000 qui ne seraient qu’une petite évolution pour ajouter Direct3D 11 aux Radeon HD 4000. A l’opposé, nous pourrions dire que les Radeon HD 4000 étant plus avancées, elles n’ont pas eu besoin d’une révision complète et plus risquée de leur architecture. Tout cela est donc totalement subjectif et revoir plus en détail son architecture n’est pas un point positif en soi. Cela rend par contre, pour nous, l’étude du GPU plus intéressante.

512 cores et caches : rappel

Le GF100 et ses 3 milliards de transistors.

Le GF100 dans son ensemble : quatre GPC qui contiennent chacun quatre multiprocesseurs.

A

près avoir dévoilé l’architecture générale de son futur GPU haut de gamme, nVidia a décidé d’en dire plus sur les détails graphiques qui le concernent, histoire de nous faire patienter. Autant être clair : le GF100 ou Fermi, est en retard. Il devrait enfin arriver en mars et afficher plus de six mois de retard autant par rapport aux Radeon, que par rapport aux plans de nVidia. Six mois dans un petit monde qui voit les produits être renouvelés tous les ans, c’est beaucoup. Une raison est probablement à chercher du côté des cycles de développement différents entre les deux concepteurs de GPU. Depuis quelques années, nous

Fermi est une nouvelle architecture qui se démarque de la précédente par une structure simplifiée pour plus d’efficacité et un sous-système mémoire entièrement revu. Dans un GT200 qui équipe les GeForce GTX 200, nous retrouvons trente multiprocesseurs (qui, à l’image d’un CPU, seraient appelés cores) équipés d’un scheduler, de huit processeurs FP32 (que nVidia appelle opportunément « cores CUDA »), d’un processeur FP64, de deux unités pour les fonctions spéciales et d’une unité load/store qui est partagée entre trois multiprocesseurs. nVidia a remis à plat cette architecture de manière à pouvoir l’alléger, tout en augmentant la puissance de calcul. Fermi se contente de seize multiprocesseurs mais cette fois, équipés de

deux schedulers, de deux groupes de seize processeurs FP32, de quatre unités pour les fonctions spéciales et d’une unité dédiée pour les opérations de type load/store. Il n’y a plus d’unité dédiée au FP64, mais les unités FP32 peuvent traiter les opérations sur 64 bits à demi-vitesse (elles seront cependant bridées sur les GeForce), comme les CPU. Si vous faites le compte, cela nous fait donc 512 « cores » pour Fermi contre 240 « cores » pour le GT200. L’agencement différent fait que le nombre de schedulers ne passe que de 30 à 32 et le nombre d’unités pour les fonctions spéciales que de 60 à 64, nVidia estimant qu’elles sont moins utilisées par rapport aux autres unités mais pas seulement, nous reviendrons là-dessus en abordant les unités de texturing. Le sous-système mémoire de Fermi est maintenant basé sur une architecture L1/L2 similaire à celle que nous pouvons trouver dans un CPU. Chaque core ou multiprocesseur dispose d’un cache L1 de 16 ou 48 ko suivant le cas (ce sera toujours 16 ko en mode graphique) et le GPU propose en plus un cache L2 cohérent de 768 ko connecté aux six contrôleurs mémoire 64 bits, qui forment donc un bus de 384 bits, comme sur les premières GeForce 8800. Le nombre de registres généraux est en baisse, par rapport aux unités de calcul, mais progresse par rapport au nombre de threads en vol. Grossièrement, cela signifie qu’il sera possible

Les caches généralistes vont remplacer tous les caches dédiés et donc être soumis à rude épreuve.

12

I Hardware Magazine


Une image tirée de SupersonicSled, la démo que proposera nVidia pour mettre en avant le GF100 et qui fait la part belle aux effets physiques.

structure appelée Polymorph Engine qui reprend toutes les étapes fixes liées au calcul de la géométrie. Attention cependant, la raison est plus à voir du côté de l’organisation de l’architecture que des performances. Pour conserver les données localement au lieu de les faire transiter vers une unité à l’autre bout du GPU, il fallait multiplier les tessellateurs. Nous ne connaissons d’ailleurs pas le débit de ces unités des GeForce mais quoi qu’il en soit, la partie complexe de la tessellation prend en réalité place dans les hull et domain shaders qui se chargent de la contrôler et d’en tirer bénéfice.

d’exécuter des programmes plus complexes à pleine vitesse, mais ce sera moins facile de masquer une latence élevée uniquement via le nombre de threads résidant dans chaque multiprocesseur. Par contre, la nouvelle structure de cache devrait permettre de compenser tout cela, en abaissant les latences et en permettant d’attendre l’espace registre à travers le cache L1.

La rastérisation enfin parallélisée Avec le GF100, nVidia introduit une avancée architecturale très importante : la parallélisation du setup engine et de la rastérisation des triangles. Une limitation commune à tous les GPU actuels est de ne pouvoir découper en pixels qu’un seul triangle par cycle (par deux cycles sur l’entrée de gamme), ce qui limite dès lors au même rythme leur débit en triangles. Le GT200 et Cypress peuvent chacun découper un triangle de 32 pixels par cycle, soit un débit qui va jusqu’à 850 millions de triangles par seconde. A 60 FPS, cela nous donne toujours plus de 10 millions de triangles par image, un chiffre énorme. Le problème de cette découpe par 32 pixels est que le traitement des petits triangles est inefficace puisque, par exemple, seulement 5 pixels par cycle vont être générés, ce qui ne va pas être suffisant pour alimenter le reste du GPU. Avec la tessellation, les petits triangles vont être amenés à se généraliser et nVidia a donc voulu résoudre le problème. Pour cela, au lieu d’un seul setup engine (qui calcule les équations ou arêtes des triangles) lié à un gros rasterizer (qui découpe les triangles) dans le GPU, nVidia a décidé d’opter pour quatre setup engines et quatre petits rasterizers capables de générer 8 pixels par cycle. Ceux-ci prennent

nVidia annonce des gains importants en performances lorsque la tessellation est utilisée. Ce sont cependant des chiffres que nous n’avons pas pu confirmer et donc à prendre avec des pincettes. Un des seize multiprocesseurs du GF100.

place dans une structure appelée GPC, pour Graphics Processing Cluster, qui englobe par ailleurs quatre multiprocesseurs. Avec de gros triangles, la nouvelle architecture va donc avoir un débit (1 triangle/32 pixels) identique à l’actuelle, mais sera par contre plus efficace avec les petits triangles, surtout s’ils sont issus de la tessellation, une étape qui a également été parallélisée. Alors qu’AMD a placé un seul tessellateur dans ses GPU, nVidia en a intégré un dans chaque multiprocesseur, soit 16 au total dans le GF100, via une

PhysX et la tessellation permettent un rendu d’une chevelure détaillée. La fin des chauves dans les jeux vidéo ?

Hardware Magazine

I 13


Preview Quand le GF100 sortira, nVidia proposera des pilotes qui permettront de jouer sur trois écrans, y compris en 3D Vision et avec les GeForce GTX 200. Les cartes basées sur le GF100 seront cependant toujours limitées à deux sorties, nVidia n’ayant pas amélioré cette partie du GPU.

Si la tessellation présente dans chaque multiprocesseur est anecdotique, le fait que les polymorph engines permettent de paralléliser toutes les étapes de la préparation de la géométrie pourrait désengorger le GF100 à ce niveau.

64 unités de texturing et 48 ROPs Avec le GF100, nVidia a décidé de privilégier la puissance de calcul et son rendement, par rapport aux unités de texturing. Ainsi, chaque multiprocesseur reçoit quatre unités de texturing pour un total de seulement 64 dans le GPU contre 80 dans un GT200. Par contre, nVidia a effectué le même retour en arrière qu’AMD, c’est-à-dire recoupler les unités de texturing à un bloc d’unités de calcul spécifiques. Les 64 unités ne seront donc plus partagées entre certaines unités de calcul mais seront liées quatre par quatre à chaque multiprocesseur. Le découplage permettait sur le papier de pouvoir attribuer toute la puissance de filtrage aux unités qui en avaient besoin. En pratique, cela a alourdi l’architecture plus qu’autre chose. AMD était revenu sur ce point avec les Radeon HD 4000 et nVidia suit ici cette même tendance. Le fabricant précise gagner ainsi en efficacité. Reste que la puissance de filtrage brute sera plus faible sur le GF100 que sur le GT200. Pour compenser en partie, nVidia a doublé la vitesse de chargement des samples de texture non filtrés (ou filtrés via un shader) sur certains formats. Le nombre de ROP passe par contre de 32 à 48, alors que le bus mémoire auquel ils sont liés passe de 512 à 384 bits. Cette densité de ROP doublée par rapport au bus mémoire est liée au passage à la GDDR5 qui offre plus de bande passante par bit et demande donc plus d’unités pour bien en profiter. AMD avait opéré le même changement avec le RV740 de la Radeon HD 4770. Les plus attentifs auront probablement remarqué quelque chose d’étrange : 48 ROP

14

I Hardware Magazine

mais seulement 32 pixels issus des rasterizers. Cela signifie que les 48 ROP ne pourront pas être pleinement alimentés et que le fillrate sera limité à 32 pixels par cycle. Par contre, les ROP supplémentaires seront très utiles pour booster les performances avec antialiasing. nVidia en a, par ailleurs, profité pour améliorer la compression et donc les performances en mode 8x.

Des fréquences simplifiées Depuis le GeForce 8, nVidia utilise plusieurs fréquences dans ses GPU. Les plus importantes sont celle du GPU et celle des shaders ou unités de calcul. Nous ne parlons, en général, que très peu de la troisième, celle des multiprocesseurs ou des schedulers qui est la moitié de celle des unités de calcul qui fonctionnent à la façon double pumped des Pentium 4. Celleci va cependant prendre de l’importance avec le GF100 puisque toutes les unités fixes liées à la géométrie, ainsi que les unités de texturing vont passer du domaine GPU au domaine de fréquence du multiprocesseur. Sur un GT200, la fréquence de toutes ces unités passerait ainsi de 648 à 738 MHz, soit un gain conséquent. Nous ne savons cependant pas quelles seront les fréquences finales du GF100 ni si l’écart sera toujours important. Nous nous attendons à une fréquence d’environ 700 MHz autant pour le GPU que les multiprocesseurs et donc de 1 400 MHz pour les unités de calcul.

Autant de points forts que de points faibles En parcourant l’architecture du GF100, il apparaît rapidement qu’il va être difficile pour nVidia de doubler les performances par rapport à la génération actuelle. Les 64 unités de texturing vont être une sérieuse limitation dans certains jeux. Dans d’autres, surtout s’ils utilisent GPU PhysX pour le calcul

L’architecture mémoire du GF100.

de certains effets, la puissance de calcul et la flexibilité de l’architecture feront en principe la différence. Quant à la tessellation, il est difficile de dire ce que l’architecture de nVidia apportera en pratique, puisque sa capacité à traiter les petits triangles pourrait perdre en intérêt avec des algorithmes adaptatifs qui n’apporteront des détails qu’à l’avant-plan, pour justement éviter de créer inutilement de trop petits triangles. Cependant, AMD semble avouer qu’il s’agit là d’un avantage potentiellement important en tentant de minimiser l’intérêt de la tessellation dans les jeux, quelques jours seulement après l’annonce de nVidia et après nous l’avoir mise en avant pendant longtemps. Un petit mot sur la consommation de la carte : elle sera supérieure à celle d’une GeForce GTX 285, nVidia l’a confirmé. Elle devrait même s’approcher des 300 W, comme pour la Radeon HD 5970. Les performances de la Radeon HD 5870 pour les nuisances de la 5970 pourraient donc bien être la dure réalité que devra affronter ce GF100, en mettant en avant ses promesses dans les jeux Direct3D 11 et PhysX.


Stabilité performanceS & durabilité

| Socket LGA1156 pour processeurs Intel® Core™ i7/Core™ i5 | Chipset Intel® P55 Express | Dual channel DDR3 2000/1800/1600/1333/1066 Mhz max 16Go | Support des technologies NVIDIA® Quad-GPU SLI™ & ATI® Quad-GPU CrossFireX™

La carte mère Sabertooth par ASUS a été conçue avec l’exigence et la rigueur militaire ! 1èRE CARTE MèRE ISSUE DE LA SéRIE TUF (ThE ULTIMATE FoRCE), elle innove par son dissipateur en céramique (CeraM!X) garantissant des températures maitrisées pour les composants les plus critiques atour du CPU et par son système de refroidissement mémoire : CoolMem!. En plus des composants TUF CAP & MoFEST répondant aux standards militaires, la carte mère embarque les technologies Memok! rendant toutes les mémoires compatibles et DriveXpert permettant l’utilisation de l’espace disque généralement perdu lors d’un système en Raid.

deSign électrique « tuf engine »:

Solution thermique « ultimate cool ! »

ange gardien « Safe & Stabe »

- 12 PhASES PoUR LE CPU

- DISSIPATEUR DE ChALEUR CERAM!X

- MEMoK!

- 2 PhASES PoUR LA MéMoIRE

- REFRoISSEMENT MéMoIRE CooLMEM!

- DRIVEXPERT

- E.S.P. : UNE MEILLEURE GESTIoN DE L’EXTINCTIoN

- TEChNoLoGIE TPRobE

- ESD GUARDS

- TEChNoLoGIE ASUS FAN XPERT

- EMI EMILINAToR

- TUF CAP & MoSFET : CERTIFIé CoNFoRME AUX EXIGENCES MILITAIRES

www.asus.fr *

L’innovation au service de la perfection

Sabertooth-Hardware-Dec09.indd 1

*

18/11/09 16:33


Cas Pratiques

Cas Pratiques

Gagnez 6 Go de mémoire Corsair ! En nous envoyant une question technique par mail (lecteurs@techage.fr), vous pouvez gagner un kit mémoire Corsair 3 * 2 Go TR3X6GB1600C8D Dominator ou encore une alimentation HX750W ! La rédaction choisira la question la plus pertinente et son auteur recevra son lot. Notez que nous ne pourrons sans doute pas répondre de manière individuelle à toutes les questions ! Par Thomas Olivaux

Du sable au microprocesseur, making-of Un tableau, en bas à gauche de la page 95 de Hardware Magazine n° 43, fait apparaître dans sa dernière colonne le nombre de transistors présents dans le GPU d’une carte graphique. Ainsi, dans la puce GT200 de chez nVidia, on peut y trouver 1 400 millions de transistors ! Quand on sait que ce composant électronique se présente généralement sous la forme d’un petit cylindre doté de trois connexions (tripôle) d’une hauteur totale moyenne d’un centimètre et demi, quelle technologie utilise le fabricant afin de parvenir à un tel degré d’intégration ? sont l’essence même. Du reste, leur fonction n’a absolument pas changé, ils font toujours office d’interrupteurs.

Le silicium

Partant de roches riches en silicium, celui-ci est peu à peu isolé afin d’obtenir une pureté irréprochable de 99,9999 % et moulé en gros lingots baptisés ingots.

D

epuis l’invention du circuit intégré en 1958 par Jack Kilby (prix Nobel de physique en 2000), la façon de concevoir des composants électroniques a été littéralement bouleversée. Un circuit intégré est un ensemble de composants électroniques miniaturisés au maximum et regroupés au sein d’un même emballage afin d’exécuter une fonction bien précise. L’évolution suprême du circuit intégré arrive en 1971 lorsque Intel invente le microprocesseur, un circuit intégré ultracomplexe permettant de réaliser de très nombreux calculs de toutes sortes. Depuis, les transistors dont vous parlez existent toujours, en vente dans n’importe quelle boutique d’électronique, mais sorti de la réparation de vieux appareils et de la réalisation de montages maison, ils ne

16

I Hardware Magazine

servent plus vraiment. Ils existent en toute petite taille, soudés aux PCB par des robots, de la même façon que les résistances et autres composants ont été réduits en taille au fil des années. Mais les transistors existent également au sein des processeurs, ils en

Le silicium est, après l’oxygène, l’élément chimique le plus répandu sur terre. Il est, par exemple, un des éléments qui composent le sable. Le silicium est également à la base de tous les composants électroniques modernes, dans sa forme la plus pure. Partant de sable, de quartz, le silicium est peu à peu isolé, en de nombreuses étapes, pour arriver à un degré de pureté de 99,9999 %. Le silicium de classe électronique n’a pas plus d’un seul atome étranger pour un milliard d’atomes ! La dernière étape consiste à faire fondre ce silicium pur et à le mouler en gros cristal de 100 kg (dans le cas d’Intel) baptisé Ingot. Ce cristal, de forme cylindrique, est découpé en fines

L’Ingot, dont le diamètre des productions modernes atteint 300 mm, est découpé en fines tranches, les fameux wafers.


Zoom à l’échelle d’un die de processeur. A l’aide de différents procédés, l’emprunte du futur CPU est gravée.

Procédé d’electroplating durant lequel des atomes de cuivre sont injectés pour finaliser les transistors qui ont été précédemment gravés.

sur une tête d’épingle. Après ça, le wafer est à nouveau poli pour obtenir une surface totalement plane. A présent, tous les transistors sont là, nous avons sur la surface du wafer trois petits points de contact par transistor, comme sur un transistor de 1 cm de haut. Sont ensuite appliquées plusieurs couches de métal pour réaliser les différentes interconnexions entre les pins des transistors, chacun séparé d’un isolant. Pensez à ces étapes comme du câblage pour que les millions de transistors fonctionnent entre eux. Un die de processeur semble étonnamment fin, mais il peut y avoir jusqu’à 20 couches de circuits sur les puces modernes. On est proche de la fin. Une machine vient tester les dies, puis le wafer est découpé et les dies défectueux sont éliminés. Le die est positionné

tranches baptisées wafers. Le diamètre des wafers augmente au fil des années, lorsque des machines capables de « graver » sur de plus grosses surfaces sont inventées. Alors que les tout premiers microprocesseurs étaient réalisés avec des wafers de quelques centimètres, les grandes compagnies comme AMD et Intel utilisent aujourd’hui des wafers de 30 cm de diamètre. Par-dessus le wafer est créé un réseau intense de connections électriques afin de former les circuits internes du CPU.

Exposition et gravure Les wafers sont polis au maximum et ressemblent, avant gravure, à de vrais miroirs. Les fondeurs appliquent ensuite un produit sur toute la surface des wafers, une couche photosensible. Vient ensuite l’étape cruciale de l’exposition. Nous pouvons parfaitement comparer la création du microprocesseur au fait de prendre une photo, à savoir qu’une lumière UV est projetée au travers d’un plan du microprocesseur (environ 4 fois plus gros que le die du processeur gravé) et réduite par l’intermédiaire d’optiques. Un dissolvant permet d’éliminer la couche photosensible qui a été exposée à la lumière UV et s’est transformée en sorte de mélasse. La matière photosensible qui n’a pas été exposée à la lumière recouvre alors le négatif de la structure du microprocesseur que l’on souhaite produire. L’application de procédés chimiques aussi secrets que complexes permet de réaliser la gravure à proprement parler (c’est-à-dire d’attaquer la surface du wafer à l’exception des parties protégées par la couche photosensible imbrûlée), puis les restes

Lorsque le die est terminé, il est appliqué sur un support peu fragile et facile à manipuler par l’utilisateur, puis protégé par un dissipateur thermique (IHS ou heatspreader).

de matière photosensible sont supprimés. Une fois la gravure terminée, une nouvelle couche photosensible est appliquée et un autre masque traversé par de la lumière UV est utilisé. Pour cette nouvelle étape, ce sont des ions qui sont bombardés sur le wafer afin de modifier les propriétés électriques du silicium. A l’aide d’un champ électrique important, les ions sont propulsés à la vitesse inouïe de 300 000 km/h ! Enfin, une fois que nous avons tout un tas de microtrous, rainures et des zones qui réagissent différemment les unes des autres au contact de l’électricité, il est temps d’appliquer du cuivre (procédé Electroplating) pour finaliser tous ces petits transistors qui tiennent par 30 millions

sur un support et, parfois, recouvert d’un diffuseur de chaleur (heatspreader) puis, le processeur fini est longuement testé avant d’être emballé. Vous savez à présent, d’une manière générale, comment sont fabriqués les processeurs (CPU/GPU) modernes ; chaque fabricant fait des recherches en permanence et invente de nouveaux procédés qu’il brevette et, peu à peu, la finesse de gravure parvient à diminuer. Ces processus sont généralement secrets et peu documentés, mais certains ont acquis une certaine notoriété comme le SOI d’AMD (Silicium On Insulator, silicium sur isolant) ou le High-k/Metal Gate d’Intel (nom global de la gravure en 45 nm).

Hardware Magazine

I 17


Cas Pratiques

Faire cohabiter Windows 32 et 64 bits Les pages 12 et 13 de votre précédent numéro m’ont beaucoup intéressé car mes problèmes en matière d’imagerie numérique s’apparentent à ceux de votre correspondant et la presse spécialisée propose peu de solutions. J’utilise beaucoup Photoshop et je me pose quelques questions. Est-il profitable de travailler en 64 bits ? D’après des amis techniciens, cette formule accélérerait le mouvement de façon sensible. Est-il possible de concevoir une machine double boot fonctionnant sur plusieurs disques. Un premier boot sur 32 bits pour tout ce qui touche à l’écriture, aux jeux, à l’image animée et au Net et un deuxième boot réservé au 64 bits et au travail sur Photoshop à l’exclusion de tout autre. Un tel dispositif exigerait-il deux cartes mères ?

I

l est très difficile d’estimer les gains que l’on obtient en favorisant Photoshop 64 bits plutôt que

32 bits. Ça s’explique par une optimisation et des gains complètement différents d’une tâche à l’autre, d’un filtre à l’autre. Il faut retenir globalement que la version 64 bits offre de meilleures performances, mais que les gains sont tellement faibles qu’ils sont à peine mesurables. Toutefois, à parler de RAM et de grosses images, les choses changent du tout au tout. En 32 bits, il n’est pas possible d’exploiter correctement un kit 4 Go de RAM (ou plus) et c’est l’un des points forts du 64 bits. Si vous travaillez sur des images énormes, de 500 Mo à 1 Go par exemple (ce qui peut se produire sur de « simples » photos dès lors que les calques se multiplient), la nécessité d’exploiter plus de mémoire peut se faire sentir et nous avons relevé dans ce cas des gains de l’ordre de 30 %, c’est important !

Dual boot 32 et 64 bits Il est parfaitement possible d’installer Windows 7 32 et 64 bits, nous recommandons simplement la création de deux partitions pour bien Pour éditer le fichier boot. ini, il vaut mieux utiliser la commande bcdedit sous Vista et 7.

Le principal avantage de Photoshop 64 bits est sa prise en charge de grosses quantités de RAM.

18

I Hardware Magazine

différencier les deux OS et ne pas risquer que l’un écrase des fichiers de l’autre. Installez dans l’ordre que vous voudrez, dès que vous aurez installé le second sur une deuxième partition, vous aurez alors droit au menu de boot de Windows. Notons que les deux choix d’OS porteront le même nom, vous pourrez éditer le fichier boot.ini à la racine pour modifier leur nom en ajoutant 32 bits et 64 bits. Vous pourrez créer une troisième partition pour y stocker les données qui ne sont pas dépendantes des OS, mais dites-vous que Windows 32 bits lira sans problème la partition Windows 64 bits et vice versa. Nous comprenons que vous puissiez avoir pour souhait d’utiliser un OS propre dédié à la retouche photo sans risque qu’il ne tombe « en panne », mais si tel n’est pas votre désir premier, pourquoi chercher à installer les deux versions de Windows et ne pas vous contenter de la mouture 64 bits ? Le temps où les pilotes étaient difficiles à trouver et certaines applications incompatibles est révolu.


Upgrade : 1156 ou 1366 ? J’investis tous les ans entre 200 et 500 euros dans mon PC pour pouvoir jouer dans les meilleures conditions. Je ne joue aux jeux qu’un an après leur sortie, partant du principe qu’il vaut mieux jouer à un vieux jeu avec les paramètres graphiques à fond qu’à un jeu récent avec des paramètres au mini.

• socket 1156 : MSI P55-GD65, Intel Core i7 860 et 2 x 2 Go GSkill F3-12800CL7D-4GBRM, prix 490 euros ; • socket 1366 : MSI X58M, Intel Core i7 920 et 3 x 1 Go OCZ Platinum Edition OCZ3P1600LV3GK, prix 500 euros. J’ai choisi ces configurations pour faire tourner XP aujourd’hui, puis 7 dans un an, et avoir la possibilité de faire du SLI ou du CrossFire avec deux cartes graphiques. Y a-t-il une différence de performances et quel socket a la plus grande pérennité ? J’envisage également de racheter une deuxième carte graphique pour la coupler avec ma Gainward Bliss 9600 GT Golden Sample 1 Go de mémoire, mais n’étant plus en vente, je dois changer de modèle de 9600 GT d’où mes questions. J’ai bien compris que la mémoire de la carte graphique la plus élevée s’adaptait à la plus faible mais qu’en est-il des fréquences du chipset et de la mémoire, les fréquences les plus élevées s’ajustent-elles aux fréquences les plus faibles ? Et peut-on mélanger les types de mémoires (par exemple, DDR3 avec DDR2) et si oui, y a-t-il une perte de performances ?

S

ans hésitation, nous vous recommandons le premier choix, la plateforme 1156. A prix égal, vous aurez droit à une machine plus performante et plus pérenne. 4 Go de mémoire sont plus intéressants que 3 et surtout, le Core i7 860 à 2,8 GHz (jusqu’à 3,46 GHz en Turbo Mode 1 core) est sensiblement plus véloce que le Core i7 920 à 2,66 GHz (jusqu’à 2,93 GHz en Turbo Mode 1 core). D’autre part, bien qu’In-

tel fasse durer le couple X58/1366 en lui réservant le processeur 980X à 6 cores qui sortira au printemps, une solution ultraperformante et ultrachère, la majorité des développements se font désormais sur 1156, une plateforme meilleur marché et mieux vendue. A propos de la carte graphique, vous avez effectivement bien compris, n’importe quelle 9600 GT fonctionnera en SLI avec votre 9600 GT

MSI est revenu dans la course avec une gamme P55 bénéficiant d’un excellent rapport qualité/prix.

actuelle. En revanche, si la nouvelle est plus lente et quel qu’en soit le motif (vitesse GPU, vitesse RAM, type RAM), la plus rapide sera mal exploitée puisqu’elle passera une partie de son temps à attendre la plus lente. Mais vous pouvez très bien acheter une 9600 GT standard et tenter de l’overclocker de quelques mégahertz pour qu’elle devienne l’équivalent de votre Gainward. Il faut donc partir d’une version 1 Go, il en existe un bon paquet. Faites bien attention à éviter les arnaques, trop fréquentes en entrée de gamme. Nous avons souvent tendance à croire que les prix de cartes comme la 9600 GT ont nettement baissé, mais un rapide coup d’oeil permet de constater que tous les modèles à bas coût sont à fuir.

Hardware Magazine

Upgrade Gagnant du mois

Ayant poussé mon PC dans ses derniers retranchements (AMD 4400 + sur socket 939), j’envisage donc de changer : le processeur, la carte mère et la mémoire PC. Après étude, j’hésite entre :

I 19


Cas Pratiques

Ces horribles cartes « écolos » La mode est aux cartes écologiques, qui consomment moins. Nous n’avons rien contre réaliser des économies d’énergie, mais quand celles-ci cachent de vraies entourloupes, non merci. A l’heure actuelle, la majorité des marques proposent des modèles 1 Go entre 75 et 85 euros. Chez certains, on annonce jusqu’à 40 % d’économies d’énergie. Oui… sauf que ces cartes ne sont même pas aussi rapides que les 9600 GT de base ! Au lieu de 650/900 MHz pour le couple GPU et la mémoire, nous avons des cartes à 600/700 ou 600/750 MHz ! Evitez donc les cartes les moins chères comme la MSI N9600GTMD1G, l’Asus EN9600GT HTDI 1 Go ou la TwinTech GeForce 9600 GT 1 Go Green Edition, ainsi que la majorité des modèles en vente. A l’heure actuelle, seules les nouvelles Gigabyte sont dignes d’intérêt, nous avons d’un côté la N96TSL-1GI aux fréquences normales et fanless, de

Attention ! Comme c’est souvent le cas pour les cartes graphiques d’entrée de gamme, la 9600 GT est proposée dans de nombreuses variantes anormalement lentes. Assurez-vous que les fréquences soient conforment à l’original (650/900 MHz).

l’autre la N96TZL-1GI dont le GPU a été accéléré à 700 MHz, comme celui de votre Gainward. Dans les deux cas, ce sont des cartes vendues dans les 90 euros, le prix d’une HD4850 512 Mo en cherchant bien, les versions 1 Go étant encore à plus de 100 euros. Une HD4850 512 Mo est à peu près 30 % plus performante qu’une

9600 GT 512 Mo. En revanche, deux 9600 GT 1 Go overclockées en SLI n’ont pas de mal à battre la HD4850 dans la majorité des scénarios. Le choix n’est pas simple. Les GeForce ont la performance pour elles, la Radeon seule consomme moins et sera un peu plus silencieuse, sans compter que vous conserverez une possibilité d’évolution future avec l’ajout d’une seconde HD4850.

Aidez-nous

et gagnez un Core i7 !

Un article incomplet, une idée de sujet que nous n’aurions pas abordé, un angle original ? Nous inaugurons notre rubrique Suivi en vous proposant de nous aider à faire le meilleur magazine possible. Critiques construites, suggestions ou compléments d’informations permettront au plus pertinent d’entre vous de gagner chaque mois un Intel Core i7 ! Motivant non ? Qu’est-ce qu’on ne ferait pas pour se faire critiquer :)

Choisir la bonne taille de radiateur pour son watercooling Le dossier spécial watercooling publié dans Hardware Magazine n° 44.

A la lecture de l’article publié dans Hardware Magazine n° 44 consacré au watercooling, je me pose une question. Comment dimensionner le radiateur dans un watercooling ? Nos chers PC ne sont que de « vulgaires radiateurs électriques » dont l’intégralité de l’énergie qu’ils consomment est dissipée sous forme de chaleur. Pour une puissance de 100 W consommée à la prise, seuls 85 W dans le meilleur des cas seront dissipés par l’ensemble MB + CPU + GPU + RAM + stockages + accessoires. On peut donc estimer que le système de refroidissement devra évacuer environ 80 W pour maintenir une température de fonctionnement constante. D’après les informations techniques disponibles, par exemple sur le site de Koolance, le moindre radiateur HX-CU420V associé à un ventilateur de 120 mm sous-volté est capable de dissiper 150 W et 300 W sous 12 V. Pourquoi aller chercher plus gros ? Je pars donc du principe qu’avec un wattmètre et une documentation de qualité, il est facile de choisir le radiateur le mieux adapté.

20

I Hardware Magazine


Le wattmètre permet de mesurer combien l’appareil consomme d’énergie à la prise, c’est-à-dire combien seront facturés par votre fournisseur d’électricité.

Une alimentation électrique de PC doit effectuer tout un tas d’opérations, notamment redresser le courant alternatif pour en faire un courant continu et abaisser la tension du 230 V de la prise à différents niveaux de basses tensions utilisées dans un PC (3,3 V, 5 V et 12 V). Plus difficile, elle doit le faire à des niveaux de puissance totalement différents, un PC pouvant consommer du simple au quintuple entre un état de

repos avec quelques composants en veille et une charge maximale de tous ses éléments. Les composants qui permettent de parvenir à tout ça sont assez rustiques et n’offrent pas un très bon rendement. Ça signifie qu’une partie de l’énergie reçue est fournie en sortie mais que le restant est perdu sous forme de chaleur, toujours l’effet Joule. Malgré les progrès réalisés dans la qualité de fabrication de ces composants, l’invention de nouveaux schémas électriques pour maximiser le rendement, il y aura toujours une partie de l’énergie consommée perdue sous forme de chaleur. Depuis quelques années, les autorités ont fait en sorte de promouvoir des alimentations au meilleur rendement possible, c’est la raison d’être du label 80 Plus. 100 % des alimentations de PC sont désormais capables de satisfaire les exigences de 80 Plus, elles vont globalement plus loin, sachant que de nombreux modèles tournent autour de 85 % de rendement avec des pointes jusqu’à 90 %. Quoi qu’il en soit, il y a toujours une perte, sous forme de chaleur dégagée par les composants de l’alimentation. A l’intérieur du PC, c’est exactement la même chose. Contrairement à ce que vous dites, en restant sur l’exemple des 100 W consommés avec l’alimentation d’un rendement de 85 %, le PC ne dégage pas 85 W de chaleur. Il utilise 85 W pour fonctionner, une partie de ces watts étant convertie en de multiples calculs et opérations réalisés par les

divers composants et, heureusement pour la planète et notre porte-monnaie, une toute petite partie perdue sous forme de chaleur. Bien que ça ne soit pas l’usage, nous pourrions parler de rendement pour chaque composant qui constitue notre PC ! Au sein d’un processeur par exemple, il y a des millions de transistors qui réclament de l’énergie pour changer d’état régulièrement. Le dégagement calorifique du processeur vient des pertes induites par les conducteurs qui relient chacun des transistors. La réduction de la finesse de gravure permet de limiter l’échauffement, mais la multiplication des transistors l’accroît, au contraire. En 20 ans, nous avons progressé en réduisant la gravure de 1 000 à 45 nm, c’est 22 fois plus fin, mais le nombre de transistors a explosé de 1,2 million dans un 486 à 731 millions dans un Core i7 900, un facteur 609 ! Ces chiffres montrent clairement l’explosion de la puissance mais aussi de la chaleur produite par les processeurs et pourquoi les besoins en matière de refroidissement ont évolué.

Les alimentations ont longtemps été à la traine niveau rendement. Depuis l’apparition du label 80plus et de normes strictes, nous avons désormais des blocs capables de délivrer 80 à 90 de l’énergie absorbée, le reste part en chaleur.

Du choix du bon radiateur pour watercooling

Malgré la chaleur qu’ils diffusent, si l’on rapporte au nombre de transistors embarqués, les processeurs ont un rendement proche de 100 % !

Pour en revenir au sujet initial, le dimensionnement du radiateur pour la conception d’un circuit watercooling, il faut uniquement s’intéresser aux composants qui seront refroidis sur ce circuit, notamment le CPU. D’autre part, il ne faut pas prendre en compte leur consommation électrique, mais la quantité d’énergie thermique qu’ils dissipent ! Bien que les processeurs passent la majeure partie de leur temps à se croiser les transistors, nous devons bien sûr imaginer les pires scénarios, les cas de consommation et donc de chauffe maximums. Sauf overclocking, c’est très simple, il suffit de connaître le TDP de son CPU. Le TDP (Thermal

Hardware Magazine

Suivi MAG

L

e dégagement de chaleur produit par la résistance électrique de tout conducteur est l’effet Joule, du nom du physicien anglais qui l’a étudié au 19e siècle. Une résistance ayant un rendement thermodynamique de 100 %, c’est-à-dire capable de convertir toute la puissance fournie en chaleur, est utilisée pour un radiateur de chauffage à la maison ou dans un four. En revanche, dans le cas de composants électroniques, nous ne cherchons pas à maximiser l’effet Joule, au contraire, nous essayons de le réduire au maximum. Concrètement, nous avons besoin que ces composants effectuent diverses tâches et tout ce qui se traduit par un dégagement de chaleur n’est que perte d’énergie, c’est donc critiquable. Comme vous le soulignez, pour une puissance de 100 W consommée à la prise, seuls 85 W environ seront utilisés par le PC mais ça ne signifie pas que 85 W de chaleur sera produite, fort heureusement ! Avant de nous intéresser à ces 85 W, tâchons de comprendre où sont passés les 15 W restants des 100 W consommés et facturés.

I 21


Cas Pratiques

Plus la surface d’échange d’un radiateur d’eau avec l’air est grande, plus il pourra dissiper de chaleur. Certains vont jusqu’à utiliser des radiateurs automobile, généralement grands.

Ne pas se faire piéger par les valeurs de dissipation annoncées par les fabricants de radiateur (à eau ou à air). Il s’agit toujours de valeurs maximales obtenues avec des ventilateurs assourdissants.

Design Power) indique justement la chaleur maximale qu’un processeur est en mesure de dégager dans certains cas de figure bien précis. C’est une donnée que les fabricants de composants donnent aux partenaires qui sont en charge de réaliser les systèmes de refroidissement. Prenons l’exemple d’un Core i7 920. Comme vous pouvez le vérifier sur le site ark.intel.com (la base de données CPU d’Intel), il a un TDP de 130 W. Ça signifie que, quoi que vous fassiez, tant qu’il n’est pas overclocké, il ne pourra pas dégager plus de 130 W (et, en pratique, beaucoup moins la majeure partie du temps). Pour illustrer la discussion que nous avions un peu plus haut concernant les rendements, un coup d’oeil dans les fiches techniques de ces processeurs indique que le Core i7 920 utilise une tension maximale de 1,375 V et peut tirer jusqu’à 145 A. Concrètement, bien que le TDP (dégagement calorifique) soit de 130 W, le processeur, lui, peut consommer jusqu’à 200 W. Voyons à présent les choses sous un autre angle. Que signifie vraiment le TDP ? Le TDP est la quantité d’énergie qu’un système de refroidissement doit être capable d’évacuer afin que le composant refroidi n’atteigne pas Tjunction, la température maximale de fonctionnement au-delà de laquelle il risque d’être endommagé. Dans le cas du Core i7 920, c’est 100 °C. Mais nous ne voulons absolument pas que notre processeur tourne à 100 °C, nous souhaitons qu’il soit le plus bas possible. Il faut donc prendre un radiateur à la capacité de dissipation nettement supérieure. D’autre part, si vous désirez overclocker votre processeur, sachez que l’accroissement de fréquence et surtout de tension décuple l’énergie consommée

22

I Hardware Magazine

et l’énergie dissipée en chaleur. A titre d’exemple extrême, prenez les plus gros overclockings avec usage d’azote liquide. Lorsque nous utilisons un godet refroidi à -120 °C (la quantité d’azote versée permettant de changer la température de refroidissement, le godet très lourd offrant l’avantage d’une grande inertie), les processeurs les plus overclockés arrivent à atteindre -50 °C au niveau de l’IHS (heatspreader), ça signifie que les cores en eux-mêmes sont encore plus chauds. Le delta est de plus de 70 °C ! Ce même processeur non overclocké avec un bon refroidissement à air ne dépasse pas 60 °C dans une pièce à 20 °C, soit un delta de 40 °C seulement. D’autre part, précisons que les valeurs indiquées par Koolance ne précisent pas la vitesse de rotation du ventilateur et l’air qu’il déplace. Pour atteindre pareilles valeurs de dissipation thermique, il s’agit forcément d’une turbine absolument atroce qui casse les oreilles. L’expérience montre que les écarts entre radiateurs

d’une marque à l’autre ne sont pas très importants. L’expérience indique aussi que pour chaque 120 mm utilisé, en silence, nous pouvons compter autour de 75 W de dissipation. Partez donc du principe qu’un 240 mm utilisé avec des ventilateurs silencieux (inaudibles ou presque) peut dissiper 150 W, ce qui permet tout de même d’accueillir n’importe quel processeur du marché, même overclocké (tant que vous n’augmentez pas la tension, la chaleur n’évolue pas beaucoup). Pour ajouter un GPU, il faudra utiliser un processeur qui chauffe peu (comme le Core 2), se contenter d’un overclocking de faible envergure ou voir encore plus gros pour le radiateur. Quoi qu’il en soit, il n’existe pas de formules mathématiques simples qui permettent de calculer à coup sûr le bon radiateur pour votre PC, de nombreux facteurs entrant en compte, comme la vitesse des ventilateurs, la chauffe de votre processeur et le fait qu’il soit placé à l’intérieur ou à l’extérieur de l’UC notamment.

Les fondeurs de CPU indiquent un TDP, c’est-à-dire une valeur maximale de chaleur que leur processeur puisse dégager dans le pire des scénarios, quasiment impossible à obtenir sans overclocking.



Dossier

Maîtriser le P55 Toutes les astuces sur trois best-sellers en P55 • Asus P7P55D-E Pro • Gigabyte GA-P55-UD4 • MSI P55-GD65 24

I Hardware Magazine

benjamin bouix

Le P55 s’annonce comme la plateforme par excellence de ce début d’année 2010. Après avoir passé de longues semaines avec trois best-sellers, nous vous proposons ici des conseils et des astuces pour bien les maîtriser, aller au bout de leurs capacités, que vous soyez un débutant ou déjà bien expérimenté. Des conseils qui profiteront aux possesseurs d’autres cartes aussi !


5

Cette puce est, en fait, un switch PLX, permettant de rassembler 4 lignes PCI-Express 1.X du PCH et de les attribuer aux contrôleurs USB 3.0 et SATA 6 GB/s.

M

ultiGPU, bonnes capacités en overclocking, équipement complet, bon layout, et le tout pour un prix contenu, aux environs des 150 euros, voilà comment on définit un bestseller en P55. Les équivalents chez eVGA et DFI sont un peu plus chers car ils embarquent certains raffinements quelque peu inutiles pour Monsieur tout le monde, et le modèle Biostar, testé le mois dernier dans PC Update n° 45, n’est pas tout à fait à la hauteur avec quelques défauts de conception. Certes, tout le monde n’a pas besoin d’un système multiGPU, mais cette certification SLI ou CrossFire cache plus que ça. Une plateforme P55 dispose de 16 lignes PCI-Express 2.0 qui viennent du processeur et 4 lignes 1.1 qui viennent du PCH (le southbridge). Si la carte mère n’est pas certifiée SLI ou CrossFire, cela signifie bien souvent qu’elle est équipée d’un slot PCI-Express 16x qui utilise les 16 lignes du

processeur, mais le second est câblé en 4x sur le PCH, bridant affreusement les performances qui sont alors à peine au niveau d’un PCI-Express 2.0 2x. C’est donc assez dommage, que ce soit pour brancher une carte graphique ou n’importe quel autre périphérique. En plus, maintenant que les technologies multiGPU sont abouties, ajouter une seconde carte graphique peut être une upgrade intéressante, alors pourquoi se priver de cette possibilité. Et en ce qui concerne l’équipement, sans que la carte dégouline d’options comme certaines Gigabyte haut de gamme, nous avons droit à un excellent compromis. Carte son de qualité, assez de ports USB et SATA pour combler un utilisateur normal, et un layout auquel nous n’avons rien à reprocher.

USB 3.0 et SATA 6 GB/s Ces nouvelles normes qui font leur apparition petit à petit marquent

un tournant pour le stockage de données. Si le SATA 6 GB/s ne trouve son utilité que sur des disques ultrahaut de gamme, l’intérêt de l’USB 3.0 est immédiat, avec des débits qui atteignent déjà près de 150 Mo/s. Bien que ce ne soit pas absolument nécessaire puisque les périphériques 2.0 et 3.0 utilisent une interface compatible, il serait dommage de passer à côté. C’est ainsi qu’Asus, Gigabyte et MSI proposent des cartes qui embarquent ces technologies. Chez Gigabyte et Asus, les séries P55A et P7P55D-E remplacent les P55 et P7P55D à la différence des puces qui apportent le support du SATA 6 GB/s et de l’USB 3.0, chez MSI, c’est la GD85 qui découle de la GD65. Proposées en général une vingtaine d’euros de plus que leurs homologues, elles sont résolument tournées vers l’avenir, n’hésitez donc pas à opter pour ces nouveaux modèles qui conservent tous les avantages des précédents.

Hardware Magazine

I 25


Dossier

ASUS P7P55D-E Pro 175 euros Une carte verte !

N

ous avions prévu d’introduire la P7P55D Pro, et finalement, l’arrivée de la série P7P55D-E chez Asus nous a permis de choisir cette P7P55D-E Pro. Le suffixe E désigne le support du SATA 6 Gb/s et de l’USB 3.0. Pour proposer ces technologies, le constructeur a utilisé 4 des 6 lignes PCI-Express du PCH, c’est la raison pour laquelle le port PCIExpress du bas disparaît, au profit d’un PCI. Ceci mis à part, les deux cartes sont identiques. Quoi qu’il en soit, le layout est bon, comme les 2 autres cartes, puisqu’en solution biGPU double slot, on conserve un PCI et les deux PCIExpress 1x. Les ports SATA sont correctement placés, bien que le port noir en bas de la carte qui est celui supportant le SATA 6 GB/s aurait mérité d’être coudé, et placé avec les autres. Le panneau arrière est tout à fait complet, la carte utilise des composants de qualité, ainsi que quelques astuces made in Asus, et le seul reproche vient finalement de l’absence de switchs on board. Mais ça ne gênera que peu d’utilisateurs, la plupart ayant la carte fixée dans le boîtier et donc relativement inaccessible.

26

I Hardware Magazine

La carte a beau arborer des nuances de bleu très bien assorties, elle mériterait un logo Green tellement l’économie d’énergie est bien pensée. En effet, il est possible d’overclocker tout en conservant les économies d’énergie consistant à baisser la tension et la fréquence en idle (Intel Speedstep). Pour ce qui est de la fréquence, rien de bien surprenant, mais c’est au niveau de la tension que c’est agréable. En effet, en utilisant la fonction Offset du CPU Voltage Mode, il est possible de conserver les modulations de tension puisqu’on modifie le VID à la hausse ou à la baisse, et non la tension directement délivrée au processeur. Notre 860 d’origine était à 1,25 V, et passait à 1 200 MHz et 0,85 V en idle. Grâce à toutes ces options, nous avons pu stabiliser le processeur à 4 GHz pour 1,27 V. En idle, la fréquence chutait aux environs des 1 600 MHz pour une tension n’excédant même pas 0,9 V. Les anciens BIOS ne permettaient pas de conserver ces fonctions si on dépassait les 150 MHz de BCLK, limitant fortement l’overclocking. Désormais, ce petit défaut a été corrigé et nous avons eu le loisir de stabiliser la machine à 200 MHz de BCLK de la sorte ! Voilà une bien bonne nouvelle. Prochaine étape : pouvoir ajuster la modulation de tension ? En plus, les tensions peuvent être réglées avec des paliers très pré-

cis, elles peuvent être saisies au pavé numérique, ce qui est très pratique et rapide, et elles sont en plus assez raisonnables par défaut, c’est-à-dire que le matériel ne grillera pas instantanément. Même la tension mémoire qui peut culminer à 2,5 V, bien qu’elle paraisse ahurissante, n’est pas si élevée si on considère qu’il y a un peu plus d’un an, appliquer 2,4 V à la DDR3 était dans la norme pour les puces de l’époque. Mais c’est sans compter sur le contrôleur mémoire du Lynnfield qui en souffrirait sûrement. Certains diront même qu’il manque un peu de tension pour profiter pleinement des processeurs lors d’overclockings extrêmes, 1,7 V étant alors un petit peu léger, mais plus que suffisant pour la plupart des utilisateurs !

Limitée, mais agréable au quotidien Concernant l’overclocking à proprement parler, il est un peu moins bon que celui de nos deux autres cartes, tant en BCLK qu’en fréquence RAM. Cependant, la carte est aussi un peu plus nerveuse, comme à l’accoutumée chez Asus, ce qui explique les fréquences moindres. Cela se traduit par un gain infime sur des applications très spécifiques comme Super Pi, mais n’influencera en rien votre encodage ou vos jeux. Si le BCLK n’est pas en reste en aircooling, limité par le CPU, c’est

Cette fonction très intéressante permet de régler la tension en fonction du VID du processeur, c’est-à-dire sa tension d’origine. Là où Asus prend de l’avance sur les autres constructeurs, c’est que cette option est disponible même en overclocking.


4 barettes sur le P55, c’est parfois impossible, il faut alors aller bidouiller dans le BIOS. Pour ceux qui n’ont pas envie, la fonction MemOK peut s’en charger, avec la meme efficacité sur notre plateforme de test.

un peu moins bon en extrême cooling. En effet, on atteint les 240 MHz et il faut user du B2B pour pouvoir atteindre (et dépasser les 250 MHz). En fréquence mémoire, c’est un peu identique, nous avons eu un peu de mal à atteindre les 1 200 MHz, mais en extrême cooling, on monte assez haut, sans être limité mystérieusement comme avec la MSI. Mais si les cartes Asus montent moins en FSB, il y a une raison : elles demandent plus de tension pour tenir la même fréquence uncore. Pour rappel, l’uncore englobe le contrôleur mémoire qui est l’élément limitant la montée en fréquence de base et en fréquence RAM parfois. Quoi qu’il en soit, chez Asus, il faudra appliquer une tension légèrement plus élevée que chez les autres concurrents pour la même fréquence. Les tensions sont, elles, excellentes sur tous les plans. Les 5 tensions principales (PCH, PLL, RAM, CPU, IMC) sont très stables, et la mention spéciale va au Vcore

qui, une fois l’option Load Line Calibration activée, est très bon, appliquant scrupuleusement la tension indiquée dans le BIOS au repos comme en charge. Notez que si l’utilisation de 4 barrettes sur le P55 est parfois problématique, la fonction MemOK nous sauve la vie. Sans elle, il est nécessaire d’augmenter légèrement la tension du contrôleur mémoire et de régler quelques timings mémoire à la main, mais si on appuie sur le bouton MemOK sur le PCB, la carte procède elle-même à un ajustement complet.

Attention à l’USB 3.0 ! Cette carte supporte l’USB 3.0 et le SATA 6 GB/s, mais tout comme nous vous l’expliquions lors de notre comparo de cartes mères P55 (Hardware Magazine n° 43), les puces sont reliées aux lignes PCI-Express du PCH. On bénéficie alors d’une bande passante équivalant à une ligne PCI-Express 2.0 pour contrôler deux périphériques USB 3.0 et deux SATA 6 GB/s. C’est peu, et avec un seul périphérique connecté, les performances

Nous avons été obligé de passer par les lignes de commandes DOS afin de flasher le BIOS, suite à des problèmes avec toutes les autres solutions.

seront déjà légèrement bridées. Asus, tout comme MSI, utilise un switch PLX afin de convertir les lignes du PCH et de les câbler sur les puces contrôlant l’USB 3.0 et le SATA 6 GB/s, mais ce composant induit alors une petite latence. C’est donc mieux que de ne rien faire et utiliser directement les lignes du PCH, mais c’est aussi moins bien que d’utiliser les lignes PCI-Express du processeur, comme le fait Gigabyte sur sa série P55A. Mais l’effort est là et les performances seront bien décuplées par rapport à un simple USB 2.0.

Flashage capricieux En général, EZ Flash, l’utilitaire Asus intégré au BIOS permettant de le flasher est simple et sûr. Pourtant, avec cette P7P55D-E Pro, nous avons rencontré un problème récurrent. Impossible de flasher via EZ Flash ni même Asus Update, nous étions obligé de forcer le flash via BUpdater sous DOS. Méthode assez dangereuse et d’autant plus risquée que si le BIOS n’est pas le bon, le programme tentera quand même de l’utiliser, rendant alors l’EPROM hors service. Rien de tel ne nous est arrivé, mais ce n’est vraiment pas agréable, surtout lorsqu’on a complètement oublié les manipulations à faire. Ce fut le cas avec les trois BIOS disponibles, alors même qu’ils sont basés sur ceux de la P7P55D-E pourtant assez mûrs. Notez que nous vous conseillons de passer par cette méthode chaque fois que vous en avez le courage. La plupart des retours SAV proviennent, en effet, de flashages ratés, et bien que nous n’ayons jamais eu à nous plaindre, les logiciels intégrés des constructeurs ont parfois du mal avec certains BIOS.

Hardware Magazine

I 27


Dossier

GIGABYTE GA-P55-UD4 155 euros brûle… Et ce, lors d’utilisations conventionnelles. Bien que les cas aient été isolés, la série P55A est donc assez justifiée mais un peu plus chère.

BIOS ultracomplet, mais pas forcément idéal

L Le socket Foxconn 1156 souffre de quelques défauts qui peuvent endommager très gravement le processeur, bien que nous n’ayons eu aucun problème lors de nos tests. Il a donc été remplacé par un socket de la marque Lotes par Gigabyte sur sa série P55A, par précaution.

28

I Hardware Magazine

’UD4 de Gigabyte est sans doute la carte la plus intéressante de la gamme du constructeur taïwanais. Comme ses concurrentes, elle propose tout le nécessaire, à un prix contenu, et sans sacrifier la qualité des composants. Comme d’habitude chez Gigabyte, l’équipement est un brin plus complet que les concurrents à prix équivalent, avec 10 USB sur le panneau arrière et 8 ports SATA (dont 2 eSATA). Certes, ce n’est pas d’une folle utilité, mais avoir 10 USB d’origine sur une carte milieu de gamme accroche toujours. Comme chez Asus, le

seul reproche vient des switchs on board manquants. Notez que la UD4P ajoute un deuxieme port Gigabit. Au même prix, pourquoi pas, mais ce n’est pas vraiment utile, sauf cas spécifique.

P55A, nouvelle gamme ? Gigabyte a lancé il y a quelques semaines déjà la série P55A, dont fait partie la P55A-UD4, tout à fait similaire à cette P55-UD4. Si vous courez après l’USB 3.0 et le SATA 6 GB/s, il faut savoir que les P55A embarquent les contrôleurs nécessaires, à l’image de la P55A-UD6 qui nous a servi pour nos tests USB 3.0 dans PC Update n° 45. Cependant, ce ne sont pas les seuls avantages, on profite en plus de l’USB Power qui triple la puissance électrique délivrée par les ports USB, très pratique si vous utilisez des hubs. En prime, et il était temps, on a droit à un socket Lotes. Ce changement est important car le socket utilisé depuis le début, de marque Foxconn, présentait quelques dysfonctionnements graves, et pas uniquement chez Gigabyte. Il arrivait, en effet, qu’il

Nous sommes très étonné de voir que la tendance s’inverse, le BIOS le plus complet provenant cette fois-ci de Gigabyte. Et par complet, on ne veut pas dire avoir une soixantaine de timings RAM à régler que bon nombre d’overclockers ne modifieront jamais, mais plutôt des options utiles et pratiques. Par exemple, pour chaque tension, on a le choix, comme à l’accoutumée, entre un réglage manuel et un réglage Auto qui ajuste la tension en fonction de la fréquence requise. Ce mode est d’ailleurs assez dangereux car bien trop large sur les tensions. Mais en prime, il y a un mode Normal qui applique la tension d’origine. Dans ce cas, même sans connaître la valeur de cette tension, on est certain de ne pas mettre le matériel en danger. En revanche, le BIOS est assez mal organisé selon nous, il faut sans cesse naviguer entre plusieurs pages, ce qui ne va pas faciliter la vie des débutants, qui ne savent pas toujours quoi chercher ni où… En outre, si le réglage de la tension est très précis pour le Vcore, les autres tensions ne bénéficient pas du même soin avec un pas de 20 mV. Sans être énorme, c’est un peu dommage. Au registre des options avancées inutiles, il y a le Performance Enhance qui propose d’améliorer un peu le rendement de la configuration en resserrant quelques timings mémoire secondaires et timings internes au chipset. D’abord le mode Turbo, et ensuite le mode Extreme, encore un peu plus véloce. C’est toujours bon à prendre lorsque la configuration n’est pas ou peu overclockée,


* offre valable jusqu’au 31/06/2010

abonnement 24N° VOUS - à compléter en capitales Mr

Mme

Melle

NOM PRÉNOM ADRESSE CODE POSTAL VILLE TÉLÉPHONE EMAIL Important si vous souhaitez recevoir une confirmation d’abonnement

PAYS FAX

Plusieurs moyens de paiement possibles : Prélèvements trimestriels

Paiement classique

Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix Oui ! je m’abonne à Hardware Magazine pour spécial de 16 € par trimestre. 12 numéros et PC Update pour 12 Numéros au prix Soit une économie de 8 euros ! Le paiement s’effectuera en spécial de 120 € (soit 21.6 € d’économies) 8 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment.

Rajouter 24 € de frais de port CEE (reste du monde 40 €)

Autorisation de prélèvement automatique (N°national d’émetteur : 528906)

MODE DE PAIEMENT

J’autorise Axiome à prélever tous les 3 mois la somme de 16 € pour un minimum de deux ans à compter du / /2010

Ci-joint mon règlement de 120 € par :

Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

Chèque bancaire ou postal (à l’ordre de AXIOME) Carte bancaire CB- VISA - Eurocard

Carte no.

Date d’expiration Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

/

(merci d’indiquer les 3 derniers numéros figurants au dos de la carte bleue) Nom du titulaire de la carte

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire)

Signature du titulaire de la carte

Date

Date (obligatoire)

Au terme de mon abonnement celui-ci se prolongera par tacite reconduction ; je pourrai alors l’interrompre par simple courrier en respectant un préavis d’un mois au minimum

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante :

Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE

Tarif valable pour la France métropolitaine uniquement. En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

24N HM45


* offre valable jusqu’au 31/06/2010

abonnement 12N° VOUS - à compléter en capitales Mr

Mme

Melle

NOM PRÉNOM ADRESSE CODE POSTAL VILLE TÉLÉPHONE EMAIL Important si vous souhaitez recevoir une confirmation d’abonnement

PAYS FAX

Plusieurs moyens de paiement possibles : Prélèvements trimestriels

Paiement classique

Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix Oui ! je m’abonne à Hardware Magazine pour spécial de 17 € par trimestre. 6 numéros et PC Update pour 6 Numéros au prix Soit une économie de 6.6 euros ! Le paiement s’effectuera en spécial de 62 € (soit 8.8 € d’économies) 8 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment.

Rajouter 12 € de frais de port CEE (reste du monde 20 €)

Autorisation de prélèvement automatique (N°national d’émetteur : 528906)

MODE DE PAIEMENT

J’autorise Axiome à prélever tous les 3 mois la somme de 17 € pour un minimum de deux ans à compter du / /2010

Ci-joint mon règlement de 62 € par :

Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

Chèque bancaire ou postal (à l’ordre de AXIOME) Carte bancaire CB- VISA - Eurocard

Carte no.

Date d’expiration Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

/

(merci d’indiquer les 3 derniers numéros figurants au dos de la carte bleue) Nom du titulaire de la carte

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire)

Signature du titulaire de la carte

Date

Date (obligatoire)

Au terme de mon abonnement celui-ci se prolongera par tacite reconduction ; je pourrai alors l’interrompre par simple courrier en respectant un préavis d’un mois au minimum

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante :

Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE

Tarif valable pour la France métropolitaine uniquement. En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

12N HM45


Les profils sont désormais monnaie courante sur cette gamme de cartes. Leur nombre est variable mais il peuvent désormais etre nommés afin de mieux s’y retrouver.

mais si on se lance dans de forts overclockings pour un usage au quotidien, mieux vaut utiliser le mode Standard. Ne vous attendez pas à des gains faramineux cependant, même en Turbo, l’impact reste très limité, mais les amateurs d’optimisations apprécieront, et nous aussi.

DDR3-3400 ? A l’aise ! Gigabyte tient à sa réputation. En effet, les cartes sont connues pour être très légèrement plus permissives que les autres marques en termes de fréquence. Cela signifie qu’avec le même matériel, une carte Gigabyte pourra emmener le CPU ou la mémoire un peu plus haut que les autres. C’est ici vérifié, en arrivant au niveau de notre référence en la matière, la eVGA P55 FTW. Mais c’est au prix d’un rendement un peu moins bon, donnant donc tout leur sens aux modes Turbo et Extreme. C’est d’ailleurs avec les cartes de la marque qu’ont été réalisés les trois meilleurs overclockings de mémoire au monde, avec de la DDR3 culminant à 1 729 MHz (DDR3-3458 !). Ce n’est donc pas un hasard, et il en va de même avec le BCLK. Méfiance tout de

même, certains kits très haut de gamme comme notre GSkill PIS 2200 C7 sont parfois très mal reconnus. Il faut alors flasher le BIOS avec la dernière version afin

de corriger ce problème, plutôt étrange. Dans notre cas, la carte refusait simplement de booter avec ce kit et le BIOS F2 (assez ancien, il est vrai). En tension, le comportement du Vcore est similaire à celui des Asus et MSI, il faudra donc activer l’option Load Line Calibration sous peine de voir le Vcore chuter de près de 10 mV. Cela dit, bien que la chute de tension en charge, ou Vdroop, soit contenue, c’est tout de même plus prononcé ici que chez les concurrents, avec 0,03 V de différence. Ce n’est certes pas cela qui changera fondamentalement vos résultats, mais cela montre peut-être une très légère faiblesse de l’étage d’alimentation (non pas qu’il soit de mauvaise qualité, mais plutôt un cran en dessous de ce que propose la concurrence). La tension appliquée au contrôleur est, elle, assez farfelue : selon le BIOS, elle était soit trop haute, soit trop basse par rapport à la valeur demandée. Mais cela prouve que Gigabyte fait des efforts à ce sujet, nul doute qu’il sera bientôt réglé. Bien que réalisée avec une Gigabyte P55-UD6, cette validation à 1 729 MHz pour la RAM montre bien la capacité de Gigabyte à monter en fréquence.

Le MIT (Motherboard Intelligent Tweaking) est le menu contenant toutes les options d’overclocking. Il est dommage que les options soient réparties sur plusieurs pages, ce qui oblige sans cesse à naviguer de l’une à l’autre.

Hardware Magazine

I 31


Dossier

MSI P55-GD65 150 euros des utilisateurs qui placent la carte dans leur boîtier. Notez que si vous souhaitez avoir le support de l’USB 3.0 et du SATA 6 GB/s, c’est vers la GD-85 qu’il faudra vous tourner, en test dans ce même numéro, et proposant la même solution qu’Asus.

Un BIOS plutôt agréable

M

SI, qui a eu beaucoup de mal à produire des cartes mères de qualité en socket 775, revient sur le devant de la scène avec un P55 très séduisant. Premier changement radical, le look des cartes, qui adopte un thème noir et bleu, comme les concurrents du reste. Bien que ce soit peu utile, une carte sexy est tout de même plus rassurante qu’une autre qui semble utiliser les restes. Les constructeurs l’ont très bien compris. Le layout est très correct même en configuration CrossFire/SLI avec des cartes double slot, il restera tout de même un PCI et un PCIe 1x. Le panneau arrière est bien fourni, au niveau des standards de la gamme. Le seul reproche que l’on

32

I Hardware Magazine

aurait à faire concerne l’absence de bouton Reset, et plus grave, de Clear CMOS. Il faudra alors enlever la pile, c’est un peu gênant, mais cela ne concerne pas la majorité

Ici, les points de mesure aident à mesurer facilement les tensions importantes. Dommage que des manchons ne soient pas livrés pour faciliter la prise de mesure.

La GD65, bien qu’orientée milieu de gamme, intègre pourtant tous les raffinements possibles pour les amateurs d’overclocking. Exclusivité à cette gamme et aux cartes P55 en général, elle propose des boutons permettant d’ajuster le BCLK à la volée. C’est très fiable et très efficace, on adore ! De plus, on a droit à des points de mesure pour la tension. Fini les hésitations entre la tension paramétrée dans le BIOS, celle indiquée par CPU-Z qui diffère de celle d’Everest, etc. On est désormais bien certain de ce qu’on applique. Cette option ne se retrouve d’ailleurs que sur les eVGA, plus chères. Le BIOS offre bon nombre de réglages très fins, comme par exemple le réglage des timings pour chaque canal de RAM. C’est tout à fait inutile au quotidien mais peut néanmoins améliorer la stabilité lorsque l’on mélange deux


kits de mémoire fondamentalement différents. A ce propos, les premiers BIOS MSI utilisaient des valeurs farfelues de B2B, mais depuis le BIOS 1.4 (28 septembre 2009), le problème est résolu, corrigeant ainsi la bande passante mémoire parfois constatée. Cependant, vérifiez bien qu’il est à 0 dans la page des timings RAM (Advanced DRAM Settings). Si vous êtes un débutant, vous serez content d’apprendre que l’OC Genie, qui permet d’overclocker votre machine en appuyant sur un simple bouton mais sans rien faire d’autre, a été amélioré. Cette option est, en fait, un raccourci vers des profils préenregistrés comme le fait Asus. Le gros problème se situait auparavant sur les tensions vraiment trop farfelues un peu partout. Sans être du niveau d’un overclocking manuel, on se retrouve désormais avec des réglages qui n’abîmeront pas les composants. Et puis, un processeur à 3,55 GHz et de la mémoire à près de 1 000 MHz, le tout basé sur un BCLK de quasiment 200 MHz, c’est plutôt flatteur quand on n’a rien à faire. D’ailleurs, si vous ne

savez pas par où commencer, utiliser ce profil, puis baisser petit à petit les tensions en vérifiant la stabilité est une très bonne base.

High Voltage ! Attention tout de même avec les tensions. Le Vdroop Control en mode Low compense la chute de tension en charge, mais il est un peu trop optimiste, de sorte qu’avec 1,2 V dans le BIOS, il n’est pas rare de voir 1,32 V en charge. A l’inverse, si vous le mettez en High Vdroop, vous serez très proche de la valeur choisie, malgré les errements de CPU-Z. C’est assez perturbant, il faut le reconnaître. Néanmoins, il suffit de le prendre en compte au moment de valider les réglages du BIOS. Nous vous conseillons donc d’utiliser le mode High Vdroop uniquement, mais gardez en tête que seul le voltmètre vous donnera une tension juste, aucun des logiciels que nous avons essayés n’était fiable. Nous avons aussi constaté que la GD65 requiert quelques mV de plus que les autres pour stabiliser votre

configuration, en l’occurrence 0,03 V de plus pour le VTT (tension du contrôleur mémoire) pour être stable à 200 MHz de BCLK. En échange, elle semble supporter un petit peu mieux la fréquence mémoire en dessous des 1 200 MHz (DDR-2400) en étant un peu plus permissive. Au-delà, nous avons pu constater une limite qui était due à la carte mère en ellemême lors d’une séance d’overclocking à l’azote. MSI travaille dessus actuellement, mais ça ne concerne que très peu d’usages, n’en faisant peut-être pas une priorité, mais le comportement en overclocking est un juste compromis selon nous, entre efficacité et montée en fréquence. En outre, la carte semble assez sensible au VPLL, qui est pour rappel la tension délivrée au générateur de fréquence. Le réglage sera spécifique à votre carte, mais sachez que cela permet d’aller légèrement plus loin en BCLK lorsque le VTT n’aide plus. Les quatre autres tensions, les DDR VREF, ne servent pas dans un usage courant, laissez-les en auto.

L’étage d’alimentation de la GD65 n’est certes pas aussi impressionnant que le haut de gamme des concurrents mais il est parfaitement apte à tenir la charge sur un processeur bien overclocké, et ce durant des heures durant. Pas de craintes a avoir de ce coté la, meme avec 1.5v nous n’avons pas eu de problème.

Hardware Magazine

I 33


Dossier

Foire Aux Questions

Surveillez bien ce réglage. Jusqu’à 5, il y a une légere perte de performances, qui reste supportable au quotidien, mais au dela cela peut vraiment gèver la bande passante, rendant votre système lourd et lent. De toutes facons, nul besoin de le modifier pour un usage quotidien.

Le B2B, qu’est-ce que c’est ? A quoi cela va-t-il me servir ?

L

e B2B, ou Back To Back Cas Delay, nous vous en parlons depuis l’arrivée du P55 (bien qu’il existe dans les BIOS depuis le X58). C’est un timing mémoire extrêmement important. Il peut varier de 0 à 31, et comme tout timing mémoire, le maximum de performances est atteint pour une valeur proche de zéro, alors que la fréquence maximale sera atteinte en se rapprochant de la valeur maximale. Mais faites bien attention, car en le relâchant, la bande passante mémoire diminue très vite, de sorte qu’elle devient alors une bride considérable pour le système puisqu’on atteint à peine les performances de l’ancienne SDR-RAM ! Ce réglage doit donc rester à zéro pour une utilisation quotidienne, et si vous constatez une perte de performances après un gros overclocking du BCLK, ce sera le premier paramètre à vérifier. A réserver aux chasseurs de fréquences uniquement donc.

Comment atteindre plus de 200 MHz de BCLK ? Pour atteindre des valeurs élevées de BCLK, il faudra suivre les méthodes d’overclocking classiques, à savoir baisser les coefficients CPU et RAM afin d’être sûr que ce ne sont pas ces derniers qui limitent la montée

34

I Hardware Magazine

en fréquence, mais aussi trouver les bonnes tensions. La première à modifier est la tension du contrôleur mémoire, appelée VQPI, VTT ou IMC Voltage selon les cas, mais il vaut mieux ne pas trop faire le fou avec et nous vous conseillons de ne pas dépasser 1,4 V pour une utilisation quotidienne. D’autres tensions, comme celle du PCH ou du PCI-E,

peuvent aider un petit peu, mais c’est surtout lorsqu’on arrive au bout du bout. Et justement, vous vous apercevrez vite que dépasser les 210 MHz de façon stable sera extrêmement compliqué. La faute au processeur dans 99 % des cas. En effet, en utilisant un refroidissement un peu plus efficace à base d’azote, on frôle très rapidement les 250 MHz et ce, sans forcément avoir recours au B2B (voir plus haut). Alors, bien que les trois cartes mères ici testées et toutes celles que nous avons eues entre les mains jusqu’à présent n’aient pas de mal à franchir ce cap des 200 MHz en aircooling, passer en extrême cooling permet de mettre en exergue des différences fondamentales sur les cartes, et aussi d’expliquer certains faits.

Comment mesurer une tension ? Pour mesurer une tension, quelle qu’elle soit, il y a deux méthodes. On peut tout d’abord passer par un logiciel, comme ceux qui sont livrés sur le CD de drivers de la carte


mère, ou d’autres comme Everest ou Hardware Monitor. Néanmoins, il y a souvent des différences entre tous ces logiciels et on ne sait plus lequel croire. Si ce n’est pas primordial pour un bon nombre d’utilisateurs, certains plus exigeants auront besoin de données fiables. C’est pourquoi il faut alors passer à la méthode hardware. Il va falloir trouver un multimètre et mesurer la tension que vous désirez à même la carte. A part les cartes MSI et eVGA qui ont des points de mesure clairement identifiés sur le bord du PCB, les autres n’ont rien, il faudra donc faire les mesures au dos de la carte, lorsque celle-ci n’est pas encore montée dans le boîtier. La mesure s’effectue aux bornes d’une bobine, lorsque la carte est en fonctionnement. Il faut donc repérer celles qui correspondent à la tension que vous voulez mesurer. Celles qui sont autour du socket se chargent de la tension du CPU et du contrôleur mémoire (celles-ci sont généralement en nombre plus réduit, et un peu différenciées de celles dédiées à la tension processeur), celles près des slots DIMM se chargent de la tension de la RAM. De cette façon, vous serrez fixé sur la vraie tension et vous serez parfois étonné de voir à quel point les logiciels propriétaires se méprennent.

Le CrossFire en 8/8, cela va-t-il brider les performances de mes cartes ? A l’heure actuelle, utiliser un système biGPU avec des ports PCIExpress câblés en 8/8 n’est pas

un réel problème. Certes, il y a une légère différence mais qui n’excède pas 2 à 4 % (voir notre dossier sur le PCI-Express dans Hardware Magazine n° 43) avec les cartes du moment. Nous avons vérifié ces valeurs avec un CrossFire de 5870 et les chiffres confirment que la solution est totalement viable et comparable d’une carte mère à l’autre. Mais ne vous méprenez pas, les cartes P55 qui ont 3 slots PCI-Express peuvent être des cartes milieu de gamme comme la P7P55D Pro, où le troisième slot est câblé en 4x via le PCH (southbridge). Dans ce cas, il s’agit d’un PCI-Express 2.0 2x, ce qui est bien trop peu pour laisser la carte s’exprimer, avec une baisse de 30 à 50 % ! Il existe aussi des cartes P55 plus haut de gamme embarquant un NF200, mais là encore, on ne dispose que de 16 lignes réparties de façon un peu plus souple (voir notre dossier sur les nouveautés P55 dans ce même numéro).

Quelles tensions ne pas dépasser ? Lors d’une séance d’overclocking, il existe deux cas de figure. Soit les fréquences montent petit à petit et on est toujours tenté d’augmenter un peu la tension quelque part

Malgré seulement 16 lignes PCI-Express, un système bi-GPU se comporte très bien sur une plateforme P55. Aucune bride vraiment handicapante a signaler.

pour pouvoir aller plus loin, soit rien ne marche, on s’énerve, et on se prend à se demander ce qu’il se passerait si on mettait plus de tension par ci ou par là. Dans tous les cas, méfiance, la tension peut dégrader ou carrément griller vos composants. Pour aider les débutants, les BIOS utilisent un code couleur, de sorte que lorsque les tensions sont jugées trop élevées, elles sont en rouge dans le BIOS. Mais cette option dépend de chaque constructeur. Par exemple, chez Asus, la tension RAM passe en rouge dès 1,6375 V, alors qu’il s’agit là d’une tension sans crainte. A 1,7 V, on est en rouge vif, alors que c’est utilisable au quotidien. Il faudra donc se méfier. Les trois tensions principales pour l’overclocking concernent le Vcore, le VTT/VQPI (tension appliquée au contrôleur mémoire) et le VDIMM (tension appliquée à la mémoire). Les autres tensions (PLL, PCH, PCIE etc.) ne servent que si vous atteignez les limites des composants, ce qui n’arrivera probablement jamais en aircooling. Mais si vous êtes un peu perdu, ou que vous voulez tout régler par vous-même, nous avons réalisé un tableau pour vous aider. Par défaut

Afin de connaître la tension délivrée à un composant, il faut la mesurer aux bornes des bobines de l’étage d’alimentation correspondant.

Sans risque

A ne pas dépasser au quotidien

Vcore (processeur)

1,1-1,25

1,35

1,45

VDIMM (mémoire)

1,5

1,65

1,75

VTT/VQPI (contrôleur mémoire)

1,1

1,4

1,5

VPLL (générateur de fréquence)

1,8

1,9

1,9

1,05

1,15

1,25

VPCH (southbridge)

Hardware Magazine

I 35


Dossier

Cartes 3D, cartes mères,

W7, HDD et SSD

Maximum

Perfs 36

I Hardware Magazine

Astuces, réglages, tweaking


s,

D

m

Optimisation (définition) : obtenir le rendement optimal de votre PC, en tirer le maximum de performances, pour pas un rond ! Thomas Olivaux Quand on est fan de PC, difficile de se contenter d’une installation de base. Même si Seven atténue le besoin d’optimisation, comment se passer du plaisir d’améliorer nos machines, s’approprier les réglages et gratter encore un peu de rapidité. Voici nos conseils d’expert pour exploiter à fond votre PC !

O

ptimiser, c’est prendre le temps d’améliorer et d’obtenir le meilleur de son matériel. En tant que fans de hardware, nous sommes tous des fans de l’optimisation, souhaitant exploiter au maximum nos composants. D’ailleurs, si nous préférons assembler nos machines en choisissant séparément chaque élément plutôt que de se contenter de PC non upgradables ou bidouillables, ça n’est pas pour rien. Et d’un point de vue logiciel, qui peut se contenter d’un système installé par défaut, sans rien toucher ? Personne, à part peut-être votre tante qui débute l’informatique et ne cesse de vous appeler à la rescousse. Les optimisations de base, comme le fait de toujours mettre à jour les pilotes, nous les connaissons tous. Mais que peut-on bien faire de plus pour améliorer les performances ? Tout un tas de choses justement, comme ajuster l’espace disque et installer les applications à l’endroit le plus rapide de votre disque dur ou utiliser RivaTuner pour désynchroniser les shaders de votre nVidia ! La majorité des astuces que nous allons vous dévoiler ne transfigurent certes pas autant une

machine qu’une upgrade hardware notamment. Mais elles peuvent faire la différence entre un PC qui rame un peu et un PC «suffisant» et pour les possesseurs de grosses machines, c’est tout simplement une question d’honneur que d’en tirer la quintessence, voire de la faire fumer un peu ! Ces optimisations sont nombreuses et, mises bout à bout, il y a beaucoup à gagner ! Ce dossier s’articule autour de quatre parties principales que sont les tweaks spécial stockage, spécial cartes graphiques, spécial cartes mères et spécial Windows 7. A chaque fois, nous partirons de tout en bas, c’est-à-dire du hardware pur et dur avec des réglages de BIOS et des modifications de firmwares pour progressivement atteindre la couche logicielle et parler d’optimisations finales sous Windows.

les gains de performances peuvent atteindre plusieurs dizaines de pourcent ! Le sujet est vaste et nous y avons consacré de nombreuses pages, notamment dans PC Update n°44. Nous vous invitons à les lire pour overclocker à fond votre PC, mais pour les rares qui ne seraient pas encore convertis à la discipline, nous parlerons ici de méthodes douces, abordables même par le plus prudent des néophytes. Enfin, comment oublier, les cartes graphiques à régler et overclocker elles aussi !

Nous avons juste fait un rappel concernant la RAM, notre récent dossier publié dans PC Update n°42 en faisant déjà le tour. Quant à l’overclocking CPU, c’est bien sur assimilable à une optimisation. C’est même celle qui offre les meilleurs résultats, puisque

Hardware Magazine

I 37


Dossier

La carte graphique BIOS

Modifications et flashage Le flash du BIOS de sa carte graphique ne sonne pas comme une évidence, comparé à celui de la carte mère. Pourtant, outre la résolution de bugs, il est intéressant de s’y pencher pour modifier le comportement de votre carte et, pourquoi pas, gagner des performances. Il est, par exemple, possible de modifier les fréquences par défaut (overclocking « en dur ») ou d’influer sur le comportement du ventilateur. Pour commencer, sauvegardez le BIOS actuel à l’aide de l’outil GPU-Z ; donnez-lui un nom de type DOS (8 caractères au maximum). Pour éditer le Radeon Bios Editor permet d’éditer sous Windows le BIOS de votre carte graphique ATi. BIOS, vous aurez besoin de RBE (Radeon Bios Editor, www.techpowerup.com/rbe) pour une carte ATi et Nibitor (nVidia Bios Editor, www.mvktech.net) pour nVidia. Par prudence, ne touchez absolument aucun réglage que vous ne maîtrisez pas, il en va de la survie de votre carte graphique. Notez qu’il est parfois possible de spécifier des fréquences différentes en 2D et en 3D, permettant de sérieuses économies de température et consommation lorsque vous ne jouez pas.

Nibitor est le meilleur logiciel pour modifier sous Windows le BIOS d’une carte nVidia.

38

I Hardware Magazine

Pour flasher votre BIOS modifié, vous devez posséder une clé USB bootable en environnement DOS. L’utilitaire pour ATi s’appelle atiflash.exe (facile à trouver sur divers sites grâce à Google). Lancez-le sans paramètres pour lister les cartes de votre système. Elle(s) est (sont) identifiée(s) grâce à un numéro. Pour flasher, tapez sans les guillemets « atiflash –p 0 bios » où 0 est le numéro de votre carte et bios le nom de votre fichier BIOS sans extension. La procédure est assez proche pour nVidia, il faut utiliser nvflash.exe et taper tout simplement « nvflash bios.bin ».


Overclocking

Par les drivers

RivaTuner

Un outil indispensable

Si vous êtes un peu frileux à l’idée de modifier le BIOS de votre carte graphique, ou tout simplement pour faire des essais, l’overclocking par les drivers est tout à fait satisfaisant. Pour ATi, il n’y a rien de spécial à faire, toutes les versions récentes du Catalyst Control Center intègrent un onglet dédié à l’overclocking avec un réglage distinct du GPU et de la mémoire. Pour nVidia, pareil onglet existe, mais il faut passer par une bidouille du registre pour y avoir accès. Du coup, c’est aussi simple de télécharger RivaTuner, dont nous parlons longuement dans les blocs qui suivent, et qui permet d’overclocker très facilement.

RivaTuner est la référence en matière d’optimisation des cartes graphiques depuis déjà des années. Pendant longtemps, seules les GeForce étaient supportées, et il fallait se rabattre sur ATITool pour les cartes rouges. Désormais, les deux familles sont supportées, depuis les HD3000 chez ATi et depuis les TNT2 chez nVidia. L’aspect simple de RivaTuner consiste à modifier les fréquences de votre carte graphique, ainsi que la gestion du ventilateur et de divers profils pouvant se lancer dès le démarrage du système. Selon que vous avez une carte ATi ou nVidia, l’interface change légèrement, mais les fonctions générales restent les mêmes. Dans le premier cas, pour accéder au menu d’overclocking, il faudra cliquer sur le bouton System Settings du second menu déroulant, de la partie Target Adapter. En revanche, pour les cartes du Caméléon, ce bouton se situe dans la partie Drivers Settings. Si vous n’avez pas accès au menu, il est probable que vos drivers soient trop récents. Il est alors nécessaire d’indiquer manuellement à RivaTuner de quelle version il s’agit. Allez dans l’onglet Power User et, dans la ligne RivaTuner\XXX\ ForceDriverVersion, modifiez la valeur en utilisant la version de vos drivers, sans ponctuation. Par exemple, pour 195.62, entrez 19562. Une fois que vous avez accédé à la fenêtre d’overclocking, il faut cocher la case Enable driver-level hardware overclocking afin de débloquer les options. Si vous avez une nVidia, vous pourrez modifier les fréquences 3D mais aussi celles en 2D, c’est-à-dire lorsque la carte n’est pas utilisée, en choisissant le mode adéquat dans le menu déroulant, en haut à droite. Notez aussi la case Link Clocks qui permet, si vous la décochez, de désynchroniser les shaders du GPU (voir le bloc dédié aux shaders). Afin de modifier la gestion du ventilateur, allez dans l’onglet Fan si vous avez une carte ATi ou cliquez sur l’icône dans le 2e menu déroulant Target Adapter.

Procédez par étapes, augmentez soit le GPU soit la mémoire, par pas de 50 MHz au début, puis affinez de 10 en 10 lorsque vous approchez de la limite de votre carte. Il est facile de découvrir celle-ci en exécutant un bench type 3DMark entre chaque augmentation de fréquence. Dès que vous apercevez des défauts d’affichage (artefacts) ou que l’affichage plante, revenez quelque peu en arrière. Les gains dans les jeux sont mesurables (jusqu’à 15% sur une HD4890), n’hésitez pas à passer quelques heures sur le sujet !

Si vous désirez garder un oeil sur l’état de votre carte graphique, dans le même menu déroulant que System Settings, se trouve une icône nommée Monitoring. Toutes les informations essentielles sont présentes. Mais en cliquant sur Setup, vous pourrez paramétrer un peu mieux cette fenêtre. De plus, vous aurez tout le loisir d’ajouter de nouvelles options en cliquant sur Plugins, comme par exemple le monitoring de la mémoire vidéo (VidMem.dll) ou de la tension du GPU (VT1103.dll), mais toutes les cartes ne sont pas compatibles.

Alors que nVidia requiert une bidouille pour autoriser l’overclocking via les pilotes, le Catalyst Control Center d’ATi est plus ouvert.

Hardware Magazine

I 39


Dossier

RivaTuner

Tweaking avancé Mais RivaTuner, ce n’est pas simplement un logiciel d’overclocking. Il s’agit d’une interface permettant de modifier nombre de paramètres présents dans le code des drivers. Aussi, il est possible de forcer l’activation ou la désactivation de la synchronisation verticale, quand le jeu ne le propose pas, en passant par l’onglet Power User. Il est aussi possible de modifier le LOD, c’est-à-dire le Level of Details, qui permet d’avoir plus de détails chargés en mémoire pour des graphismes plus réussis, à condition que la mémoire le permette, ou l’effet inverse, recherché par tant d’overclockers. Pour cela, il faut cliquer sur l’icône à côté de System Settings dans le menu déroulant Drivers Settings. Faites alors glisser le curseur comme vous le souhaitez, en gardant en tête qu’un LOD négatif implique plus de détails. Afin de donner plus d’amplitude au LOD, il est possible de repousser les limites en modifiant la valeur dans RivaTuner\NVIDIA\Global\LODBiasRange, dans l’onglet Power User, mais un LOD de -3 est déjà largement suffisant. Si vous avez une carte ATi, il est fort probable que cette astuce ne fonctionne pas, auquel cas il faudra télécharger Set LOD afin de pouvoir régler ce paramètre. Si vous avez un système à plusieurs GPU (carte biGPU ou multicarte), il peut être utile de synchroniser les fréquences de toutes les cartes. Pour ce faire, modifiez la valeur de la ligne Overclocking\XXX\EnableCloneClocking (1 = synchronisation des fréquences).

Overclocking

Désynchronisation des shaders (nVidia) Chez nVidia, en plus des fréquences classiques du GPU et de la RAM, une autre est modifiable, celle des shaders. Ceux-ci sont en fait les processeurs de filtrage, pour vulgariser à l’extrême, et sont donc très sollicités lorsque l’on active l’antialiasing sur des grosses résolutions. Chez ATi, ils sont fixés à la même fréquence que le processeur graphique, raison pour laquelle leur vitesse ne figure nulle part, même pas dans la case Shaders de GPU-Z. Chez nVidia, en revanche, leur fréquence est proportionnelle à celle du GPU. Le ratio dépend de la famille de votre carte, mais il varie entre 2 et 2,5, de sorte que pour une GTX260 dont le core fonctionne à 576 MHz, les shaders tournent à 1 242 MHz. Lorsque vous augmentez la fréquence du GPU, celle des shaders augmente donc en même temps. Mais il est possible de les désynchroniser et ainsi de les monter séparément. En général, les shaders sont l’élément limitant d’un overclocking en air, si bien que les désynchroniser à la baisse par rapport au GPU permet de monter ce dernier un peu plus haut. Mais il faut être prudent, car une trop grande désynchronisation peut faire planter la carte. Cette limite dépend de la famille mais aussi de la carte en elle-même, chaque puce se comportant différemment en overclocking. Sur certaines cartes, il arrive que ce soit l’effet inverse, le GPU plantant avant les shaders, auquel cas on peut continuer d’augmenter les shaders sans toucher au GPU, mais le gain de performances est assez minime. Enfin, notez que les cartes nVidia ont des paliers de fréquence, contrairement aux cartes ATi. Ces paliers sont de l’ordre de 5-15 MHz sur le GPU et 40-50 MHz sur les shaders. Ainsi, partant d’une 9600GT cadencée d’origine à 650 MHz, vous ne pourrez pas avoir une fréquence de 651 ou 652 MHz, même si c’est la valeur que vous avez entrée. Vous serez soit à 650 MHz, soit à 657 MHz, les paliers suivants. Pour connaître cette information, vous devrez utiliser un logiciel de monitoring en temps réel comme RivaTuner, GPU-Z se contentant de renvoyer la valeur de commande, c’est-à-dire celle que vous avez entrée, bien qu’elle ne soit pas scrupuleusement appliquée.

40

I Hardware Magazine

Vous pouvez jouer sur le Level of Details avec une carte nVidia grâce à RivaTuner. Pour ATi, téléchargez Set LOD.


Monitoring

Le tour des softs de constructeurs 1 – Asus Smart Doctor Smart Doctor est un logiciel très simple qui permet de modifier la fréquence et la gestion du ventilateur des cartes du constructeur. Il est, par ailleurs, presque obligatoire sur certaines cartes afin de faire taire le ventilateur. En effet, sans ce programme, le ventilateur tourne à fond, et fait donc vraiment trop de bruit. Il permet aussi de monitorer la fréquence du GPU et la vitesse de rotation du ventilateur. Une variante plus complète avec gestion de profils et baptisée iTracker est livrée avec les cartes Matrix de la série Republic of Gamers.

2- eVGA Precision Precision est basé sur RivaTuner et en reprend les fonctions essentielles. Des profils qui peuvent être appliqués au démarrage du système, le réglage et le monitoring des fréquences et du ventilateur, et bien d’autres options accessibles via des plugins. Seule l’interface change donc, tout ce qui se fait sur RivaTuner est faisable ici. Couplé au logiciel eVGA GPU Voltage Tuner, qui permet de modifier les tensions des cartes eVGA compatibles, tout est faisable et de façon très simple, par le biais de curseurs. Notez qu’il existe un patch afin de pouvoir utiliser eVGA GPU Voltage Tuner sur des cartes d’autres marques, mais que Precision ne se limite pas seulement aux cartes eVGA.

3 - Gainward Expert Tool Expert Tool existe en deux versions distinctes, l’une pour cartes ATi, l’autre pour nVidia. Le logiciel n’est pas limité aux seules cartes Gainward, mais reste toutefois assez basique, à la manière de Smart Doctor : modification des fréquences et du ventilateur, profils d’overclocking mais rien de plus. Sa réputation a été bâtie du temps des HD4800 où il était un des rares logiciels à pouvoir les overclocker correctement et à pouvoir gérer le ventilateur.

4 - MSI Afterburner Afterburner est le dernier logiciel à être sorti, et sans doute le plus abouti. Basé sur RivaTuner, il permet, dans la même fenêtre de modifier les fréquences, la tension du GPU et la vitesse de rotation du ventilateur. Un monitoring est aussi présent, qui peut être paramétré de la même façon que celui de RivaTuner, ainsi que des profils. Ce logiciel fonctionne à merveille sur les récentes HD5000. En revanche, le réglage de la tension est limité aux cartes de la marque, aucun patch n’existant pour le moment. Mais rien ne vous empêche de flasher le BIOS de votre carte graphique pour contourner cette bride.

5 - XFX Overvolt Tool Basé sur le logiciel ATi Overvolt Tool, mais avec une interface plus soignée, il permet de modifier la tension des HD5970. De cette façon, on peut atteindre les fréquences de fonctionnement d’une 5870 sur les deux GPU. Malheureusement, cela requiert d’être enregistré et d’avoir une 5970 de marque XFX, alors qu’ATi a retiré son propre logiciel. Un usage extrêmement limité donc.

La carte mère Refroidissement chipset

Remplacer la pâte thermique et optimiser le flux d’air Que ça soit pour gagner quelques précieux mégahertz en overclocking ou par simple amour des choses bien faites, nous vous conseillons de jeter un oeil au refroidissement d’origine du chipset de votre carte mère. Globalement, les systèmes de refroidissement sont bons et il devient rarement utile d’investir dans un radiateur alternatif, comme nous le faisions il y a quelques années. En revanche, la production industrielle à grande échelle étant loin d’égaler la perfection humaine, il n’est pas rare de voir des refroidissements avec un mauvais contact (parfois aucun contact !) entre les composants à refroidir et le radiateur qui est censé jouer ce rôle. Et quoi qu’il arrive, la majorité des constructeurs de cartes mères continuent de privilégier le pad thermique plutôt qu’une bonne pâte, plus efficace. Démontez donc votre système de refroidissement, à l’aide d’un petit tournevis ou d’une pince suivant le type de fixation. Faites attention, si ça colle, à ne pas tordre les caloducs en tirant. Observez le contact d’origine, grattez bien le pad d’usine (il faut généralement s’armer d’une lame de cutter et de patience) et une fois que tout est propre, côté chipset et côté radiateur, mettez une goutte de pâte thermique neuve (qui s’étalera d’elle-même par écrasement). Si jamais votre refroidissement d’origine n’est pas efficace, vous pouvez gagner quelques dizaines de mégahertz de bus, surtout sur la plateforme 775 pour Core 2. Précisons que le northbridge et les mosfets en charge de l’alimentation du CPU sont des composants qui chauffent beaucoup et réclament un refroidissement. Le southbridge, quant à lui, se contente de peu ; le chipset P55 des PC socket 1156 est assimilable à un southbridge et n’a pas beaucoup à gagner de cette astuce.

Hardware Magazine

I 41


1&1 Hébergement

VOTRE SUCC È Avec les

”Mon site Web est un annuaire du tourisme authentique en Ardèche répertoriant les campings, gîtes, hôtels, restaurants, chambres d‘hôtes, etc. A la recherche d‘un prestataire fiable pour l‘hébergement de mon site Web, je me suis tourné vers 1&1 pour le rapport qualité/prix et je n‘ai pas été déçu. Avec une possibilité d‘évolution facile et une interface intuitive, 1&1 est idéal que l‘on soit novice ou expérimenté.“ Mathieu Lauziard, www.ardeche-naturelle.com

Offre spéciale domaines :

votre .fr à 3,99 € HT/an (4,77 € TTC/an)* !

Consultez toutes nos offres du moment sur notre site Internet ! *Offre « 6 mois gratuits » soumise à un engagement de 12 mois et à des frais de mise en service de 11,95 € TTC ; à l’issue des 6 premiers mois, les produits présentés ci-dessus sont aux prix habituels (le Pack Pro Standard à 11,95 € TTC/mois et l‘e-Boutique M à 23,91 € TTC/mois). Offre spéciale domaines applicable la première année uniquement au lieu du prix habituel de 6,99 € HT/an (8,36 € TTC/an). Conditions détaillées sur www.1and1.fr. Offres sans engagement également disponibles.

0825 080 020 (0,15 € TTC/min) 0970 808 911 Appel non surtaxé

N° Indigo

FR102020100065_Busin_Cla_420x287_KB_28L.indd 1

12.01.2010 14:50:41 Uhr

o


C ÈS EN LIGNE

es

outils 1&1, rendez votre site Web incontournable ! 1&1 Newsletter Informez vos clients de vos nouveautés

Google AdWords

®

Faites la promotion de votre site sur Google

1&1 WebStat Obtenez le profil détaillé de vos visiteurs

Jusqu‘à 50 € offerts !

1&1 Contenu Dynamique Affichez la météo locale ou d’autres informations

1&1 RSS Présentez des contenus provenant d’autres sites

2 /10 /0 8 2 u ’a u q s ju le b ée vala Offre à durée limit PRO STANDARD K C A P 1 1& : T N E HÉBERGEM Solution professionn

elle pour développe

INCLUS ■ 3 noms de domaine que ■ 10 Go d’espace dis ■ Trafic ILLIMITÉ de site ■ Outils de création ■ 1&1 WebStat ■ 1&1 Newsletter

r vos projets Web

mique ■ 1&1 Contenu Dyna ■ 1&1 RSS ® 50 € offert s : ■ Google AdWords ■ e-Boutique Start s MySQL ■ 20 bases de donnée

0

9,99 €

HT/mois

is ois /mo C/m C 11,95 € TTC

* iers mois pendant les 6 prem

1 E-BOUTIQUE M 1& : E C R E M M O -C E Votre boutique en

ligne sans aucune co

luse ■ Intégration eBay inc nt me nce ére réf ■ Outils de ITÉ IM ■ Trafic ILL signer ■ 1&1 e-Boutique De t sécurisé en iem pa ■ Modes de via Paypal et Paybox

nnaissance techniqu

0

e

19,99 €

HT/mois

is ois /mo C/m C 23,91 € TTC

* iers mois pendant les 6 prem

www.1and1.fr www.1and1.fr FR102020100065_Busin_Cla_420x287_KB_28L.indd 2

12.01.2010 14:51:22 Uhr


Dossier

BIOS

Mise à jour Mettre à jour le BIOS de sa carte mère est un réflexe que nous devrions tous avoir. Sans perdre de vue le risque qu’il y a de voir sa carte mère bloquée en cas de panne de courant durant le flash ou du choix d’un mauvais fichier de BIOS, réalisons à quel point cette opération, qui fut l’apanage des gurus du hardware, est devenue abordable. La mise à jour du BIOS corrige toujours quelques bugs (incompatibilités, instabilités) et, dans les meilleurs cas, apporte de nouvelles fonctionnalités ou de nouveaux réglages. Les nouveaux BIOS permettent également de faire évoluer la carte mère afin qu’elle supporte les processeurs sortis après sa mise sur le marché. Autrefois, pour mettre à jour son BIOS, il fallait créer une disquette de boot MS-DOS et y copier l’utilitaire de flash ainsi que le fichier BIOS. Cette méthode est toujours valable, mais ne doit plus être considérée comme l’ultime recours si les solutions modernes et simples ne sont De plus en plus de cartes mères permettent de mettre à jour le BIOS depuis une clé USB qui n’a pas besoin d’être pas accessibles. Le plus facile et prudent consiste à mettre à jour son BIOS directement bootable, l’utilitaire de mise à jour étant intégré en ROM. depuis Windows. C’est resté un rêve durant de longues années, c’est aujourd’hui une réalité qui concerne 100 % des cartes mères, chaque constructeur proposant son propre logiciel de flashage sous Windows. Pour ne citer que les plus connus, nous avons LiveUpdate chez Asus, LiveUpdate également chez MSI (ce ne sont pas les mêmes logiciels !) ou @BIOS chez Gigabyte. Nous vous invitons à lire la notice de votre carte mère et à vous rendre sur le site Internet du constructeur pour télécharger la dernière version. Aucun de ces programmes ne nécessite d’avoir fait des années d’études pour s’en servir, au contraire, ils simplifient la procédure jusqu’à proposer de télécharger automatiquement le bon BIOS, après avoir détecté votre carte mère. Autre méthode de plus en plus courante et bien pratique, la mise à jour du BIOS… depuis le BIOS ! Asus propose cette option depuis des années, rejoint depuis par la majorité des constructeurs, l’utilitaire de BIOS semblable à la version DOS des vieilles disquettes est désormais présent en ROM et peut être lancé sans disquette ou clé USB bootables. Mieux encore, si vous branchez une clé USB contenant le BIOS avant d’allumer la machine, celle-ci sera détectée et vous pourrez donc flasher via le fichier contenu sur la clé USB. Pratique pour les machines en pleine installation/réinstallation sur lesquelles il n’y a pas encore de système d’exploitation. C’est une technique très utile pour les testeurs et autres overclockers. Il faudra bien sûr que vous ayez, au préalable, récupéré le bon BIOS pour votre carte mère, sur Internet et depuis un autre ordinateur. Note : si jamais vous ne voyez pas votre clé USB ou vos partitions de disque dur depuis l’utilitaire de flashage, c’est très certainement à cause du formatage en NTFS. A part les versions les plus récentes, ces utilitaires ne connaissent le plus souvent que FAT et FAT32.

Monitoring et overclocking faciles

Le tour des softs de constructeurs 1 – Asus AI Suite AI Suite est un programme assez complet et parfois lourdingue d’Asus, qui fonctionne sur toutes les cartes mères de ces dernières années. Servant à la fois pour contrôler que tout va bien (températures, tensions), il permet aussi d’ajuster de nombreux paramètres et notamment d’overclocker très facilement, à la main ou à l’aide de profils adaptés aux débutants. AI Suite permet également de contrôler la vitesse des ventilateurs.

2 - Asus PC Probe II Parmi les plus anciens programmes de la marque, PC Probe est toujours d’actualité. Il s’agit d’un outil de monitoring et d’alerte paramétrable, relativement austère.

3 - Asus TurboV Dernier-né du constructeur, TurboV est le nouvel outil d’overclocking sous Windows d’Asus. Assez simple à prendre en main, il offre les mêmes possibilités qu’AI Suite, en étant plus léger. Les cartes mères équipées de la télécommande TurboV en profitent d’autant plus qu’il autorise toutes sortes d’ajustements, y compris durant vos sessions de bench ou de jeu.

4 - Biostar Toverclocker Utility L’outil d’overclocking de Biostar fonctionne à la manière d’AI Suite, permettant d’accélérer son processeur manuellement ou grâce à des

44

I Hardware Magazine

profils prédéfinis. Vous pourrez également ajuster la vitesse des ventilateurs séparément.

5 - Gigabyte EasyTune 6 EasyTune 6 de Gigabyte est probablement notre outil préféré. Laissant tomber les looks extravagants de ses concurrents (mais aussi de ses aînés), il fait place à l’essentiel. Une partie purement informative ressemble beaucoup à ce que propose CPU-Z, une autre dédiée aux réglages permet d’ajuster une à une toutes les fréquences et la tension, c’est très au point.


Monitoring

Les meilleurs logiciels indépendants 1 – CPUID CPU-Z Faut-il encore présenter CPU-Z ? Cette pépite est un freeware qui affiche un maximum d’informations sur votre processeur, votre carte mère et la mémoire. Les versions modernes ajoutent même quelques données à propos de la carte graphique et de l’installation Windows/DirectX. Son exactitude en matière de fréquences et de tensions, ainsi que ses mises à jour permanentes en ont fait une référence mondiale.

2 - CPUID HWMonitor HWMonitor est un outil de monitoring pur et dur qui interroge la majorité des sondes concernant les tensions, les températures ou les vitesses des ventilateurs. Une sorte de remplaçant du regretté Motherboard Monitor. Précisons que HWMonitor pousse le détail à indiquer la température des disques durs ou la capacité des batteries d’un portable.

3 - CPUID TMonitor Magique et indispensable pour tout utilisateur de Core i3/i5/i7, TMonitor permet de visualiser en temps réel la fréquence de chacun des cores du CPU, avec pour particularité d’indiquer d’une autre couleur les gains offerts par le Turbo Mode. Chaque petite case correspond à un « bin » (coefficient) supplémentaire, vous pourrez donc constater si le Turbo Mode est actif ou non à un moment donné et son comportement en fonction du nombre de cores utilisés. Mieux encore, il permet de loguer les données pour les analyser après coup. La toute nouvelle version supporte dorénavant les AMD K10, c’est-àdire les Phenom et dérivés.

4 - Lavalys Everest Ultimate Everest est un outil de monitoring et de diagnostic très complet et apprécié. Capable de fournir autant de détails sur votre configuration que l’ensemble des logiciels CPU-ID réunis et plus encore, il se révèle aussi un peu plus lourd à utiliser (installation requise, occupe plus de mémoire) et la version d’évaluation ne fonctionne que 30 jours. C’est un concurrent direct de Sisoftware Sandra.

5 - Sisoftware Sandra Autre ténor présent depuis des années sur le marché du monitoring et du diagnostic, Sandra est incontournable. Directement concurrencé par Everest Ultimate, Sandra existe en version Lite gratuite, une version pourtant suffisante. Les moutures payantes sont essentiellement adressées aux administrateurs qui souhaitent, en entreprises, avoir un aperçu à distance de l’état de tout leur parc.

6 - TechPowerUp GPU-Z Génial, GPU-Z est, comme son nom le laisse supposer, le pendant cartes graphiques de CPU-Z. Ils n’ont pas les mêmes auteurs, mais sachez pour l’anecdote que l’équipe derrière GPU-Z a demandé la permission d’utiliser ce nom à l’auteur de CPU-Z, c’est sport. Vous obtiendrez tous les détails à savoir sur votre carte graphique grâce à ce freeware, les fréquences, le nombre d’unités de calcul ainsi qu’un monitoring des températures et de la vitesse des ventilateurs. Vous pourrez même extraire le BIOS de votre carte graphique et l’uploader en quelques clics, de façon à enrichir l’impressionnante base de données de BIOS entretenue par le site www.techpowerup.com.

6 - Gigabyte Smart6 Plus récent, Smart6 regroupe plusieurs micro-applications de Gigabyte, très simples à utiliser. Parmi celles-ci, citons Smart QuickBoost qui permet d’overclocker son PC le plus simplement du monde avec trois gros boutons, vert (Faster), orange (Turbo) et rouge (TwinTurbo). Ça ressemble un peu au fonctionnement de CPU LevelUp d’Asus, sauf que c’est accessible directement sous Windows.

7 - MSI Control Center Control Center est, comme le nouveau Turbo V, un ensemble de fonctions MSI regroupées au sein d’un seul logiciel. En plus des multiples réglages de fréquences, tensions et timings, il est possible de charger/sauver des profils de BIOS sous Windows. Note à propos de l’overclocking : tous ces utilitaires permettent de gagner quelques centaines de mégahertz le plus simplement du monde. C’est pratique pour les débutants, c’est même tentant pour les habitués, tellement c’est facile d’accès. Toutefois, gardez bien en tête que vous n’obtiendrez jamais le meilleur de votre matériel avec ces outils. En général, il est possible d’overclocker bien plus haut en fréquence et surtout, pour assurer une réussite à tous les coups, ces programmes n’hésitent pas à faire grimper la tension plus que nécessaire et engendrent donc une chaleur et une consommation excessives.

Hardware Magazine

I 45


Dossier

Le stockage BIOS

Mettre à jour le BIOS/firmware du contrôleur de stockage Comme tout autre matériel, le contrôleur de stockage est piloté par un firmware. La mise à jour de celui-ci permet de corriger des bugs (par exemple, l’impossibilité de brancher en même temps certaines cartes filles avec les disques durs) et, parfois, d’améliorer les performances. Par principe, nous aimons avoir nos matériels à jour pour être sûr qu’ils soient exploités à fond, nous recommandons du coup la mise à jour de votre (ou vos) contrôleur(s) de stockage. S’il s’agit directement du chipset qui anime la carte mère, le contrôleur de stockage est mis à jour en même temps que le BIOS complet de la carte. C’est généralement le même scénario lorsque vous utilisez un contrôleur tiers, soudé à même la carte mère. Dans le cas où vous utilisez un contrôleur sous la forme d’une carte fille, vous devez alors vous rendre sur le site du constructeur de la carte. S’il est inconnu, comme c’est généralement le cas pour les produits les moins chers, observez alors la puce principale du contrôleur et rendez-vous sur le site du fondeur. Les plus connus sont Adaptec (www.adaptec.fr), HighPoint (www.highpoint-tech.com), Marvell (www.marvell.com) et Realtek (www.realtek.com.tw). Bien que certaines mises à jour soient désormais accessibles depuis Windows, il est parfois requis de s’armer d’une clé USB (ou d’une disquette) bootable afin de démarrer en environnement DOS, pour réaliser ces mises à niveau. Sauf contre-indication, il n’est pas nécessaire de débrancher les disques durs connectés sur les contrôleurs concernés.

BIOS

Passer en AHCI et désactiver les contrôleurs inutilisés Le contrôleur de stockage et le système d’exploitation communiquent entre eux. Pour compléter les protocoles de communication habituels que nous utilisions depuis des années, Intel a développé l’AHCI (Advanced Host Controller Interface). L’AHCI permet, par exemple, d’exploiter des innovations offertes par la norme SATA, comme le NCQ (Native Command Queuing qui améliore les performances) ou le HotPlug (le fait de brancher ou débrancher un disque dur à chaud). AHCI n’est pas une exclusivité des cartes mères à chipset Intel, nous retrouvons ce mode de fonctionnement sur tous les chipsets et contrôleurs de stockage modernes. Pour gagner des performances, il est chaudement recommandé de choisir dans le BIOS le fonctionnement AHCI plutôt qu’IDE/ATA. Attention, Windows Vista et 7 gèrent nativement l’AHCI, mais ce n’est pas le cas de Windows XP. Pour changer le mode de fonctionnement sous XP, il faut soit réinstaller, soit installer manuellement le pilote AHCI du contrôleur sous Windows, puis rebooter et changer le réglage dans le BIOS, sans quoi, vous aurez droit à un écran bleu au démarrage. Les contrôleurs de stockage compatibles RAID, comme les southbridges Intel qui terminent par R (ICH9-R, ICH10-R…), proposent trois modes de fonctionnement : IDE, AHCI, RAID. N’hésitez pas à passer en RAID si vous le souhaitez, l’AHCI sera activé en même temps.

46

I Hardware Magazine

La plupart des contrôleurs de stockage proposent le choix entre un fonctionnement IDE à l’ancienne, un fonctionnement optimisé AHCI ou un mode multidisque RAID.


RAID

Création de grappes en images

Entrez le nom que vous souhaitez pour votre grappe, c’est ce nom-là qui ressortira comme modèle de disque dur dans le BIOS.

Vous le savez, associer plusieurs disques en RAID 0 permet de décupler les performances, associer des disques en RAID 1 maximise la sécurité des données. Pour ce faire, après avoir choisi le mode RAID pour votre contrôleur de stockage, vous devez créer une grappe RAID, c’est-à-dire un disque dur virtuel composé des disques durs présents dans votre machine, avec les paramètres de fonctionnement. Un peu obscure les premières fois, voici la création de grappes RAID en images.

Choisissez les disques que vous désirez inclure dans votre grappe.

Installation OS

Créer une partition pour exploiter la partie la plus rapide du disque De par leur conception, les disques durs n’offrent pas les mêmes performances selon la position des têtes sur les plateaux. A une vitesse de rotation donnée, la quantité d’informations lues et écrites est plus importante à l’extérieur des plateaux que vers le centre. Bien conscients de ce fait, les ingénieurs qui ont établi au fil du temps les firmwares des disques, des contrôleurs de stockage et les systèmes de fichiers sont tous tombés d’accord pour débuter l’utilisation d’un disque dur par l’extérieur. Les disques durs actuels offrent des capacités époustouflantes, 1 To n’ayant plus rien d’exceptionnel. Cet espace est utile pour stocker des données volumineuses telles que des films, mais nous n’avons pas besoin d’autant pour accueillir le système d’exploitation et les logiciels principaux. L’optimisation veut que, pour toujours faire profiter l’OS de la partie la plus rapide du disque dur, nous créions une partition principale d’une taille modérée, puis une partition secondaire du reste du disque pour les données qui n’ont pas ce même besoin de vitesse. Vous pouvez, par exemple, créer une partition C: de 50 Go qui accueillera Windows, les logiciels et jeux principaux. Nos benchs montrent des écarts très importants entre l’extérieur et l’intérieur d’un disque dur, des écarts jusqu’à 30 % tout de même. En pratique, par rapport à un disque dur avec une seule et unique partition, il y a 5 à 10 % à gagner, plus encore si vous avez désactivé toutes sortes de défragmentations. Cette astuce ne concerne absolument pas les SSD qui ont des performances parfaitement linéaires.

Hardware Magazine

I 47


Installation OS

Mise à jour des pilotes de stockage Mettre à jour les pilotes pour bien exploiter le matériel semble une évidence. Mais si nous le faisons tous pour la carte graphique, nous sommes moins nombreux à nous embêter avec le contrôleur de stockage, surtout si aucun point d’exclamation jaune n’apparaît dans le gestionnaire de périphériques. Nous n’allons pas nous étendre longuement sur ce sujet, vous savez tous mettre à jour un pilote, insistons sur le fait que Windows XP ne gère pas nativement l’AHCI et qu’il est donc primordial d’y penser. Sous Vista et 7, nous préférons toujours installer les pilotes des constructeurs, par exemple l’INF Update et le Matrix Storage Manager d’Intel, mais les écarts de performances par rapport aux pilotes proposés par Windows sont négligeables. Utilisateurs de RAID sur plateformes Intel, l’installation du Matrix Storage Manager permet d’activer le Write Back Cache, pour améliorer les performances. Utilisateurs de SSD sous Windows 7 : ne mettez pas à jour le pilote du contrôleur de stockage pour exploiter la fonction d’entretien TRIM.

Installation OS

Gérer des partitions

Tant que vous ne faites que des opérations de base (création/suppression), la gestion des partitions Windows suffit.

L’excellente suite Disk Director d’Acronis (www.acronis.fr, 40 euros) regroupe quatre outils indispensables pour manipuler vos disques durs et partitions, une version modernisée du célèbre Partition Magic. Cette dernière permet, par exemple, la récupération de partitions « perdues » (des systèmes de fichiers inaccessibles que Windows ne parvient pas à effacer, sans avoir à booter sous Linux pour y parvenir), vous pourrez effectuer des formatages bas niveau de façon plus conviviale que dans un environnement DOS type Ultimate Boot CD, plus rapidement et en tâche de fond (un formatage bas niveau sous DOS dure des heures !) et si jamais votre disque dur comporte des clusters défectueux, ils pourront être marqués afin de ne plus être utilisés et ainsi de prolonger la durée de vie de votre disque. En bonus, vous profiterez du logiciel Boot Manager qui, comme son nom l’indique, est un gestionnaire de démarrage qui permet de choisir entre les différents systèmes d’exploitation que vous aurez installés.

Défragmentation

Aller plus loin que Windows Vista/7 De tout temps, la défragmentation est un entretien indispensable pour conserver de bonnes performances de stockage, au fur et à mesure que le temps passe. En effet, à force d’effacer des données et d’en écrire d’autres sans cesse, les fichiers finissent par s’éparpiller en de multiples petits fragments, obligeant la tête de lecture à se balader et ainsi perdre du temps. Windows Vista a instauré un progrès important avec une défragmentation automatique, c’est l’une des raisons expliquant que vous puissiez constater que votre disque dur s’active non-stop, alors que vous ne faites plus rien sur la machine. Windows 7 conserve cette idée mais va un peu plus loin en désactivant automatiquement toute défragmentation sur les mémoires Flash, notamment les SSD. La fragmentation est virtuellement inexistante sur ces disques, il n’y a donc pas de performances à gagner ; en revanche, la durée de vie de ces mémoires étant liée au nombre d’écritures, mieux vaut éviter de passer sa vie à déplacer des fichiers. Si l’usage du défragmenteur Microsoft a progressé au fil du temps, ses performances laissent toujours à désirer. Non seulement, il ne défragmente pas vite, mais il est surtout d’un usage basique. D’autres logiciels existent, nettement plus rapides et capables de prouesses comme déplacer vers l’extérieur des plateaux les logiciels utilisés le plus souvent. Les deux références ne changent guère au fil des années : d’un côté, nous avons Diskeeper 2010 (www.diskeeper.com, 40 dollars) et de l’autre, O & O Defrag 12 (www.oo-software.com, 50 euros). Tous les deux sont compatibles XP, Vista et 7 et sont capables d’optimiser votre PC lorsque vous ne vous en servez pas, à l’image du défragmenteur de base de Windows. Fonctionnant sous forme de service, ils permettent même de modifier la façon dont Windows écrit les données au moment de l’écriture, pour prévenir la fragmentation.

48

I Hardware Magazine


Dossier

Indexation

Stopper l’indexation automatique Petite révolution introduite par Windows Vista, l’indexation automatique permet d’accélérer grandement les recherches de fichiers sur le disque dur, en maintenant à jour une base de données des fichiers existants. Cependant, si vous n’utilisez pas ou peu la recherche de Windows, l’indexation est plus pénible qu’autre chose. Durant des heures, votre disque dur tourne non-stop, fait du bruit et chauffe « pour rien ». Pour désactiver l’indexation, il suffit d’ouvrir les Propriétés de chaque disque dur dans Ordinateur et de décocher la case qui autorise l’indexation. Vous pouvez également y parvenir en lançant, depuis le Panneau de configuration, Options d’indexation. Les méthodes citées précédemment sont intéressantes pour choisir ce qui est indexé ou non, mais ne permettent pas de réellement l’arrêter. Si vous souhaitez vous passer totalement de l’indexation, vous pouvez le faire sans crainte, il faut faire un clic droit sur Ordinateur, cliquer sur Gérer et développer les services. Double cliquez alors sur le service baptisé Recherche Windows et dans Type de démarrage, désactivez-la. Non seulement votre disque dur ne passera plus son temps libre à gratter (sauf pour la défragmentation, mais c’est moins courant) mais en prime, vous allez libérer une petite vingtaine de mégaoctets de RAM. Si vous désirez, en plus, récupérer un peu d’espace disque, affichez les fichiers cachés, ouvrez le répertoire caché ProgramData à la racine du disque système. Sur un OS installé depuis plusieurs mois, ce sont des centaines de mégaoctets libérés !

Accès disque

Désactiver le monitoring du dernier accès pour chaque fichier

En plus d’enregistrer pour chaque fichier les infos de création et de modification, Windows mémorise pour chaque fichier le dernier accès (date, heure, utilisateur). Vous gagnerez quelques performances à éviter un micro-accès disque pour chaque fichier manipulé, sans compter que l’info de dernier accès n’intéresse pas grand monde, à part quelques grandes entreprises. Lancez l’éditeur de registres (Win + R et tapez regedit), développez HKEY_ LOCAL_MACHINE_SYSTEM/CurrentControlSet/ Control/Filesystem et changez la valeur de NtfsDisableLastAccessUpdate pour passer à 1.

Monitoring

Températures et état de santé Pour tout composant électronique, la température est un facteur à contrôler afin de maximiser la durée de vie. Concernant les disques durs, surtout les précieuses données qu’ils contiennent, ils peuvent fonctionner à 60 °C, mais l’expérience prouve qu’ils tombent nettement moins en panne s’ils tournent à 30 °C. Plus précisément, il est conseillé de maintenir son disque dur sous les 40 °C et quoi qu’il arrive de ne pas atteindre ou dépasser 50 °C. Autrefois, il fallait installer une sonde plus ou moins fiable sur son disque pour connaître cette information, mais les disques modernes embarquent une (parfois des) sonde(s). Pour consulter la température, vous pouvez utiliser des logiciels gratuits comme HWMonitor (www.cpuid.com) ou l’excellent shareware de bench HD Tune (www. hdtune.com). Ce dernier permet d’ailleurs de lire l’intégralité des infos SMART remontées par le disque dur afin de déceler un éventuel problème de fiabilité. Vous pouvez également profiter du moniteur de ressources pour analyser les performances de votre système de stockage. Celui-ci permet, par exemple, de se rendre compte si votre disque travaille à telle ou telle vitesse, mais surtout à temps ou temps de %. C’est intéressant pour mesurer quelle application met à genoux un disque et dans quelle mesure, il peut être intéressant de la déplacer sur un second disque. Le moniteur de ressources est accessible dans Programmes, Accessoires, Outils système. Nous reparlerons beaucoup de monitoring dans les parties sur les cartes graphiques et surtout les cartes mères avec de nombreux outils dédiés.

Hardware Magazine

I 49


Dossier

Spécial SSD

Ce qu’il faut activer/désactiver sous Windows Les SSD ont le vent dans le dos, mais nous sommes tous au courant des problèmes inhérents à leur durée de vie. Les progrès réalisés sont tels que nous n’hésitons plus à les acheter, mais il convient d’adopter quelques bonnes habitudes, qui permettront de conserver des performances au top dans le temps. • Désactiver la défragmentation : ce n’est pas utile pour un SSD d’un point de vue des performances, inutile d’écrire régulièrement des données pour rien, ça raccourcirait sa durée de vie ; • Désactiver l’indexation automatique : voir le bloc précédemment consacré à ce sujet ; c’est une autre façon de réduire la durée de vie d’un périphérique à mémoire Flash. Windows 7 a été conçu pour les SSD. De ce fait, la défragmentation et l’indexation sont automatiquement désactivées. En outre, si votre SSD est compatible, Windows 7 utilise la fonction d’entretien TRIM qui permet d’alterner automatiquement l’usage des cellules qui composent votre SSD, afin de ne pas toujours écrire et effacer les mêmes et ainsi mener à une usure prématurée. Le bloc suivant décrit les méthodes d’entretien TRIM et concurrentes.

Spécial SSD

Fonction TRIM et autres méthodes d’entretien

Lancez le défragmenteur de disque pour modifier la planification. Sous Windows 7, si le PC possède un SSD, la défragmentation est automatiquement désactivée pour celui-ci.

Taper dans une invite de commandes « fsutil behavior query disabledeletenotify » indique si TRIM est en état de fonctionner ou non. Vous devez obtenir 0.

Non pour gagner des performances, mais pour conserver au top celles d’origine, un SSD s’entretient. Peu à peu, nous arrivons à l’entretien automatique et les ventes exploseront lorsque nous n’aurons plus à nous en soucier, mais nous, pionniers, devons nous y attarder. L’idéal s’appelle TRIM. Cette commande effectue un entretien automatique du SSD, ou plus justement, réduit quasiment à néant le besoin d’entretien, en écrivant les données de façon parfaitement aléatoire sur l’ensemble des cellules. TRIM est supporté, par défaut, par Windows 7, il n’y a rien à activer pour cela, mais vous devez utiliser un SSD compatible TRIM. Seul le site Web de votre fabricant pourra vous apporter ce genre d’information. Parfois, il suffit de mettre à jour le firmware du SSD pour en profiter. Qu’il s’agisse d’un SSD à puces MLC ou SLC n’a pas d’importance, pourvu que son firmware prévoie le fonctionnement via la commande TRIM. Attention ! TRIM ne fonctionne que si vous conservez le pilote AHCI d’origine Microsoft ! Si vous le remplacez, seul Intel propose à ce jour une alternative. En installant le pilote AHCI d’Intel (Matrix Storage), TRIM n’est plus opérationnel par défaut, mais vous pourrez en profiter en installant de surcroît le logiciel SSD Toolbox. Vous pouvez lancer manuellement la commande (baptisée optimisation) ou planifier l’entretien automatique. Notons qu’il n’est pas possible, à l’heure actuelle, de disposer du TRIM pour toute solution de stockage en RAID. Lorsque vous ne pouvez pas bénéficier de la commande TRIM, que votre SSD soit incompatible ou que vous ne soyez pas encore passé à Windows 7, il existe tout de même quelques astuces utiles. Nous recommandons de vous rendre sur le site Web du constructeur de votre SSD ou, mieux, sur les forums d’utilisateurs pour connaître la méthode d’entretien idéale pour votre SSD ; il existe deux alternatives courantes à TRIM, le Wiper (à lancer périodiquement) et le GC (Garbage Collector) qui existe en plusieurs moutures suivant les éditeurs. Dernière solution, si vous désirez acheter une licence du logiciel de défragmentation Diskeeper, vous pouvez pour 10 dollars de plus obtenir une version avec Hyperfast. Cette technologie est une méthode d’entretien qui ressemble un peu au Garbage Collector et a le mérite de fonctionner avec n’importe quel SSD. C’est aussi un abus marketing car cet outil, au lieu d’être vendu seul, est proposé en complément d’un outil de défragmentation, parfaitement inutile pour l’utilisateur de SSD. Pour être plus concret, illustrons en chiffres l’impact de l’entretien d’un SSD. TRIM, la solution idéale, fait perdre un peu de performances en permanence puisque cette commande prend le temps de physiquement effacer les données sur le SSD, au fur et à mesure que vous les effacez de votre ordinateur (comme un véritable formatage par rapport à un formatage rapide). Mais nous parlons là d’une perte d’1 à 2 % seulement et c’est stable dans le temps. Si vous n’entretenez pas votre SSD, les performances en lecture ne baissent pas trop (5 à 15 % tout de même) mais celles en écriture peuvent devenir catastrophiques et baisser jusqu’à 60 %, en l’espace de quelques mois seulement ! Un Wiper lancé une fois par mois, ou un GC bien configuré, permet de conserver, comme TRIM, un fonctionnement optimal de votre SSD.

50

I Hardware Magazine


Windows Vista/7 Temps de boot

Supprimer le superflu au démarrage de Windows Une commande magique de Windows existe depuis des années : msconfig. Initialement prévue pour éditer les fichiers de démarrage à la main, cette fonction a évolué en boîte de dialogue plus intuitive permettant de cocher ou décocher tout un tas de paramètres. Windows 7 continue d’utiliser msconfig. Grâce à msconfig, vous pourrez facilement désactiver le démarrage automatique de programmes non utiles ou non souhaités, libérant autant de mémoire vive et gagnant ainsi de précieuses secondes au démarrage de votre ordinateur. Commencez par le raccourci clavier Win + R et tapez msconfig, puis validez. Dans la fenêtre qui s’ouvre, nous allons nous intéresser aux onglets Démarrer et Démarrage. L’onglet Services est primordial lui aussi, nous allons y revenir dans un bloc à part entière. L’onglet Démarrer ne servira qu’aux utilisateurs du multiboot, chez qui le choix entre les OS ne s’affiche durant pas moins de 30 s. Vous pouvez ici paramétrer ce temps, n’hésitez pas à le réduire à 1 ou 2 s si vous ne démarrez quasiment jamais sur les autres systèmes. L’onglet Démarrage liste tous les programmes qui s’exécutent à chaque fois que vous bootez Windows. Sur un système installé depuis quelques mois, c’est effrayant ! N’hésitez pas à en supprimer, qui a besoin de Winamp Agent ou de l’aide pour les produits Creative ? La moitié de ces programmes ne sont même pas véritablement utiles, ils servent simplement à précharger des routines qui vont accélérer le programme en question lorsque vous l’utiliserez. De plus, ne soyez pas inquiet, car vous ne faites que décocher une case qu’il sera possible de réactiver après coup en cas de problème.

Gestion de la mémoire virtuelle La mémoire virtuelle est une partie du disque dur utilisée comme mémoire vive en cas de saturation de la vraie RAM. Loin d’être un idéal en matière de performances, c’est une solution satisfaisante pour éviter qu’une application arrivant au-delà de la capacité totale de votre RAM ne plante. Sur les PC les plus récents, équipés de 4 Go ou plus, vous pouvez carrément vous risquer à supprimer la mémoire virtuelle, fonctionnant ainsi totalement en RAM (c’est un peu plus rapide) et libérant quelques gigaoctets de stockage sur votre disque dur, l’idéal quand on utilise un petit SSD. Sauf usages particuliers et multitâche très intensif, il est peu fréquent que nous dépassions 4 Go de charge et rarissime de saturer 6 Go. Dans le doute, il suffit de monitorer la mémoire libre à l’aide du gestionnaire des tâches. Faites un clic droit sur Ordinateur et cliquez sur Propriétés. Cliquez ensuite sur Paramètres système avancés et, dans l’encadré Performances, sur le bouton Paramètres. Une seconde fenêtre s’ouvre avec un onglet Avancé. Dans celui-ci, cliquez sur Modifier pour accéder aux réglages de mémoire virtuelle ; vous pouvez ici passer en mode manuel et ajuster la capacité pour la réduire ou, carrément, la supprimer. Nous utilisons quotidiennement plusieurs ordinateurs sans pagefile, de façon transparente.

Temps de boot

Optimiser le BIOS Pour grappiller quelques secondes au démarrage de votre ordinateur, pensez à désactiver les contrôleurs inutilisés dans le BIOS. Un contrôleur de stockage sur lequel rien n’est branché, c’est 2 à 5 s de moins à scanner les périphériques dans le vide.

Temps de boot

Désactiver les services inutilisés De très nombreux services tournent de façon invisible sur votre ordinateur, certains étant peu utiles. Vous pouvez désactiver leur démarrage automatique de plusieurs façons, la plus rapide étant d’exécuter à nouveau la commande msconfig et de vous rendre sur l’onglet Services, mais nous préférons faire un clic droit sur Ordinateur et cliquer sur Gérer car nous avons droit à une description complète des services et à plus de choix quant à leur modification. Insistons sur le fait que vous ne faites prendre aucun risque à votre installation puisqu’il ne s’agit que de désactiver le démarrage automatique des services en question, en aucun cas de les supprimer. Chaque service qui ne démarre pas à chaque fois que Windows boote vous fait gagner un peu de temps et économise de la mémoire vive. Si vous n’utilisez pas d’imprimante, n’hésitez pas à désactiver le spouleur d’impression. Comme nous le proposons dans la partie stockage, vous pouvez également vous passer du service Recherche Windows (l’indexation automatique). Si vous utilisez vos propres firewalls et antivirus, n’hésitez pas à vous passer de Windows Defender et du firewall de Windows.

Hardware Magazine

I 51


Dossier

Divers Mise à jour automatique des pilotes Nous connaissons tous l’importance de mettre les pilotes à jour, mais qui n’a jamais pesté contre la pénibilité que pouvaient représenter la recherche et le téléchargement de certains d’entre eux ? C’est d’autant plus vrai lorsqu’il s’agit de composants annexes qui semblent si bien reconnu de base par Windows. Pour nous simplifier la vie, il existe des solutions pour simplifier ces mises à niveau et toujours rester à jour. MSI fait figure d’exemple, depuis des années, grâce à son logiciel Live Update. Outre la mise à jour du BIOS, celui-ci sait analyser votre machine complète puis télécharger et installer tous les pilotes liés à MSI. Feu Abit proposait également une solution de ce genre. MSI va même plus loin avec une version Web de Live Update, qui n’impose pas d’installer de logiciel résident sur son PC. C’est également le cas chez Intel. Lorsque vous vous rendez sur la page de support de ces constructeurs et, en plus de la méthode de recherche manuelle des pilotes, vous pourrez opter pour une recherche automatique ; ce sont des applications ActiveX, vous ne pourrez donc les utiliser qu’avec Internet Explorer. Pour les autres marques et autres composants, notons que plusieurs sites se sont spécialisés dans la mise à jour des pilotes et proposent des services comparables, pour tout votre PC. Parmi ceux-ci, retenons ma-config.com, un moteur français très efficace pour détecter le matériel qui équipe notre PC, ainsi que touslesdrivers.com, une référence en matière de download de drivers, qui utilise le moteur de ma-config.com également.

RAM

Optimisez votre mémoire vive L’optimisation de la RAM est bien entendu un facteur important dans notre quête perpétuelle de performances. Nous n’y accordons pas autant de place aujourd’hui car nous en avons largement parlé dans notre dossier spécial publié dans PC Update n° 42 et, plus récemment, à l’occasion du comparatif de DDR3 dans Hardware Magazine n° 44. Voici les points clés à connaître pour exploiter au mieux sa mémoire vive : • S’il est tentant de se contenter d’un démarrage par défaut en mode tout automatique, il est toujours possible d’obtenir de meilleures performances en prenant le temps d’optimiser dans le BIOS la vitesse et les timings de la mémoire. • Quelque soit votre processeur (c’est plus vrai d’Intel que d’AMD), il vaut mieux privilégier la fréquence mémoire aux timings. Toutefois, lorsque nous parlons de deux fréquences proches, de bons timings font mieux que de mauvais, exemple, il vaut mieux DDR3-1333 C7 que DDR31600 C9. • Une mémoire réglée de façon un peu trop optimiste génère rapidement des instabilités. Nous vous conseillons de valider vos réglages en exécutant l’exigeant logiciel LinX (chercher sur Google) et en cochant l’option visant à utiliser toute la mémoire.

52

I Hardware Magazine



Dossier

Atom 2, CULV, AMD Vision, Core i5

Netbook 10” vs CULV 14” vs desktop replacement 17”.

Thomas Olivaux et damien labourot

A chacun sa plateforme mobile CULV, Core i7 mobiles et maintenant Atom Pinetrail, Core i5 avec GPU embarqué et AMD Vision, ça bout du côté des portables. Ajoutons les Centrino et autres netbooks existants et on explose ! Faisons le tri dans tout ça : quelle plateforme vous correspond ?

D

epuis qu’Intel avait imposé le standard Centrino, le marché des portables était relativement simple. Nous avions une majorité de machines Centrino justement, c’est-à-dire des PC regroupant un CPU Intel mains-

54

I Hardware Magazine

tream ou haut de gamme, un chipset Intel et une carte Wi-Fi Intel. A côté de ceux-ci, quelques portables d’entrée de gamme à base de Celeron (Intel n’autorise pas que soient baptisés Centrino ceux équipés de Celeron) et quelques machines

à base d’AMD, dans des proportions dérisoires. On choisissait sa taille d’écran, une carte graphique plus ou moins puissante et puis voilà… Oui, mais depuis fin 2007, époque à laquelle ont débarqué les premiers netbooks, les choses


e

se compliquent, les constructeurs proposant de plus en plus de produits vraiment différents.

Une plateforme par usage De tout temps, la notion d’usage a été développée sur les portables, comme c’est le cas pour les PC fixes. C’est essentiellement la diagonale d’écran qui caractérisait pendant des années les légers ultraportables (13» et moins), les portables « classiques » (14 à 16») et les imposants « desktops replacement » (17» et plus). Les performances étaient ajustées, favorisant par exemple l’autonomie sur les ultraportables ou la puissance sur les gros modèles, mais dans tous les cas, nous avions droit à la même conception essentielle et à notre logo Centrino. Puis, venant de nulle part, si ce n’est du progrès marketing, sont apparus les netbooks, des tout petits ordinateurs portables peu puissants et peu onéreux, du moins à l’origine. Ces machines, quoiqu’excitantes, ont rapidement montré leurs limites, faute d’évolution et d’imagination. Les processeurs Atom ou Celeron qui les animent sont franchement lents et les écrans de 7 à 10» avec des résolutions castrées ne donnent pas beaucoup de liberté mais cela a fait passer un

cap à ce marché : le grand public ayant goûté à l’ultramobilité ne veut plus s’en passer. D’ailleurs, l’ultraportable n’est-il pas la seule légitimité du portable après tout ? Pour les fans de vrais PC, l’ultraportable est le complément idéal pour surfer dans son lit, regarder un film dans le train ou même noter les résultats d’une overclocking party. Pour ça, mieux vaut un portable léger et dont la batterie tient longtemps. Sauf qu’avant les netbooks, les ultraportables coûtaient une véritable fortune. La solution intermédiaire est apparue l’été dernier chez Intel, il s’agit des CULV. Ces PC bénéficient de véritables solutions techniques d’ultraportables à un prix réduit et nous avons donc accès à des machines très séduisantes, largement plus performantes que les netbooks et pas beaucoup plus chères, sans que Microsoft vienne empêcher le monde de tourner avec telle ou telle bride commerciale.

jamais deux sans trois, AMD tente un retour sur ce marché quasi sans concurrence en lançant AMD Vision, un label façon Centrino qui regroupe trois déclinaisons pour trois plateformes différentes. Accrochez-vous ! Dans ce dossier, nous allons tester toutes ces nouveautés, afin d’en cerner les points forts et les points faibles. Notre but est simple, vous devrez sortir de cette lecture en sachant immédiatement quelle sera la plateforme de votre prochain ordinateur portable.

La notion de netbook, CULV et notebook est déjà complexe à cerner, mais les choses ne vont pas en se simplifiant, sachant qu’Intel remplace actuellement les gammes de Core 2 par les nouveaux Core i3/5, profitant de l’occasion pour abandonner Centrino. Et puisque

Hardware Magazine

I 55


Dossier

Le plein de nouveautés Core i3 et Core i5 En septembre, Intel a introduit les Core i7 mobiles avec brio, trois monstres quad core plutôt gourmands. Nous attentions avec impatience les versions plus populaires de la gamme pour remplacer nos Core 2 apparus il y a trois ans et demi. Contrairement au i7, les parties processeur et gpu des i3/5 devaient toutes être gravées en 45 nanomètres, et prendre le nom de code Havendale.Mais le rendement en 32 nano du fondeur s’est révélé suffisant pour se passer de cette étape transitoire. Nous nous retrouvons donc avec un système multi chip utilisant deux finesses de gravure et prenant le nom Arrandale. D’un coté le processeur gravé en 32 nm et de l’autre la partie chipset en 45nm, soit exactement la même configuration que ce que nous avons pu voir le mois dernier avec notre dossier des Core i3 et Core i5 pour desktop. Et ce ne sont pas moins de 11 cpus qui sont lancés au sein de 3 gammes de produits : les « Standard », les « basse consommation » (Low Voltage) et « Très basse consommation » (Ultra Low Voltage)

Des choix technologiques contestables Si les Core i7 mobile lancés en septembre dernier reprenaient trait pour trait l’architecture Nehalem et ses gargantuesques 25.6 Go/s (à un canal mémoire près), les core i3/5 disposent d’une bande passante mémoire considérablement réduite, 17 Go/s. Si le processeur est bien de la nouvelle famille Westmere (le die shrink 45/32 nano de Nehalem), il n’intègre pas tous les modules disponibles au sein de cette architecture, notamment le contrôleur mémoire et le Contrôleur PCI-Express qui retournent du coté « chipset ». Intel a reproduit le choix technologique des premiers Quad Core, à savoir le moins sexy sur le papier mais offrant le meilleur rendement à sa production (le yield).

56

I Hardware Magazine

Mais ne boudons pas notre plaisir par des détails d’amateurs exigeants, les performances intrinsèques de ces nouvelles puces sont bonnes voire plutôt flatteuses. L’HyperThreading insuffle un gain notable dans les logiciels gérant parfaitement le multicoeur. Lorsque ce n’est pas le cas, c’est le Turbo, bien plus efficace que sur les Core i3 et i5 de PC de bureau, qui augmente les performances. Cet usage systématique du mode Turbo et les différentes valeurs associées en fonction du nombre de cores utilisés rendent presque impossible de spécifier la fréquence d’un processeur. Dans le tableau ci-contre, vous trouverez donc la fréquence mini de chaque CPU (fréquence réduite au max en économie d’énergie EIST), la fréquence max hors Turbo, c’est-à-dire la fréquence nominale du CPU et la fréquence Turbo max pour savoir jusqu’à quelle vitesse le CPU grimpe dans le meilleur des cas. Nous avons ajouté une colonne fréquence typique, c’està-dire la fréquence Turbo lorsque tous les cores sont sollicités, c’est celle qui traduit le mieux les performances d’un processeur.

Définitions Notebook : terme générique qui désigne les ordinateurs portables au sens large, qu’ils soient de 11, 15 ou 17» et plus ou moins puissants. Les netbooks ne sont pas considérés comme des notebooks (tous les prix, de 400 à plus de 3 000 euros). Netbook : ordinateur portable tout petit (écran maximum 10») et peu onéreux (moins de 400 euros) ; peu puissant et destiné avant tout à un usage 100 % Internet. Les netbooks sont généralement associés aux processeurs Intel Atom (moins de 400 euros). Ultraportable : nom donné aux ordinateurs portables les plus petits, légers et bénéficiant d’une grande autonomie. Depuis qu’existent les netbooks et les CULV, les ultraportables n’existent plus que sur un marché de niche, des machines très chères et bien finies (1 000 à 3 000 euros). CULV (Consumer Ultra Low Voltage) : « l’ultraportable économique », dans le bon sens du terme. Ni une plateforme, ni une marque, cet acronyme désigne simplement des machines optimisées pour une basse consommation et une portabilité maximum (11 à 15»), avec un prix de vente contenu (de 400 à 700 euros) Centrino : standard d’Intel apposé sur les portables réunissant certains processeurs ainsi qu’un chipset et une carte Wi-Fi de la marque. Véritable succès depuis 2003 (la majorité des portables vendus sont des portables Centrino), la marque est en passe d’être abandonnée. Vision : standard AMD reprenant le principe de Centrino, à base de composants AMD (processeur, chipset et carte graphique).


TDP

cœurs / Threads

Fréquence CPU (min-max-turbo)

Fréquence typique (turbo sur max de cœurs)

Fréquence GPU (min-turbo)

Fréquence Mémoire

cache L3

Clarksfield Hautes Performances Core i7 920XM

55W

4-8

1.20 - 2.00 - 3.20 GHz

2.26 GHz

N/A

1333 MHz

8 Mo

Core i7 820QM

45W

4-8

1.20 - 1.73 - 3.06 GHz

2.00 GHz

N/A

1333 MHz

8 Mo

Core i7 720QM

45W

4-8

0.93 - 1.60 - 2.80 GHz

1.73 GHz

N/A

1333 MHz

6 Mo

Arrendale Performance Core i7 620M

35W

2-4

1.20 - 2.66 - 3.33 GHz

3.06 GHz

500 - 766 MHz

1066 - 800 MHz

4 Mo

Core i5 540M

35W

2-4

1.20 - 2.53 - 3.06 GHz

2.80 GHz

500 - 766 MHz

1066 - 800 MHz

3 Mo

Core i5 520M

35W

2-4

1.20 - 2.40 - 2.93 GHz

2.66 GHz

500 - 766 MHz

1066 - 800 MHz

3 Mo

Core i5 430M

35W

2-4

1.20 - 2.26 - 2.53 GHz

2.53 GHz

500 - 766 MHz

1066 - 800 MHz

3 Mo

Core i3 350M

35W

2-4

1.20 - 2.26 - N/A

2.26 GHz

500 - 766 MHz

1066 - 800 MHz

3 Mo

Core i3 330M

35W

2-4

1.20 - 2.13 - N/A

2.13 GHz

500 - 766 MHz

1066 - 800 MHz

3 Mo

Arrendale Basse Consommation Core i7 640LM

25W

2-4

1.20 - 2.13 - 2,93 GHz

2.66 GHz

266 - 566 MHz

1066 - 800 MHz

4 Mo

Core i7 620LM

25W

2-4

1.20 - 2.00 - 2.80 GHz

2.53 GHz

266 - 566 MHz

1066 - 800 MHz

4 Mo

Arrendale Très Basse Consommation Core i7 640UM

18W

2-4

0.66 - 1.20 - 2.26 GHz

1.86 GHz

166 - 500 MHz

800 MHz

4 Mo

Core i7 620UM

18W

2-4

0.66 - 1.06 - 2.13 GHz

1.73 GHz

166 - 500 MHz

800 MHz

4 Mo

Core i5 520UM

18W

2-4

0.66 - 1.06 - 1.86 GHz

1.60 GHz

166 - 500 MHz

800 MHz

3 Mo

A gauche, un des nouveaux Core iX génération Arrandale, à droite, le chipset associé, un simple southbridge.

AMD Vision 3-en-1 En matière de mobilité, Intel a tellement verrouillé le marché qu’AMD est largué depuis des années. Il y a bien eu quelques tentatives, toutes infructueuses. AMD tente à nouveau de s’imposer comme véritable alternative à Intel, depuis trois mois, grâce à AMD Vision. Vision, décliné en trois moutures, est en fait le nom d’une plateforme comme Centrino l’a été pour Intel toutes ces années. Autrement dit, Vision est un label qui permet à l’acheteur d’avoir une garantie de performances minimales. AMD propose Vision « tout court » (parfois appelé Vision Basic), Vision Premium et Vision Ultimate. Ayant du mal à lutter au niveau technique, nous pensons par exemple à la finesse de gravure qui n’a pas encore totalement abandonné le 65 nm, tandis qu’Intel est passé au 32 nm, nous comprenons qu’AMD privilégie le concept de « Vision », un programme marketing qui associe CPU + GPU, alors que son concurrent direct arrête, lui, son Centrino pour se recentrer sur son coeur de métier, le processeur. Comme dit précédemment, il existe trois variantes, qui ont le mérite de permettre une estimation rapide dès que l’on achète. D’un autre côté, ça élimine aussi nVidia sur la partie GPU ! Ça se comprend d’une marque qui produit ses propres chips graphiques, mais est-ce une bonne stratégie dans le temps ? Pas sûr.

Neo à cheval entre Atom et CULV ? Vision Basic repose principalement sur les processeurs AMD Neo. Sorti au printemps 2009 avec le DV2 de HP, le Neo se voulait plus une réponse à l’Atom mais pas seulement. Le Texan ne voulant (ne pouvant ?) pas entrer dans le marché de « l’ultra low performance », alors oui, ça se ressent sur l’autonomie mais on peut faire plus qu’afficher Internet, le positionnement ô combien ambitieux d’Intel pour sa star de l’ultramobilité. Pour ce faire, AMD a repris un bon vieux K8, abaissé la fréquence, limité les tensions, réduit les caches. Si la première mouture de Neo était monocore, on adjoint à la deuxième un second die pour plus de performances, en maintenant une enveloppe thermique contenue (18 W). Quand il est épaulé par un chipset graphique HD3200 identique à celui que l’on retrouve dans les chipsets 780G et 790G de certains PC fixes, il est capable de lire des vidéos 1080p, voire des Blu-Ray malgré sa faible puissance. Reste qu’en regardant la plateforme Vision dans son ensemble, elle répond plus à la plateforme CULV d’Intel en termes de consommation. Côté Vision Premium et Vision Ultimate, on a affaire ici à de vrais portables. Utilisant des Athlon II et des Turion II (génération K10, dérivés du Phenom donc), la différence entre les deux se situe essentiellement au niveau de la carte graphique. Là où Vision Premium se contente d’une HD4200 (identique à celle du chipset 785G), Vision Ultimate démarre, lui, à partir d’une 4650 et impose d’avoir un Turion II. Ici, point de notions de performances ou d’autonomie, mais d’usage. Sur un Vision Ultimate, on peut jouer dans de bonnes conditions, on peut transcoder des vidéos à l’aide du GPU, alors que la HD s’ouvre à nous dès le Premium.

Hardware Magazine

I 57


Dossier

TDP

cœurs / Threads

Fréquence

Cache L2

Hypertransport

Caspian Turion II Ultra M660

35W

2

2.7 GHz

2Mo

1.8GHz / 3.6GT/s

Turion II Ultra M640

35W

2

2.6 GHz

2Mo

1.8GHz / 3.6GT/s

Turion II Ultra M620

35W

2

2.5 GHz

2Mo

1.8GHz / 3.6GT/s

Turion II Ultra M600

35W

2

2.4 GHz

2Mo

1.8GHz / 3.6GT/s

Turion II Dual Core M540

35W

2

2.4 GHz

1Mo

1.6GHz / 3.2GT/s

Turion II Dual Core M520

35W

2

2.3 GHz

1Mo

1.6GHz / 3.2GT/s

Turion II Dual Core M500

35W

2

2.2 GHz

1Mo

1.6GHz / 3.2GT/s

Athlon II Dual Core M340

35W

2

2.2 GHz

1Mo

1.6GHz / 3.2GT/s

Athlon II Dual Core M320

35W

2

2.1 GHz

1Mo

1.6GHz / 3.2GT/s

Athlon II Dual Core M300

35W

2

2.0 GHz

1Mo

1.6GHz / 3.2GT/s

Sempron M100

25W

1

2.0 GHz

512Ko

1.6GHz / 1.6GT/s

Huron Voici un « vrai » ultraportable, un de ces modèles cher à plus de 2 000 euros, le Sony Vaio TT. Son prix s’explique, outre la marque, par un écran LED, une coque carbone, un modem 3G, un lecteur optique (rare dans un ordinateur de 11”) et même un SSD 1,8” en option.

Turion Neo X2 L625

18W

2

1.6GHz

1Mo

800MHz / 1.6GT/s

Athlon Neo X2 L325

18W

2

1.5GHz

1Mo

800MHz / 1.6GT/s

Athlon Neo MV40

15W

1

1.6 GHz

512Ko

800MHz / 1.6GT/s

Le CULV en stand-by CULV, pour Consumer Ultra Low Voltage, n’est ni un label ni une marque. C’est le nom donné en interne par Intel aux composants issus des technologies ultraportables coûteuses mais vendues cette fois à un petit prix. Concrètement, nous parlons surtout de processeurs qui étaient déclinés uniquement sur des machines légères vendues au prix fort (les ultraportables, seules les entreprises en profitaient), qui ne chauffent pas et profitent d’une grande autonomie. En se passant de fioritures telles que les coques en carbone ou la présence d’un modem 3G, nous avons enfin accès à des ultraportables à un petit prix.

Profitants de composants basse consommation, les CULV ne chauffent pas beaucoup et son rarement épais.

En pratique, le marché tend à remplacer les solutions Atom haut de gamme par des CULV, mais Intel estime que la migration ne se fera pas du jour au lendemain sur sa nouvelle plateforme Core i xxxUM et sort donc de nouveaux Atom en attendant. Ce n’est pas que les puces basse consommation des CULV ne se vendent pas, mais il y a deux contraintes qui vont retarder la transition. La première est technique : si les machines classiques ont des contraintes similaires en termes de dissipation thermique avec des TDP identiques, il ne va pas en être le cas avec les machines légères. Les nouveaux processeurs ULV demandent de reprendre en profondeur les designs des machines. Il y a quasiment 100 % de chaleur en plus à dissiper (TDP qui passe de 10 à 18 W) avec le chipset et du graphique intégrés au sein de l’emplacement processeur. Et pour les constructeurs, cela a un coût. Si dans la majorité des cas, les machines portables classiques vont être très ressemblantes aux précédentes à base de Core 2 Duo, il faudra certainement attendre le mois de juin pour voir arriver les premières machines à base de Core i5 520UM par exemple. Les constructeurs passeront alors à l’offensive puisque le volume des ventes de la rentrée sera suffisamment conséquent pour amortir les coûts de recherche et développement. Ça n’est pas une raison pour bouder les CULV actuels qui restent fort intéressants.

58

I Hardware Magazine


Dossier

Pinetrail Atom passe en v2

Grâce au Turbo Mode, les processeurs pour portables n’ont plus peur des grosses fréquences.

Un an et demi après son introduction, la plateforme Atom évolue. Pinetrail, c’est le nom de code de ces nouveaux Atom, n’est pas une révolution côté CPU. La gravure restant en 45 nm, l’innovation majeure réside dans la réunification du CPU et du GPU comme sur Clarkdale et Arrandale. Trois variantes sont sorties pour le moment, les D410, D510 et N450. Mais seul ce dernier est mobile, il sera rejoint dans les prochains mois par une version plus musclée, enfin moins rachitique… Comme vous le verrez dans nos benchs, les performances n’ont absolument pas évolué face aux Atom premiers du nom, mais l’enveloppe thermique a été réduite quelque peu. Pour comparer ce qui est comparable, le nouveau N450 a un TDP de 5,5 W, tandis que son concurrent Atom de première génération, le N270, délivre 2,5 W qu’il faut cumuler aux 4 W de l’ancien northbridge, soit un total de 6,5 W. 1 W, ce n’est rien en soi, mais à cette échelle, ce sont 15 % de gagnés, de quoi continuer de réduire les appareils et améliorer les autonomies. La partie graphique de ce nouvel Atom évolue aussi. On passe d’un GMA 950 poussif à un GMA X3150 qui gagne 33 MHz et se contente encore de DirectX 9. Intel ne veut décidément pas lâcher la bride sur son CPU microscopique. Bien au contraire. Si nVidia avait pu installer son Ion dans le débat netbook et amener principalement la haute définition, ici il ne pourra pas le faire. Intel ferme sa plateforme à ses puces uniquement, le chipset graphique étant intégré au CPU. Seul, Broadcom devrait proposer un module externe capable de faire le décodage de la vidéo haute définition. Puce qui, aujourd’hui, n’est pas encore intégrée dans le moindre netbook.

Quoi de neuf côté GPU ?

I

ntel renouvelle également la partie graphique avec… HD Graphics. Elle reprend trait pour trait la version desktop Core i3/5 mais rajoute une fonction : le Turbo. Celui-ci marche en vase communicant avec le Turbo du processeur. Ainsi, lorsque le pilote graphique détecte une activité graphique, le GPU monte en fréquence alors que celui du processeur ne

bouge pas d’un mégahertz afin de rester dans l’enveloppe thermique. Une théorie très séduisante sauf que concrètement, le GPU intégré est si lent qu’on ne peut pas vraiment mesurer un progrès. Si quelques jeux peu gourmands fonctionnent, nous conseillerons plutôt d’utiliser le GPU d’Intel pour ce qu’il sait faire correctement, la haute définition et… la bureau-

DirectX

Cuda Core

bus mémoire

Fréquence GPU

Fréquence mémoire

GTX 280M

DX10.1

128

256 bits

1463

GDRR3 950MHz

GTX260M

DX10.1

112

256 bits

1375

GDDR3 950MHz

GTS360M

DX10

96

128 bits

NC

GGDR5 jusqu’à 2GHz

GTS350M

DX10

96

128 bits

NC

GGDR5 jusqu’à 2GHz

GT335M

DX10

72

128 bits

1210

GDDR3 ou DDR3 800 / 1066

GT330M

DX10

48

128 bits

1210

GDDR3 ou DDR3 800 / 1066

GT325M

DX10

48

128 bits

1210

GDDR3 ou DDR3 800 / 1066

310M

DX10

16

64 bits

1500

DDR3 800MHz

305M

DX10

16

64 bits

1500

DDR3 700MHz

tique. Intel doit en être conscient puisqu’on pourra mixer deux GPU avec la fonction switchable graphics. Le chip intégré consommant très peu d’énergie basculera vers la carte graphique idoine dès que vous serez sur le secteur ou au lancement d’un jeu ! Nous avons eu un portable Asus supportant cette technologie. Et rien à dire, cela fonctionne et plutôt intelligemment. Si vous débranchez le portable en plein jeu… le passage normalement automatique d’une carte à l’autre est suspendu. Bien vu, ça évite les plantages. Par contre, si vous ne faites rien et que vous coupez le courant, alors le PC passe de la carte graphique ATi au Intel HD Graphics. Espérons que beaucoup de constructeurs suivront cette initiative du « multiGPU » interchangeable à la volée. Si du côté d’Intel, il y a une seule fréquence GPU par famille, 500 MHz pour les Core i3 et 566

Hardware Magazine

I 59


1&1 Serveur Cloud Dynamique

SERVE U Ajustez les performances en fonction de vos besoins

1&1 SERVEUR CLOUD DYNAMIQUE Le prix du serveur varie en fonction de la configuration choisie, celle-ci étant modifiable à volonté pendant toute la durée de votre contrat. Constituez votre propre Serveur Cloud Dynamique en optant, par exemple, pour une configuration de base : ■ 1 cœur AMD Opteron™ 2352 (jusqu‘à 4 cœurs) ■ 1 Go de RAM (jusqu‘à 15 Go) ■ 100 Go d‘espace disque (jusqu‘à 800 Go) ■ Trafic ILLIMITÉ ■ OS Linux (Windows optionnel) ■ 1 nom de domaine inclus ■ Accès administrateur ■ Parallels® Plesk Panel 9

0

Offre de lancement :

3 mois

GRATUITS* Configuration de base :

19,99

HT/mois 23,91 € TTC/mois

pendant 3 mois*

/10 2 0 / 8 2 U ’A U Q S U J OFFRE VALABLE *Les 3 mois gratuits s’appliquent à la configuration de base. Pour une configuration supérieure, le prix appliqué sera égal à la différence entre le prix de la configuration souhaitée et celui de la configuration de base. A l’issue des 3 premiers mois, le prix annoncé sur notre site Internet s’appliquera. Offre soumise à un engagement de 12 mois et à des frais de mise en service de 22,72 € TTC. Conditions détaillées sur www.1and1.fr. Offres sans engagement également disponibles.

0970 808 911 FR102020100063_420x287_KB_28L.indd 1

Appel non surtaxé

11.01.2010 11:27:06 Uhr


E UR

Innovation 1&1

1&1 Serveur Cloud Dynamique constitue une nouvelle solution d’hébergement flexible qui s’adapte à l’évolution de vos besoins. Modulez à tout moment, et sans aucune contrainte, les performances de votre serveur en modifiant le nombre de cœurs, la mémoire vive ou l’espace disque.

10 Consultez toutes nos offres serveurs sur notre site Internet !

www.1and1.fr FR102020100063_420x287_KB_28L.indd 2

11.01.2010 11:27:16 Uhr


DirectX

Steam

Unité de Texture

Stencil ROP

color ROP

Fréquence GPU

Fréquence mémoire

TDP

Mobility Radeon HD 5870

DX 11

800

40

64

16

700 MHz

1GHz

50W

Mobility Radeon HD 5850

DX 11

800

40

64

16

500-625MHz

1GHz (GDDR5) 900MHz (GDDR3)

GDDR5 = 30-39w GDDR3 = 31W

Mobility Radeon HD 5830

DX 11

800

40

64

16

500 MHz

800 MHz (GDDR3)

24W

Mobility Radeon HD 5770

DX 11

400

20

32

8

650 MHz

800 MHz (GDDR5)

30W

Mobility Radeon HD 5750

DX 11

400

20

32

8

550 MHz

800 MHz (GDDR5)

25W

Mobility Radeon HD 5730

DX 11

400

20

32

8

650 MHz

800 MHz (GDDR3)

26W

Mobility Radeon HD 5650

DX 11

400

20

32

8

450-650 MHz

800 MHz (GDDR3)

15-19W

Mobility Radeon HD 5470

DX 11

80

8

16

4

750 MHz

900 MHz (GDDR5) DDR3

GDDR5 = 15w DDR3 = 13W

Mobility Radeon HD 5470

DX 11

80

8

16

4

675 MHz

DDR3 800MHz

11W

Mobility Radeon HD 5430

DX 11

80

8

16

4

550 MHz

DDR3 800MHz

7W

Mobility Radeon HD 5165

DX10.1

320

NC

NC

NC

libre

libre

NC

Mobility Radeon HD 5145

DX10.1

80

NC

NC

NC

libre

libre

NC

pour les Core i5, du côté d’AMD, on a droit à une avalanche ! 10 GPU, rien que ça et tous en DirectX 11 et Direct Compute 5 ! AMD dispose ainsi d’une offre complète permettant l’intégration dans tous les formats de pc portable. Reste que certaines ne sont parfois pas forcement utiles par rapport à un chipset Intégré. Si AMD décline autant de puces dont les spécifications sont souvent proches, c’est tout simplement pour répondre au marché et surtout à ses clients directs, les fabricants de pc. On ne sait pas trop ce qui change mais +20 dans la désignation séduit souvent le directeur marketing... L’attrait du DirectX 11 devrait aussi pas mal aider, qu’on puisse l’exploiter ou pas ! La nouvelle reine des GPU mobiles AMD est sans conteste la Mobilty HD5870 qui devrait dépasser le cap des 6500 points à 3Dmark Vantage selon le fabricant, rien que cela, soit l’équivalent sur nos PC d’une HD 5770 à quelques pouillèmes près. Déjà pas si mal,

62

I Hardware Magazine

sachant que la consommation de la puce seule est divisée par deux par rapport à sa consœur desktop . Dans un monde utopique, on l’appellerait Mobility HD5770 mais bon…le marketing en décide toujours autrement ! Cette carte devrait permettre de jouer dans des conditions raisonnables en 1 920, donc même branché sur une télé haute définition. L’Eyefinity débarque aussi dans les GPU portables. Cette technologie multi écran introduite avec la gamme Radeon 5xxx d’AMD en septembre permet de brancher jusqu’à 6 écrans ! Sur les portables, cette technologie a peu de chance d’être réellement exploitée, d’une part parce que la place est limitée pour intégrer autant de connecteurs mais aussi parce que la demande sur ce type de produit n’existe pas forcement, pas encore. Ah et pour être précis, ce ne sont pas 10 mais 12 processeurs gra-

phiques qui sont lancés sauf que nous préférons oublier les 5165 et 5145 qui ne sont que des renommages de l’ancienne génération. Une goutte d’eau ceci dit par rapport à ce que fait nVidia. A défaut d’avoir un Fermi fonctionnel et déclinable dans tous les formats, le Caméléon n’a de cesse de faire du neuf avec du vieux.

Atom

Ato

Neo X

Pentium S

Athlon I Athlon I

C2D S

C2D

i5

i7

i7 7

Intel devan contraire d


Dossier

d’une présentation au CES, on a vu les premiers signes du changement. Asus lance un portable très haut de gamme, le G73, et remplace la GeForce GTX260M utilisée jusqu’alors dans toutes les machines dédiées aux joueurs par une Mobility HD 5870 ! Premier signe ou anecdote, nous le saurons bientôt !

Lorsque vous débranchez le secteur de votre portable, il propose d’abandonner le GPU puissant (ici ATi) pour passer sur le GPU intégré au processeur Intel. Heureusement, si vous êtes en plein jeu 3D, vous ne serez pas embêté avec ça.

Alors, certes, il compense en ajoutant des pointes de PhysX pour combler son manque cruel de fraîcheur, innove en ajoutant aussi la 3D avec lunettes, mais si la physique n’augmente pas le prix d’une plateforme, les lunettes 3D et l’écran 120 Hz allongent sérieusement la facture.

Jusqu’ici, nVidia a la chance que les fabricants de PC mettent un certain temps à changer leur fusil d’épaule. Nous avons même entendu certains partenaires du Caméléon nous expliquant qu’un PC portable haut de gamme était forcément en GeForce, question d’image. Cependant, lors

Mediashow Espresso

Atom N450

Perfs

Neo X2 L335 Atom 330

313

Pentium SU4100

297

Atom 330 + Ion

247

C2D SU9400

214

Athlon II M300

Atom 330

5351 3678

Neo X2 L335

2436

Pentium SU4100

1235

C2D T9600 C2D T9600

616

i5 520M

611

i7 620M i7 620M

i5 520M

74

i7 620M

72

i7 720QM

68 100

200

300

400

500

600

700

800

900

temps en secondes

1468

C2D SU9400

100

0

1941

Athlon II M300 Athlon II M300

181

C2D T9600 C2D T9600

Cinema 4D

Atom N450

842

401

Encoder ses vidéos pour son iPhone est à la portée de tous sauf l’Atom s’il n’est pas aidé d’un GPU. La solution Atom + Ion fini devant le Pentium de notre CULV.

543

i7 720QM

475 0

1000

2000

3000

4000

5000

6000

temps en secondes

Intel devant, Intel derrière. Le Core i7 720QM et ses 4 cœurs marchent fort au contraire de l’Atom qui se traine royalement.

Hardware Magazine

I 63


Winrar 3.91

Atom N450

1216

Atom 330

1142

Neo X2 L335

926

Athlon II M300

787

Pentium SU4100 Pentium SU4100

724

C2D SU9400

520

C2D T9600

392

i5 520M

362

i7 620M

342

i7 720QM

247 0

200

400

600

800

1000

1200

1400

temps en secondes Le mode turbo des nouveaux Core i5/i7 leur permet de distancer le Core 2 Duo. A noter qu’un Core 2 ULV fait mieux qu’un Athlon classique.

Plateforme

Processeur

Fourchette d’autonomie attendue

Machine testée

Batterie

Autonomie min

Autonomie max

conso idle

AMD Vision

Athlon II M300

2h-2h30

Asus K70A

4400mAh - 46Wh

61

138

34,1

63,7

Core 2 Duo T9600

2h-2h30

Asus W90Vp

8800mAh - 93Wh

67

85

81,6

146,3

Core i7 720QM

1h30-2h

Asus N61JQ

4400mAh - 48 Wh

68

134

30,1

86,4

Core i7 620M + ATI HD5730

2h-2h30

Asus N61JA

4400mAh - 48 Wh

84

143

25,6

76,4

Core i7 620M + Intel HD Graphics

2h-2h30

Asus N61JA

4400mAh - 48 Wh

95

165

18,7

53,7

Core i5 520M + Intel HD Graphics

2h-2h30

Asus N61JA

4400mAh - 48 Wh

-

-

18,7

53,1

Core i5 520M + Ati 5730

2h-2h30

Asus N61JA

4400mAh - 48 Wh

-

-

25,4

72,4

Core 2 Duo SU9400

5h-8h

Sony VGN TT

5400mAh - 59Wh

201

530

23,6

30,3

Pentium SU4100

5h-8h

Acer Aspire 1810Tz

5900mAh - 63 Wh

193

462

28,7

30,6

Neo X2 L335

2h-3h

MSI X430

2150mAh - 32Wh

95

144

24,1

32,4

Atom 330

3h30-4h

Eeepc 1201N

5600mAh - 63 Wh

192

263

26,6

35,6

Atom N450

6h-10h

Eeepc 1005PE

4400mAh - 48 Wh

340

565

7,8

14,4

en minutes C2D Core i7 / Core i5

CULV

NEO Atom

conso charge en watts

Si les CULV ne finissent pas devant du coté des performances, en autonomie ce sont les rois. A noter aussi que les batteries sont identiques entre les machines en Atom et en Core i7, ce qui confère à l’un une autonomie de rêve à l’autre une fonction onduleur.

64

I Hardware Magazine


Dossier

Un mot sur les machines testées Pour cette analyse du marché des notebooks, nous avons utilisé des machines de tous les formats, pour toutes les bourses et force est de constater que l’offre mobile est pléthorique. Plusieurs choses nous ont marqué durant les tests. Pour commencer, la consommation ridicule de l’Atom du 1005PE d’Asus. Rien à dire, c’est bluffant, voire irritant quand on teste l’autonomie. Ça semble increvable ! Mais que ce soit sur batterie ou sur secteur, dès que l’on veut faire la moindre chose un peu gourmande, il faudra prendre sur soi tant cette calculatrice de luxe manque de puissance. Vous parviendrez bien à finir vos compressions Rar et à retoucher vos images numériques, mais nous vous conseillons le yoga en parallèle. A l’opposé, nous avons le Core i7 720QM qui écrase tout sur son terrain, même sa batterie qu’il « fume » plus vite que son ombre. Après tout, c’est ce qu’on lui demande, de la performance avant tout. Impossible, même à prix d’or, de concilier superautonomie et top performances. Le nouvel i5 y prétend un peu, il est 15 % plus rapide qu’un Core 2 de même fréquence et consomme un peu moins, beau progrès. Quant à la concurrence, c’est une déception. Pour

l’offre Neo d’AMD, les performances ne sont guère plus reluisantes que celles de l’Atom, le processeur de la machine MSI reçue pour nos tests chauffe dans un vacarme ahurissant, quant à l’autonomie, c’est ridicule ! Pas mieux que les netbooks, moins bien que les CULV, dur dur de trouver une place pour cette plateforme. Concernant Vision (Premium et Ultimate), nous sommes plus enthousiaste, mais encore faut-il que les constructeurs jouent le jeu en évitant de réserver AMD aux machines bas de gamme. Concrètement, nous aimerions voir plus puissant que l’Athlon II et une ATi HD4650 pour nous permettre un véritable jugement. Les premières cartes de dernière génération, les séries HD5000, sont prévues sur les configurations à base d’Intel pour le moment… Finalement, le choix de la rédaction ne change pas. Ce sont les machines basse consommation d’Intel, les CULV, que nous vous recommandons. Elles répondent parfaitement à ce que devrait être un PC portable depuis longtemps : une machine autonome, suffisamment performante pour nous permettre de bosser dessus, peu encombrante et légère. Et c’est tout, pas besoin de fioritures pour tenter de remplacer notre PC fixe de compétition ! Non merci.

so ge

7

,3

4

4

Quelle plateforme acheter ?

7

1

4

3

6

4

6

4

Netbooks Atom N450 279 à 400 euros - 10", 1,1 à 1,4 kg Avec leur petit écran (max 10”), leur petit clavier, leur petite Autonomie 5 résolution et leurs faibles performances, les netbooks sont 4 Confort Performances juste bons à terminer une conversation MSN au fond du 3 2 mobilité travail/surf lit ou à checker le programme TV du soir. Dès qu’il s’agit 1 0 de travailler, non merci. Les netbooks ne sont pas chers, Confort à Performances il existe des machines en dessous des 300 euros. Il est travailler multimédia tentant de dire qu’ils ont un bon rapport qualité/prix, mais avec l’introduction des CULV de petite taille comme l’Acer Performances 1410 à 350 euros, nous ne voyons vraiment plus le moindre jeux 3D intérêt aux netbooks, même affublés de chipsets nVidia ION. L’Acer 1410 offre un écran de 11” avec une résolution de 1 366 x 768, nettement mieux que la majorité des netbooks en 1 024 x 600, définition imposée par Microsoft pour la licence Windows 7 Starter. Rien que pour ça, mieux vaut un petit CULV. Quelques modèles de référence : Asus 1005PE (à partir de 279 €), Acer Aspire One 532H (à partir de 279 €), MSI U135 (à partir de 329 €)

Hardware Magazine

I 65


CCULV 400 à 900 euros - 11 à 16", 1,3 à 2,5 kg Enfin, nous avons droit à des ultraportables à un bon prix. Ils offrent une excellente autonomie d’environ 6 h 30 pour la majorité des modèles à petit écran (11”), au moins 5 h 30 pour ceux en 14 et 15”, ils sont légers et fins mais ne souffrent pas de performances vraiment castrées comme les netbooks. Le processeur est clairement moins costaud que sur un notebook classique, mais pour surfer et travailler, vous ne sentirez pas de différence, surtout en dual core. Pour Autonomie la mémoire, ils ont en général 3 ou 4 Go, comme n’importe quel laptop 5 4 moderne. Le disque dur est généralement un 2,5" 5 400 tours qui n’est Confort Performances 3 pas des plus rapide, mais encore une fois, pour un portable qui vient 2 mobilité travail/surf 1 compléter ponctuellement l’usage de nos machines de guerre ATX, ça 0 suffit. Ne vous faites pas avoir par les CULV 15 et 16”, qui n’ont plus Confort à Performances vraiment grand-chose à voir avec le concept. Ils sont moins puissants travailler multimédia que les notebooks normaux, mais leur grand écran ponctionne Performances l’autonomie et impose un sac plus grand, bref, ils n’ont plus vraiment jeux 3D l’avantage attendu d’un tout petit portable de 11 à 13”. Quelques modèles de référence : Acer 1810Tz (11”, à partir de 499 €), Asus UL30A (13”, à partir de 599 €), Acer 1410T (11’’, à partir de 349 €)

Ultraportables 1 000 euros et plus - 10 à 13”, 1 à 1,3 kg

Autonomie Confort mobilité

5 4 3 2 1 0

Confort à travailler

Performances travail/surf Performances multimédia

Performances jeux 3D

Les ultraportables, au sens classique du terme, ne sont plus très nombreux. Ce sont des machines petites et légères, mais contrairement aux netbooks et CULV, ce sont des produits très haut de gamme. Ils bénéficient des derniers raffinements comme une coque en magnésium ou en carbone plutôt qu’un vulgaire plastique, une façon de réduire le poids. Alors que les netbooks sacrifient le plus souvent le lecteur optique, beaucoup d’ultraportables ont un SSD, un graveur intégré, un modem 3G malgré les petites dimensions. En termes de puissance brute, c’est exactement la même chose que les CULV, c’est-à-dire bien mieux que les netbooks, mais toute de même limité par rapport aux Core 2 et surtout Core i5/i7 des notebooks traditionnels. Ce sont les machines qui offrent le maximum d’autonomie, il n’est pas rare de dépasser 6 h quand certains, affublés d’une batterie haute capacité, flirtent avec les 9 h. Un tel luxe d’esthétisme et de mobilité se paie le prix fort, la majorité des ultraportables 11 ou 12” sont vendus à plus de 1 500 euros. Quelques modèles de référence : Sony Vaio TT (11”, à partir de 1600 €), Lenovo X301 (13”, à partir de 1900 €), DELL Adamo (13”, à partir de 1400 €)

Notebooks 14 - 15,6” « coeur de l’offre » 400 à 700 euros Core 2 Duo, Core i3 300, Core i5 500 ou AMD Vision Premium 15,6” 1 366 x 768, 2,8 – 3,2 kg environ

Autonomie 5

4 Si 60 % des ventes se font sur les diagonales Confort Performances 3 comprises entre 14 et 15”, ce n’est pas un hasard. Ces 2 mobilité travail/surf 1 configurations inondent souvent à tort les rayons avec les 0 composants les plus communs. Petit processeur, petite Confort à Performances carte graphique - quand il y en a une -, faible résolution par travailler multimédia rapport à la taille de l’écran et surtout, petite autonomie. Performances Leur seul argument est bien souvent le prix. Autant dire jeux 3D que ces machines ne sont pas viables dès lors que l’on veut jouer ne serait-ce que dans la résolution native de l’écran car la carte graphique est sous-dimensionnée. Et pour retoucher des photos, la puissance sera certainement suffisante mais c’est la définition de l’écran qui viendra tout gâcher. A vrai dire, depuis que les CULV existent, ces portables « compromis » ont perdu pas mal d’intérêt, car leur surplus de puissance n’est pas assez conséquent pour changer grand-chose aux usages que l’on peut en faire et, du coup, ils sont plus épais, plus lourds et moins autonomes, sans être moins chers.

Quelques modèles de référence : HP DV6 (15.6’’, AMD Vison Premium, à partir de 499 €), Acer Aspire 5740G (15.6’’, Core i3, à partir de 599 €)

66

I Hardware Magazine


Dossier

Notebooks 16 et 17” milieu de gamme 600 à 900 euros Core 2 Duo, Core i3 300, Core i5 500 ou AMD Vision Premium 17” 1 600 x 900, 3,5 à 4 kg environ

Si la définition d’un portable se résume à Autonomie l’objet de grande taille, discret mais gardant 5 4 les performances les plus proches d’un PC Confort Performances 3 2 fixe, autant prendre une machine de 16 à mobilité travail/surf 1 17”. Elles offriront un clavier complet avec 0 un pavé numérique. Confort à Performances Etant donné que l’upgrade sera impossible travailler multimédia ou presque, autant prendre une configuration Performances la plus musclée possible, que ce soit du jeux 3D côté du processeur en prenant un Core 2 Duo ou un Core i3/i5. Une plateforme AMD Vision Premium pourra aussi faire l’affaire. Dans les machines les plus entrée de gamme, on trouvera forcément des petites cartes graphiques à base de 5470 à 5730 par exemple, alors que sur les configurations plus haut de gamme, il sera possible de trouver une ATi 5830 ou une GT250M chez nVidia. C’est idéal pour jouer occasionnellement si les jeux ne sont pas les plus gourmands du marché. D’un point de vue confort bureautique, la diagonale de l’écran et les enceintes seront un peu meilleures (moins pires ?). En contrepartie, ces portables offrent une autonomie moyenne variant de 1 h 30 à 2 h 30. Quelques modèles de référence : Toshiba L555 (17.3’’, Core i5, à partir de 799 €), Asus K70AD (17.3’’, AMD Vision Premium, à partir de 549 €)

Notebooks 17» et au-delà haut de gamme 1 000 à 1 500 euros Core 2 Duo, Core 2 Quad, Core i5 500, Core i7 ou AMD Vision Ultimate 17,3”, 18,4” 1 920 x 1 080 ou 1 920 x 1 200, 4,5 kg et plus

Plus question de compromis ici mais de machines haut de gamme. On trouvera des Core i7 720QM, au moins 4 Go de RAM et une carte graphique de type GTX280M ou mieux une HD 5870 Mobility ! Les cartes graphiques que l’on trouve dans ces notebooks, malgré leur nom haut de gamme, valent tout juste les modèles milieu de gamme actuels de nos PC fixes, c’est-à-dire qu’on joue à peu près à tout en 1 920, tant que l’on n’est pas trop gourmand sur la qualité des détails et en se passant de tout filtre type antialiasing. Ceux qui choisiront une configuration nVidia auront Autonomie aussi l’opportunité d’opter pour un écran 120 Hz 5 4 et des lunettes afin de jouer en « vraie 3D » ! Confort Performances 3 2 Enfin, un dernier point, le stockage. Sur les configurations mobilité travail/surf 1 les plus haut de gamme, on peut trouver des machines en 0 RAID. Elles ne seront que plus réactives. Confort à Performances Enfin, si vous êtes hors de toute contrainte budgétaire, il sera possible de trouver travailler multimédia des machines en SLI ou en CrossFire, mais soyons honnête, ce ne sont plus des Performances notebooks. 5 kg le PC « portable », une alimentation de 150 à 180 W qui fait la moitié jeux 3D du poids de la configuration, on ne le déplace plus si facilement ! Quelques modèles de référence : Alienware M17x (17.3’’, Core i7, à partir de 1899 €), Acer 8942G (18.4’’, Core i7 720 + Radeon 5850, à partir de 1499 €), Asus G73AH (17.3’’, Core i7 720 + Radeon 5870, à partir de 1599 €)

Hardware Magazine

I 67


Comparatif

Faites taire votre carte graphique Rarement discret, plus souvent insupportable, le ventirad de nos cartes graphiques massacre régulièrement nos pauvres tympans. On peut néanmoins gagner en silence, avec des modifications logicielles sous Windows, en modifiant le BIOS ou en changeant carrément le radiateur. Et si c’est conseils ne suffisent pas, nous avons ajouté un comparatif de ventirads GPU. Benjamin Bouix

A

Ti et nVidia aiment nous vendre des cartes bruyantes. Du moins était-ce vrai il y a quelque temps. Désormais, les constructeurs font de Radeon Bios Editor permet de modifier le profil de ventilation de votre carte ATI, et la présence d’un graphe aide a mieux comprendre le comportement du ventilateur.

68

I Hardware Magazine

gros efforts sur leurs cartes haut de gamme, mais cela reste encore loin de la perfection. Voilà pourquoi nous pouvons avoir besoin de réduire le bruit émis

par les ventirads. Nous vous proposons trois étapes, en passant par des softs Windows, le BIOS de la carte graphique ou, pour trancher plus définitivement le problème, le changement de ventirad. La première astuce consiste à modifier la gestion du ventilateur. Et là, il y a plusieurs cas de figure. Commençons par le cas idéal où vous avez une carte au design de référence, c’est-à-dire utilisant un ventirad branché directement sur la carte graphique et équipé de quatre fils. Deux fils permettent d’alimenter le ventilateur, le 3e de connaître sa vitesse de rotation, alors que le 4e (le bleu, en général) sert pour le monitoring. Via ce fil, la carte va, en effet, envoyer une valeur qui déterminera la vitesse de rotation du ventilateur, qui dépend généralement de la température du GPU. Il s’agit donc d’un asservissement. Plus le GPU sera chaud, plus le ventilateur tournera vite pour évacuer la chaleur. D’ailleurs, si pour une raison quelconque, vous


aviez besoin que le ventilateur tourne à fond, retirer ce fil bleu sera souvent la méthode la plus efficace.

la carte graphique qu’on a envie de jeter par la fenêtre.

Monitoring et régulation Il existe deux types de régulations, mais ils sont pourtant très similaires. Le premier est le plus basique : dès que la température franchit un certain seuil, le ventilateur accélère. Par exemple, au-delà de 50 °C, il tourne à 40 %. C’est la raison pour laquelle certaines cartes graphiques donnent l’impression de passer des vitesses et ce, assez brutalement. Une autre méthode consiste à fixer une température idéale, et le ventilateur s’adaptera afin de maintenir cette température, c’est le mode dynamique. Quand les choses sont bien faites, c’est assez efficace. Mais parfois, le ventilateur est soit au ralenti, soit à fond et oscille entre deux états un peu trop souvent. Ces deux types d’asservissements reposent sur le principe de paliers et c’est bien là le problème. Si ces paliers sont bien étudiés, en fonction de l’environnement, de la carte et de son radiateur, on a un rendement optimum. Mais comme ce n’est pas toujours le cas (bien qu’en net progrès), on a parfois une carte silencieuse au repos, mais qui s’affole parfois pour évacuer le surplus de chaleur, et qui est vraiment trop bruyante en charge. L’exemple type de

Pour certaines anciennes cartes, le profil de régulation était simple : souffler au minimum au repos, et souffler au maximum en charge. C’est agréable sur le bureau, bien que cela réchauffe considérablement l’intérieur du boîtier, mais un peu moins lorsque vous essayez de jouer discrètement dans la nuit, sans que madame s’en rende compte. D’autres encore, et c’est la tendance actuelle, sont silencieuses dans la plupart des cas, mais s’affolent passé une certaine température, si bien que si vous n’avez pas de chance, à 1 °C près, votre carte graphique passera du stade « inaudible » à « infernal ». Ou tout simplement, le ventirad peut être inutilement bruyant, des températures un peu moins bonnes mais un niveau sonore plus supportable étant souvent un meilleur compromis.

Dans tous les cas, il vous faudra trouver l’outil idéal selon votre carte. RivaTuner est la référence, mais pour des cartes ATi, GPU Tools (onglet Fan) ou ATiTool (Fan control dans le menu déroulant) fonctionnent parfois mieux. Afin d’améliorer le comportement du ventilateur, il va falloir déterminer les seuils de bruit que vous acceptez au repos et en charge. Veillez bien à ce que la carte soit inaudible au repos, c’est possible dans 95 % des cas, sans atteindre de folles températures. En charge, selon votre carte graphique, il faudra sûrement faire des compromis, mais sachez que jusqu’à 70 °C, il n’y a pas de risques pour votre carte graphique. Pensez aussi à ne pas négliger l’étage d’alimentation qui peut, lui aussi, souffrir du manque de ventilation. Pour rapidement trouver un profil agréable, il faut appliquer la vitesse maximale que vous supportez pour une température de 10 °C inférieure à Meme si le design général reste le même, la nouvelle génération est plus épaisse, afin d’accroitre la surface d’échange. Il en résulte des performances en tout point meilleures, mais un prix plus élevé.

Hardware Magazine

I 69


Comparatif

Le profil de ventilation de notre 4850 HIS IceQ, pourtant discret et élaboré, se fait plus bruyant que notre profil personnalisé bien plus basique, et réalisé en quelques secondes à peine via GPU Tool.

celle du GPU au repos, et entrer la vitesse minimale pour rester sous les 70 °C en charge. Prolongez ensuite la courbe avec le même angle. Cette méthode générale permet d’améliorer les nuisances sonores sur beaucoup de cartes, mais un ajustement plus précis et particulier est parfois requis.

Modifier le BIOS Puisque vous avez trouvé un profil plus agréable, pourquoi ne pas l’insérer dans le BIOS de votre carte graphique : de cette façon, vous pourrez vous passer des utilitaires Windows et ce profil sera utilisé quel que soit le système

d’exploitation. Une modification à long terme, mais bien évidemment réversible. De plus, pour certaines cartes qui ne sont pas reconnues par les outils Windows, modifier le BIOS est parfois la seule solution pour faire taire le ventilateur. Mais rassurez-vous, c’est bien plus simple qu’il n’y paraît. Commencez par sauvegarder le BIOS de votre carte graphique, par exemple grâce au bouton Save dans GPU-Z. Ensuite, il faudra l’ouvrir avec l’utilitaire adéquat. NiBiTor (nVidia BIOS Editor) pour nVidia ou RBE (Radeon BIOS Editor) si vous avez une carte AMD/ATi. Avec RBE, allez dans l’onglet Fan settings et fixez Tmin et Tmax aux valeurs désirées, respectivement la température à partir de laquelle le ventilateur commence à souffler, et celle que vous ne voulez pas que le GPU dépasse (70 °C par exemple). Duty Cycle min correspond à la vitesse minimale du ventilateur, par exemple 20 %. C’est ici assez simple, notamment grâce au graphe qui résume bien la situation. Mais avec NiBiTor, les choses changent. Allez dans l’onglet Temperatures et cliquez sur Fanspeed IC. Remarquez que le petit encadré en bas de page vous donne une description précise du comportement du ventilateur, à défaut d’une courbe. Vous avez

Meme si Nibitor n’intègre pas de graphe, une description complète rend compte du comportement du ventilateur.

70

I Hardware Magazine

le choix entre le mode automatique et dynamique. Dans le mode automatique, Tcrit représente la température que vous ne souhaitez pas dépasser et au-delà de laquelle le ventilateur tournera à 100 % et Tmin la température à partir de laquelle il se déclenchera. Min Duty Cycle représente la vitesse de rotation minimale du ventilateur. TRange Slope est en fait la pente de votre droite. Plus l’angle sera élevé, plus la vitesse du ventilateur augmentera proportionnellement à la température. Enfin Thyst est un réglage fin qui évite au ventilateur de jouer au yo-yo entre deux réglages, fixezle à 5 °C. Le mode dynamique est bien plus complexe et pas plus performant, il vaut mieux s’en passer. Une fois toutes les modifications effectuées, il suffit d’enregistrer le BIOS, puis de le flasher. Reportez-vous à la page 38, la méthode de flashage y est décrite.

Underclocking 2D Le silence en 3D est tout relatif, dans la mesure où lorsque l’on joue, on a bien souvent la bande sonore du jeu pour couvrir les nuisances. C’est pourquoi la carte graphique peut éventuellement émettre un léger souffle, on saura s’en accommoder. Mais pour ceux qui travaillent avec leur ordinateur, qui regardent des films, ou qui le laissent allumé dans leur chambre, le moindre bruit peut devenir gênant. Or en 2D, la carte graphique ne sert strictement à rien. Cela paraît étrange, mais commencez par utiliser un économiseur d’écran classique, et non un de ceux livrés d’origine avec Vista ou Seven et qui font travailler la carte graphique, un comble ! Préférez éteindre votre écran sans utiliser d’économiseur. Mais la vraie astuce consiste à baisser fréquences et tensions en 2D. Ici, point de salut, modification de BIOS obligatoire. Certaines cartes permettent de régler les fréquences 2D avec des logiciels Windows, mais c’est assez chaotique, même RivaTuner a du mal sur certains modèles. De plus, modifier la tension à la baisse est systématiquement impossible. Et comme nous l’avons dit plus haut, c’est parfois nécessaire, en plus d’être confortable, alors autant faire d’une pierre deux coups et modifier, au passage, les paramètres 2D. Malheureusement, ici,


vu le manque de logiciels efficaces, on ne pourra pas tester sous Windows et se contenter d’appliquer ensuite sous Windows. Mais la manipulation est une fois encore assez peu risquée tant qu’on progresse sagement. L’underclocking, tout comme l’overclocking, connaît ses limites. Si vous passez en dessous du seuil que supporte votre matériel, il ne sera pas endommagé, mais pourrait produire des artefacts par exemple. Avec RBE, c’est assez aisé puisque tous les paramètres se trouvent au même endroit, dans l’onglet Clock Settings. Plusieurs profils sont présents et sont généralement explicités dans le menu déroulant au bas de la page. En général, ce sont les suivants : boot (ne pas modifier), veille, multimédia (décodage UVD) et 3D. Le mode veille est celui qu’il faudra modifier pour baisser les fréquences et réduire la chauffe, entraînant au passage une diminution de la vitesse du ventilateur. Vous remarquerez qu’une case Voltage est présente. Si elle est grisée, votre carte n’est pas compatible. Et même si vous pouvez modifier les valeurs, ce n’est pas toujours efficace. Mais cela vaut le coup de tester. Vous pourrez alors baisser la consommation et le dégagement calorifique en 2D, mais aussi améliorer la stabilité en 3D par exemple, afin de monter plus haut en overclocking. Avec NiBiTor, les mêmes conseils sont valables, mais tensions et fréquences se trouvent dans deux pages différentes. Respectivement, les onglets Voltages et Clockrates. Il arrive que certaines cartes ne bénéficient pas de profils 2D, comme les cartes équipées du G92 (8800GT par exemple). Aucune modification dans le BIOS n’est alors possible, vous pourrez seulement switcher d’un profil à un autre avec un utilitaire comme RivaTuner sous Windows. Au-delà d’un certain point, il peut être vraiment nécessaire de changer le radiateur d’origine. Il peut être soit trop bruyant, soit vraiment pas assez performant, ou vous pouvez ne pas avoir envie de farfouiller et préférer juste le changer. Avant l’achat, il faut quand même surveiller quelques critères. Evitez les radia-

teurs d’ancienne génération, comme le HR-03, aussi performants soient-ils. En effet, ces radiateurs qui se contentent de refroidir le GPU n’offrent pas un débit d’air suffisant (ou requièrent un ventilateur bien trop bruyant) pour les composants dits « annexes », comme les étages d’alimentation. Pourtant, au fil du temps, ces derniers ont tendance à chauffer de plus en plus. Se contenter de petits radiateurs collés sans aucune ventilation directe n’est donc pas une bonne solution. A ce propos, notez que 100 % des radiateurs alternatifs comprennent dans le bundle un jeu de petits dissipateurs à coller sur la RAM et sur les éléments de la carte qui chauffent le plus. Quoi qu’il en soit, la nouvelle génération de radiateurs est bien souvent équipée de deux ventilateurs, dont l’un souffle sur les autres composants afin de mieux les refroidir. Les radiateurs plus modestes sont donc à réserver à des cartes de gamme intermédiaire, ou des budgets vraiment réduits, bien qu’ils soient tout à fait capables de refroidir un gros GPU.

Quid de la compatibilité ? Les fixations des 5870 sont les mêmes que celles des 7900GT par exemple. Il s’agit du standard avec lequel sont compatibles tous les radiateurs, soit 53 mm d’entraxe, sauf certaines versions très spécifiques. Mais il n’en va pas de

même pour toutes les autres cartes. Excluons d’office celles qui n’ont que deux vis pour maintenir le radiateur, il s’agit souvent de très anciennes cartes, par exemple, les 6600 et X800. Ensuite viennent les cartes d’entrée de gamme comme les récentes GT220 ou les plus puissantes HD5700, qui ont bien quatre vis, mais dont l’entraxe est plus petit, 43mm. Enfin, il y a les cartes biGPU qu’il est impossible de refroidir avec la plupart des radiateurs alternatifs, à l’exception de la 4870 X2 pour laquelle Arctic Cooling vend un Accelero spécial. Les cartes biGPU nVidia n’ont, elles, pas cette chance. Reste enfin la catégorie des cartes graphiques assez puissantes pour jouer, et qui peuvent généralement tirer profit d’un changement de radiateur. Les anciennes 8800 en G80 (GTS 320 et 640 Mo, GTX, Ultra) ont un entraxe de 58,5 mm assez rarement supporté sur la nouvelle génération de radiateurs. Les cartes en GT200 (GTX260/275/280/285) ont toutes la même fixation (entraxe de 61 mm) et sont plus souvent compatibles.

Bien que peu bruyante, une GTX275 d’origine se fait entendre lorsque la pièce est totalement silencieuse. Mais en suivant nos quelques conseils, vous allez bientôt l’oublier.

La fixation de Scythe est très intelligente. Les pas de vis coulissent, de facon à rendre le radiateur compatible avec toutes les cartes graphiques. Une très bonne idée qu’on aimerait voir plus souvent.


Comparatif

Arctic Cooling Accelero Twin Turbo Pro Prix : 30 euros Compatibilité : toutes les cartes sauf GT200 Encombrement : 3 slots

Sorti quelques semaines avant les HD 5800, l’Accelero Twin Turbo Pro n’était alors pas compatible avec ces cartes, à cause des sorties vidéo qui prennent plus de place que sur d’autres cartes. Du coup, Arctic Cooling a revu sa copie et le radiateur affiche désormais une compatibilité avec toutes les cartes graphiques monoGPU hors G80 (8800GTX/Ultra/GTS320 et 640) et GT200 (GTX260/275/285). Pour ces cartes, il faudra se tourner vers l’Accelero GTX. Le gros avantage de ce radiateur, et c’est d’ailleurs la politique de la marque, c’est qu’il peut se brancher sur la prise de la carte graphique, la vitesse de rotation des ventilateurs sera donc adaptée à la température du GPU. Si ce mode ne vous convient pas, il est possible de le brancher en Molex, un adaptateur 5/12 V est livré. La fixation n’est pas des plus simple, il faut en effet présenter les quatre vis en même temps, mais elle a l’avantage d’autoriser des cartes juste au-dessus de la carte graphique, puisque rien ne dépasse du PCB comme c’est parfois le cas. Niveau performances, c’est tout à fait excellent, surtout compte tenu du silence royal. En charge, il est à peine aussi bruyant que le radiateur d’origine AMD en idle, c’est dire ! En 12 V, même si ce n’est pas sa raison d’être, il sait se montrer très efficace, tout en restant discret, à peine 42,5 dB. Ce mode n’apporte rien sur le GPU, mais permet de mieux refroidir les étages d’alimentation qui perdent alors 10 °C. Les plus : silence, branchement sur la carte graphique, rapport qualité/prix Les moins : fixation

72

I Hardware Magazine

Prolimatech MK13

Scythe Musachi

Prix : 55 euros

Prix : 35 euros

Compatibilité : toutes les cartes sauf G80

Compatibilité : toutes les cartes sauf GT200

Encombrement : 4 slots

Encombrement : 2 slots

Le MK13 est la grosse nouveauté de ce début d’année, comme chaque produit de la marque d’ailleurs. Il reprend le concept du T²Rad de Thermalright, mais en l’améliorant avec une surface d’échange accrue. Malheureusement, cela se traduit par un encombrement plus important, portant à quatre slots l’espace occupé par ce radiateur une fois installé. Si les performances sont bien au rendez-vous, avec des chiffres tout à fait exceptionnels, la note est assez salée (comptez au moins 70 euros pour le radiateur et les ventilateurs) et l’installation des ventilateurs est plus que chaotique. Il faut, en effet, installer une équerre PCI, sur laquelle se fixe une cornière qui va servir de support aux ventilateurs. On peut en installer un à quatre selon l’envie, tous en 92 mm, ce qui nous parait être la configuration idéale, mais vous pourrez aussi fixer toutes les tailles de ventilateurs (jusqu’à 140mm). En utilisant les Noctua NH-B9, nous avons pu obtenir un excellent compromis bruit/température, avec des températures toujours excellentes, sans aucune nuisance sonore perçue à 25 cm, mais l’ensemble coûte près de 80 euros ! C’est donc ce qui se fait de mieux actuellement, mais un watercooling ne serait-il pas plus intéressant ?

Le Musachi a déjà été testé dans nos colonnes, mais étant compatible HD5800, nous nous devions de le présenter à nouveau. Ce radiateur très fin occupe tout juste deux slots, c’est assez rare pour un produit de ce calibre. C’est très limite, mais ça passe. En revanche, les fixations au dos de la carte sont assez imposantes, et il sera compliqué de brancher une autre carte en haut de la première. Il est livré avec une connectique 3p et les adaptateurs Molex, les deux ventilateurs sont aussi régulés par des potentiomètres qui sont placés sur une équerre PCI. Ce radiateur ne fait pas dans la superperf, mais plutôt dans le silence et la praticité. Assez petit, compatible avec un grand nombre de cartes, il s’avère plutôt intéressant pour des cartes de milieu de gamme. Même s’il est possible de le laisser tourner au maximum tant il est silencieux, les performances sont assez moyennes.

Les plus : performances

Les plus : silence, fixation sans outil

Les moins : prix, fixation des ventilateurs

Les moins : performances, refroidissement VRM


+ F2 N S12B FLX ou 2 NF-P12

abonnement

nous vous offrons 2 ventilateurs noctua au choix

offert par nOCTUA et Tech.Age

VOUS - à compléter en capitales Mr

Mme

* offre valable jusqu’au 31/05/2010

24 numéros

LEs références des ventilateurs 120mm

Melle

NOM PRÉNOM ADRESSE

Je choisis : S12 FLX P12 J’ai bien noté que je recevrai mes ventilateurs sous 30 jours. Offre réservée à la France métropolitaine.

CODE POSTAL VILLE TÉLÉPHONE EMAIL

PAYS FAX

Le NF-S12B a été optimisé pour le silence et de faibles vitesses de rotation. Le NF-P12 est quant à lui le compagnon idéal des ventirads pour processeurs et le meilleur compromis puissance/bruit pour un boitier

Important si vous souhaitez recevoir une confirmation d’abonnement

Plusieurs moyens de paiement possibles : Prélèvements trimestriels

Paiement classique

Oui ! je m’abonne à Hardware Magazine pour Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix 12 numéros et PC Update pour 12 Numéros au prix spécial de 17 € par trimestre. spécial de 125 € (soit 16.6 € d’économies) Autorisation de prélèvement automatique (N°national d’émetteur : 528906)

MODE DE PAIEMENT

J’autorise Axiome à prélever tous les 3 mois la somme de 17 € pour un minimum de deux ans à compter du / /2010

Ci-joint mon règlement de 125 € par :

Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

Chèque bancaire ou postal (à l’ordre de AXIOME) Carte bancaire CB- VISA - Eurocard

Carte no.

Date d’expiration Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

/

(merci d’indiquer les 3 derniers numéros figurants au dos de la carte bleue) Nom du titulaire de la carte

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire)

Signature du titulaire de la carte

Date

Date (obligatoire)

Au terme de mon abonnement celui-ci se prolongera par tacite reconduction ; je pourrai alors l’interrompre par simple courrier en respectant un préavis d’un mois au minimum

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante :

Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE

Tarif valable pour la France métropolitaine uniquement. En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

noctua HM45


* offre valable jusqu’au 30/06/2010

abonnement OFFERT

Une clé USB 4 Go siglée !

VOUS - à compléter en capitales Mr

Mme

Melle

NOM PRÉNOM ADRESSE

en bonus :

les 50 premiers numéros en ebooks.

CODE POSTAL VILLE TÉLÉPHONE EMAIL

PAYS FAX

J’ai bien noté que je recevrai ma clé sous 30 jours. Offre réservée à la France métropolitaine.

Important si vous souhaitez recevoir une confirmation d’abonnement

Plusieurs moyens de paiement possibles : Prélèvements trimestriels

Paiements classiques

Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial Oui ! je m’abonne à Hardware Magazine pour de 17 € par trimestre. Soit une économie de 8 euros ! Le paiement 12 numéros et PC Update pour 12 Numéros au prix

s’effectuera en 8 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment.

spécial de 125 € (soit 16.6 € d’économies)

Autorisation de prélèvement automatique (N°national d’émetteur : 528906)

MODE DE PAIEMENT

J’autorise Axiome à prélever tous les 3 mois la somme de 17 € pour un minimum de deux ans à compter du / /2010

Ci-joint mon règlement de 125 € par :

Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

Chèque bancaire ou postal (à l’ordre de AXIOME) Carte bancaire CB- VISA - Eurocard

Carte no.

Date d’expiration Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

/

(merci d’indiquer les 3 derniers numéros figurants au dos de la carte bleue) Nom du titulaire de la carte

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire)

Signature du titulaire de la carte

Date

Date (obligatoire)

Au terme de mon abonnement celui-ci se prolongera par tacite reconduction ; je pourrai alors l’interrompre par simple courrier en respectant un préavis d’un mois au minimum

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante :

Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE

Tarif valable pour la France métropolitaine uniquement. En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

clé HM45


Scythe Setsugen

Thermaltake ISGC-V320

Thermalright T²Rad

Prix : 35 euros

Prix : 55 euros

Prix : 40 euros

Compatibilité : toutes les cartes

Compatibilité : toutes les cartes à partir des GeForce 7900 et Radeon 1900

Compatibilité : cartes monoGPU standard ou GT200

Encombrement : 4 slots

Encombrement : 3 slots

Encombrement : 2 slots

Ce Setsugen est pour le moins étonnant. Au lieu de placer le radiateur entre le ventilateur et le PCB de la carte, c’est ici le ventilateur qui est pris en sandwich. Il s’agit donc d’un modèle low profile dont Scythe a le secret, permettant de proposer un radiateur qui occupe deux slots à peine. Malheureusement, le radiateur dépasse largement le PCB de la carte en hauteur, 5 cm environ. Dans les grands boîtiers, ce ne sera pas un problème, mais dans ceux qui ont une taille plus modeste, ou équipés d’un ventilateur latéral, cela pourrait poser problème. Constat mitigé donc. Autre point fort, la fixation. Elle reprend le système sans outil du Musachi, mais cette fois, les vis étant sur des glissières, l’entraxe peut varier de 39 à 61 mm, rendant le radiateur compatible avec n’importe quelle carte graphique monoGPU ayant une fixation 4 points. En revanche, l’installation est légèrement plus délicate puisque les vis ne font que bouger. Niveau finition, c’est du Scythe. Aluminium pour les ailettes, cuivre pour les caloducs, avec un soin tout particulier apporté à la base. Sans être du haut de gamme, c’est tout à fait satisfaisant. Là où le bât blesse, c’est sur les nuisances sonores. Le ventilateur étant seul et très fin, il doit tourner assez vite pour assurer un bon débit d’air. Les ailettes serrées et la relative proximité du PCB génèrent alors beaucoup de bruit de souffle. Les choses étant bien faites, le ventilateur est régulé par le potentiomètre placé sur l’équerre PCI, de sorte qu’au minimum, il se révèle très silencieux mais franchement mauvais, moins bon que le radstock. Ce n’est donc pas un produit excellent, mais qui a le mérite de proposer un compromis intéressant et de ne pas être trop imposant.

Waow ! C’est le premier mot qui vient à l’esprit en découvrant ce radiateur. Là où tous les concurrents proposent un 120 mm, ou deux 92 mm, celuici propose deux 120 mm ! Il s’agit des ventilateurs livrés avec certains radiateurs de la marque, et ils sont donc assez plaisants : à peine audibles au maximum, tout à fait silencieux au minimum. Comme d’habitude, ils se branchent en Molex, mais un petit potentiomètre sur le fil permet d’ajuster leur vitesse. La fixation n’est pas compliquée, mais assez fastidieuse, puisque bon nombre d’éléments doivent être fixés. Les boulons pour serrer le radiateur sur la carte graphique sont assez grands pour pouvoir se passer d’outil, malheureusement cela interdit le branchement d’une carte sur le port directement supérieur à celui où vous brancherez votre carte. De plus, une fois que vous avez branché les prises d’alimentation de la carte graphique, les retirer est assez ardu tellement le radiateur dépasse autour du PCB. Enfin, la finition n’est peut-être pas excellente, mais les performances sont bien là, en silence, et pour 55 euros, là où les concurrents ne s’affichent guère moins cher, mais nécessitent l’achat de ventilateurs séparés. Un radiateur qui n’est certes pas parfait, mais qui est offre des performances de premier ordre.

Les plus : compatibilité, polyvalence

Les plus : performances, silence

Les moins : rapport performances/bruit assez moyen

Les moins : encombrant

Le T²Rad se fait vieux, mais il n’en reste pas moins excellent. Fidèle à son habitude, Thermalright livre ses produits sans ventilateurs, de sorte que vous pouvez choisir ce qui vous plaît, mais ce radiateur nécessitant deux 92 mm, il coûtera au final au moins 55 euros. Ça commence à être cher ! La finition est d’un très bon niveau, la base résiste très bien aux nombreux montages. L’installation des ventilateurs n’est pas des plus simple, mais est moins longue que celle du MK13. En revanche, là où ce T²Rad pèche, c’est sur la compatibilité. Deux versions existent : compatible GT200, version standard (que nous avons donc testée). Mais impossible d’acheter quelque part un kit pour adapter notre version, ce qui limite vraiment la compatibilité. Cela dit, les avantages par rapport au concurrent direct, le MK13, sont bien là. L’encombrement, la fixation des ventilateurs, sans oublier le prix, plus clément. Avec les mêmes ventilateurs, les températures sont moins bonnes, mais toujours intéressantes. Néanmoins, son positionnement est assez complexe. Il sait être extrêmement silencieux, mais est alors à la traîne sur le plan des performances. A l’inverse, avec un bon flux d’air, il semble plutôt convaincant, mais le MK13 en 5 V fait alors aussi bien mais en silence.

Les plus : performances avec un bon flux d’air Les moins : compatibilité ?

Hardware Magazine

I 75


Comparatif

Xigmatek Bifrost

Zalman VF2000 LED

Prix : 35 euros

Prix : 35 euros

Compatibilité : toutes les cartes sauf G80

Compatibilité : toutes les cartes sauf G80 et GT200

Encombrement : 3 slots

Encombrement : 3 slots

Le Bifrost ressemble beaucoup au Twin Turbo d’Arctic Cooling, mais avec quelques améliorations. La fixation tout d’abord, qui est mieux pensée, et qui le rend compatible avec les GTX200, mais aussi la base. Elle est en contact direct avec les ailettes puisque celles-ci servent de supports, et pas uniquement par le biais des caloducs. On retrouve d’ailleurs la technologie HDT (HeatPipe Direct Touch), si chère à Xigmatek, et la finition est ici très bonne. En outre, le câble est discrètement gainé, afin de pousser le look full black jusqu’au bout. On regrette juste la finition très plastique de la coque supérieure. Les deux ventilateurs, rassemblés sur une seule prise 3p sont assez bruyants en 12 V, et plus discrets en 5 V. Même si les températures sont bien meilleures que le radstock, les nuisances sonores viennent gâcher le tableau, et même si c’est le seul reproche qu’on ait à lui faire, on préférera donc le Twin Turbo d’Arctic Cooling, sauf si vous cherchez un radiateur noir.

76

I Hardware Magazine

De conception assez ancienne, ce VF2000 est un radiateur hybride CPU ou GPU. En dehors de l’aspect amusant de la chose, c’est une possibilité de recyclage intéressante. Compatible avec les cartes graphiques standard, il s’adapte aussi sur les sockets 775 et AM2/AM3, dommage que le support des nouveaux sockets Intel n’ait pas été ajouté. Les performances sont étonnamment bonnes pour un produit de ce type, mais cela s’explique en partie par des nuisances sonores plutôt élevées, même au minimum, et des ailettes très serrées, augmentant encore le bruit de souffle. La finition est très bonne et le bundle comprend un Fan Mate afin de gérer la vitesse de rotation du ventilateur, connecté en 3p d’origine. La fixation est assez facile, ne nécessitant aucun outil, mais on regrette que la compatibilité ne soit pas plus étendue. Quand on fait un radiateur qui peut se fixer sur un socket CPU, prévoir une fixation pour d’autres GPU n’est pourtant pas bien compliqué.

Les plus : compatibilité, look

Les plus : performances, fixation sans outil

Les moins : bruit

Les moins : silence


Performances Protocole

Nous avons donc sélectionné dix radiateurs, parmi les plus récents et les plus intéressants du marché, et les avons testés avec une 5870. Celle-ci n’est pas forcément celle qui chauffe le plus (la GTX280 gardant ce privilège) mais donne des résultats tout à fait représentatifs. Les températures ont été relevées sur le GPU, mais aussi sur l’étage d’alimentation afin de se rendre compte des différences qui existent entre chaque produit, et elles sont parfois énormes. Les petits radiateurs passifs, livrés avec chaque radiateur, ont été utilisés systématiquement. Nous avons aussi mesuré les nuisances sonores au minimum et au maximum, ce qui correspond à un branchement 5/12 V pour la plupart des ventilateurs, sauf pour le ventirad d’origine puisqu’il est régulé par la carte graphique. Température GPU (°C) 20

Zalman VF2000 LED 12v

21

Thermalright T²Rad 12v

Scythe Musachi

41

Arctic Cooling Twin Turbo Molex

38,5

42

Thermaltake ISGC‐V320

39

22

43

Scythe Setsugen max

24

Xigmatek Bifrost 12v

21,5

Zalman VF2000 LED 5v

44 45

22

Th Thermaltake ISGC‐V320 max lt k ISGC V320

Scythe Musachi max

21

Thermaltake ISGC‐V320 min

21

Arctic Cooling Twin Turbo 5v

24

Xigmatek Bifrost 5v

24

Thermalright T²Rad 5v

Scythe Setsugen

48

20

30

40

50

60

70

80

90

62

Xigmatek Bifrost 12v

31 31

Scythe Musachi max

32

Thermalright T²Rad 12v

33

Prolimatech MK‐13 12v

33

Zalman VF2000 LED 12v

33

Thermaltake ISGC‐V320 min

33

63 65 65 66 67 67

Scythe Setsugen max

36

A ti C li T i T b 12 Arctic Cooling Twin Turbo 12v

35

Xigmatek Bifrost 5v

35

Zalman VF2000 LED 5v

36

Arctic Cooling Twin Turbo PWM

36

Arctic Cooling Twin Turbo 5v

36

69 73 73 76 76 78

Prolimatech MK‐13 5v

38

Ventirad origine 5870

39

Scythe Setsugen mini

79 80 81

41

Thermalright T²Rad 5v

81

39

Scythe Musachi mini

87

38

charge

44,8 45 48

39 32

34

36

38

40

42

44

46

48

50

40

50

mini

80

repos

30

44,4

Pour rappel, le ventirad d’origine de la 5870 est réputé discret. Cela n’empeche pas la plupart des produits testés ici de faire mieux, sans pour autant sacrifier les performances.

59 63

Thermaltake ISGC‐V320 max

20

43,5

40,1

54

Température VRM (°C)

10

43 5 43,5

42

maxi

Le MK-13 distance tous ses concurrents, et même en 5v il est redoutable. Par rapport au radiateur d’origine, meme le moins bon de nos ventirad permet de gagner 17° en charge !

0

42,8

40,5

30

38

charge

42

53

Ventirad origine 5870 10

37,5

47

27

0

Prolimatech MK‐13

Ventirad origine 5870

29

Scythe Musachi mini

37,5

47

27

Scythe Setsugen mini

Thermalright T²Rad

41

Zalman VF2000 LED

46

23

40

39,5

Xigmatek Bifrost

45

20

Arctic Cooling Twin Turbo PWM

38,8

40

22

Arctic Cooling Twin Turbo 12v

Arctic Cooling Twin Turbo PWM

38

22

Prolimatech MK‐13 5v

Nuisances sonores (dB)

32

Prolimatech MK‐13 12v

60

70

80

90

100

repos

Pour bien refroidir l’étage d’alimentation, les ventirad dont les ventilateurs soufflent fort, et avec peu d’ailettes pour casser ce flux s’en sortent le mieux. Attention si la ventilation n’est pas suffisante…

Arctic Cooling L2 Pro Le L2 Pro est un ventirad très simple en aluminium, sans aucun caloduc et très compact. Proposé à 10 euros, ce n’est évidemment pas un radiateur que l’on mettra sur une 5870, mais nous avons tout de même souhaité l’inclure dans notre comparatif. Finalement, il s’avère qu’il n’a pas trop de mal à refroidir Le L2 Pro est un ventirad entrée de gamme très interessant, à le GPU, du moins le fait-il plus l’instar de l’Hyper TX3 pour les processeurs. silencieusement que le radiateur d’origine, mais ce sont les étages d’alimentation qui posent problème. En effet, le ventilateur n’offre pas de ventilation directe et notre carte se mettait alors en sécurité, dépassant allègrement les 100 °C sur ces composants. Cependant, il a le mérite d’exister et comblera les possesseurs de petites cartes graphiques, qui ne peuvent décemment pas opter pour un produit à 40 euros, quand la carte en vaut à peine plus. Il reprend les mêmes caractéristiques que le Twin Turbo, à savoir le même ventilateur silencieux, la connectique en PWM sur la carte graphique, et la fixation pénible. A part les anciens Accelero et quelques produits Akasa comme le Vortex, il n’a pas vraiment de concurrence dans cette gamme de prix, et son silence exemplaire fera la différence. Sur une 5770, il parvient à être légèrement plus silencieux que le ventirad ATi, tout en refroidissant bien mieux (15 °C de mieux). Et si vous cherchez plus de silence encore, il sera possible de le brancher sur la carte graphique où il ne fait alors plus un bruit.

Hardware Magazine

I 77


Comparatif

Conclusion P

our faire taire sa carte graphique, il existe donc de nombreuses petites astuces, mais la modification du BIOS sera toujours le moyen le plus efficace d’y parvenir. Certes, selon les cartes, le même résultat peut être atteint avec des modifications uniquement logicielles, mais il faudra alors recommencer à chaque changement du

système d’exploitation. Et pour toutes les autres, c’est souvent le moyen d’accéder à des paramètres comme la tension ou les fréquences 2D qui ne sont pas modifiables sous Windows. Une fois les modifications logicielles épuisées, ou si vous préférez ne pas vous attarder à chercher les réglages optimums, il reste l’ultime solution, le remplacement du ventirad, puisque c’est de lui que viennent les nuisances sonores. L’offre en radiateurs a bien évolué. Ils sont désormais équipés de deux ventilateurs, ce qui était l’apanage du T²Rad jusque-là. A ce propos, bien que ce dernier conserve des températures très bonnes, il est bien loin du nouveau roi, le Prolimatech MK13. La firme semble couronnée de succès cette année, après un excellent radiateur CPU et une pâte thermique. Ce radiateur

est certes plutôt cher, mais il offre des performances excellentes que seul un watercooling plus coûteux pourrait proposer. Même avec un flux d’air inaudible, il se permet de rester dans le haut du classement. C’est donc le must have si vous cherchez le meilleur refroidissement pour votre GPU. Les autres radiateurs se battent pour la seconde place. Et bien que le Twin Turbo Pro d’Arctic Cooling ne soit pas parfait, il offre un excellent compromis. Silence exemplaire, régulation par la carte graphique pour une gestion dynamique et petit prix. Le tout avec un look finalement assez agréable. Et puisque vous connaissez maintenant les astuces pour modifier la gestion du ventilateur de votre carte graphique, nul doute que ce radiateur sera l’arme absolue pour allier performances et silence.

Strider Plus Combinaison sans précédents de puissance rendement et flexibilité Spécification Modèle N°

Sortie Max. DC

Sortie Pic

Pic Pic Pic

Ventilateur intégré de 135mm possédant un excellent flux d'air sans bruit, parfait pour une utilisation au bureau ou à la maison.

78

I Hardware Magazine

Revendeurs:

Distributeurs:

Profondeur de 160mm définissant la nouvelle référence pour les alimentations haute puissance à câblage modulaire

wwww.silverstonetek.com



Pratique

benjamin bouix

Quel chipset pour

AM3 ? Le socket AM3 compte déjà six northbridges associés à quatre southbridges, donnant lieu à bon nombre de cartes mères aux excellents rapports qualité/prix. Quelles sont les puces les plus intéressantes ? Quels sont les pièges à éviter et les bonnes affaires ?

B

ien que les processeurs AMD ne soient pas les plus puissants, ils ont leurs inconditionnels, adorateurs de la marque, et ils bénéficient actuellement d’un

Les Phenom II et Athlon II sont des processeurs interessants pour leur rapport qualité prix, généralement meilleur que les équivalents Intel.

80

I Hardware Magazine

excellent rapport qualité/prix. Les premiers CPU dual core que nous recommandons, les Athlon II X2, se négocient autour des 50 euros, on trouve des modèles quad core à moins

de 100 euros, les Athlon II X4, et le plus rapide des processeurs AMD, le Phenom II X4 965 BE, au coefficient débridé, coûte environ 160 euros, c’est peu pour un quad core à 3,4 GHz. Mais ces trois familles de processeurs intègrent en grande majorité un contrôleur dual channel DDR3. Dès lors, un socket AM3 s’impose et il faut faire un choix de carte mère. Fort heureusement, il y a moins de références qu’avec les cartes mères Intel, mais il y a un grand nombre de chipsets. Overclocking, bureautique, jeu, home cinéma, à chacun son chipset AM3 !

Chipsets AM3 : la modernité avant tout Qui dit support de la DDR3, dit chipset dans l’ère du temps. Il n’est pas


?

6 chipsets pour le meme socket dont 3 avec GPU intégré. Les bonnes affaires ne sont pas forcément celles qu’on pense.

question ici de supporter des normes dépassées. SATA 3 Gb/s, différents niveaux de RAID, USB 2.0, HyperTransport 3, support des derniers processeurs en 45 nm, chipset son HD Audio et PCI-Express 2.0 sont de la partie. De cette façon, même les cartes les plus basiques, qui ne bénéficieront pas de contrôleurs additionnels, auront tout l’équipement nécessaire à une machine moderne et il est probable que ce socket perdure assez longtemps. En ce qui concerne le support du SATA 6 Gb/s, AMD a prévu de l’implémenter sur son prochain southbridge, le SB800. De cette façon, la bride que représentent les puces contrôleurs actuellement utilisées disparaîtra. Pour rappel, ces puces ne pouvant être reliées qu’à une seule ligne PCIExpress, la bande passante disponible est, au mieux, de 500 Mb/s, au lieu des 600 requis. Mais ce SB800 ne sera lancé que dans quelques mois, avec le haut de gamme 890FX, et tant que les disques SATA 6 Gb/s ne se démocratisent pas, cette norme n’est, pour le moment, pas primordiale. A moins d’être équipé du seul disque doté de cette interface et qui la requiert pour s’exprimer pleinement, le SSD à base du nouveau contrôleur Marvell, tel le Micron C300. Et pour l’USB 3.0, point de salut, il faudra se contenter de puces additionnelles, comme chez Intel. Gigabyte le propose déjà sur sa série A, ainsi que le SATA 6 Gb/s, les autres constructeurs devraient suivre.

ces lignes. Tout d’abord, 32 lignes sont dédiées aux cartes graphiques, permettant d’installer quatre cartes graphiques câblées en 8x. C’est tout simplement aussi bien que le chipset Intel vendu à prix d’or, le X58. L’organisation des slots est laissée à la discrétion du constructeur, mais seule la MSI GD-70 propose ces quatre slots sur un layout, compatibles avec des cartes double slot comme les HD 5870. Les autres cartes embarquent deux à trois slots, pour des configurations en 16/16 ou 16/8/8. De quoi bâtir une sérieuse machine de jeu ! Ensuite, 4 lignes PCI-Express 2.0 proviennent du southbridge. Bien qu’elles soient un peu moins performantes à cause d’une latence un

peu plus élevée, elles conviennent parfaitement pour l’utilisation de cartes son ou autres petites cartes PCIExpress. Enfin, 6 lignes viennent du northbridge, mais ne peuvent pas être utilisées par des cartes graphiques. Ce sont, en effet, les 6 lignes qui sont attribuées à l’IGP dans le cadre du 790GX, et on peut donc les relier à une carte contrôleur par exemple. Les cartes mères 790FX sont généralement pléthoriques. En overclocking aussi, c’est royal, la qualité des composants et des BIOS aidant, dépasser les 300 MHz de HTT est monnaie courante, pour peu que le processeur se prête au jeu. Vous pouvez néanmoins vous référer à notre comparatif dans Hardware Magazine n°40.

Le 790FX offre une gestion très souple des lignes PCI-Express, alors que les 790X/GX sont limités a 2 GPU (en 8/8).

Le roi 790FX Le 790FX est le chipset le plus haut de gamme chez AMD, mais le Texan a pris de bonnes habitudes, et les cartes dotées de ce chipset embarquent un équipement pléthorique, sans pour autant que leur prix crève le plafond, autour des 150 euros. Avec ce northbridge, vous avez absolument tout ce qui se fait de mieux chez AMD. Le nombre de lignes PCI-Express est tout simplement bluffant : 42 en tout ! Il convient néanmoins d’apporter quelques précisions quant au fonctionnement de

Hardware Magazine

I 81


Pratique Gigabyte est le seul constructeur à proposer l’USB 3.0 et le SATA 6Gb/s sur ses cartes AM3, en attendant le futur SB800 qui devrait gérer ces normes nativement. Ici, la 790FXTA-UD5 propose un équipement plus que complet, et est excellent en overclocking, mais le prix est un peu trop élevé par rapport a notre DFI, certes moins bien équipée.

Nos tests 790FX ont été réalisés sur une DFI Lanparty DK 790FXB-M3H5, notre référence actuelle. Cette carte embarque tout le nécessaire, mais ne joue pas la surenchère et conserve donc l’équipement de série du couple 790FX/SB750 : 6 SATA, du FireWire, du Gigabit, 3 slots PCI-Express, et un chipset Realtek ALC885. Certains lui reprocheront les 6 ports USB « seulement » et l’absence d’eSATA. Mais avec un overclocking au top et un bon layout, il fallait bien trouver comment réduire le prix à 135 euros. Nous n’hésitons donc pas à vous recommander cette carte, sans doute la plus poussée en overclocking, sans pour autant être ridicule sur les autres secteurs. 320 MHz de HTT, un BIOS parfait, un étage d’alimentation précis et robuste, des switchs on-board et une bonne connectique : il n’en faut pas plus selon nous. Seule la couleur jaune pourra en rebuter certains…

cartes FX sont généralement mieux équipées. Composants de meilleure qualité, BIOS plus développé, look plus sexy, etc. L’écart est flagrant entre la MSI 790FX GD-70 et la MSI 790GX GD-65 par

exemple. Bien que le lien de parenté soit présent, la GD-65 est bien moins qualitative avec son PCB marron et son layout un peu moins étudié. Quoi qu’il en soit, le 790X représente une excellente alternative au 790FX, et le 790GX est le chipset avec IGP le plus puissant chez AMD. Il s’agit d’une Radeon HD 3300 cadencée à 700 MHz. Attention cependant, plus puissant ne veut pas dire meilleur. En overclocking, c’est un peu moins bon que le 790FX, mais cela vient surtout d’une volonté de segmenter les gammes, car il n’y a pas de raisons à cela. Néanmoins, les 300 MHz de HTT sont presque atteints. Quant à l’IGP, nous n’arrivons pas à dépasser le gigahertz, mais on est tout de même stable à 960 MHz. Une fréquence accrue qui procure un gain de 20 % par rapport à la fréquence d’origine. Le 790X est un chipset assez interessant car plus abordable que le 790FX, mais hélas une seule carte mère semble encore en vente, il s’agit de la 790XT

790GX et 790X, les jumeaux Les 790GX et 790X sont très similaires au 790FX. Ou pour être exact, ce dernier est une version améliorée des deux premiers. Le 790GX embarque un IGP, relié au northbridge par 6 lignes PCIExpress 2.0, alors que le 790X en est dépourvu. Ce sont précisément les lignes PCI-Express qui permettent de distinguer ces chipsets. 32 + 6 lignes pour le FX, 16 + 6 lignes pour les GX et X. Alors si vous n’envisagez pas de faire plus que du CrossFire à deux cartes, ces chipsets conviendront parfaitement. Autre différence, voulue ou non par AMD, mais qui n’est que du marketing, les

82

I Hardware Magazine

4 slots PCI-Express 2.0 afin de gérer jusqu’à 4 GPU cablés en 8X, la MSI 790FX GD70 est la seule carte mère à proposer un tel layout !


r M3, er ces opose un ent en evé par pée.

UD4, au demeurant tout à fait performante. De l’autre coté, nous avons utilisé la MSI 790GX GD-65. Cette carte, en Winki edition, un petit module façon Express Gate chez Asus, qui se branche sur une prise USB Interne, et qui permet de booter un OS basé sur Linux en quelques secondes afin de pouvoir effectuer quelques tâches basiques (Internet, VoIP, musique), nous paraît une carte idéale en 790GX, l’Hybrid CrossFire permettant d’utiliser l’IGP en 2D et un GPU dédié en 3D. Mais comme vous allez le voir, le GX à beau être le plus puissant des IGP, ce n’est pas forcément celui qui est le plus adapté.

785G pour le home cinéma Testé dans PC Update n°43, le 785G est une évolution du 780G. Retour en arrière donc. Le 780G est équipé d’une Radeon HD3200, soit le même core que le 790GX, le RV610, mais cadencé à 500 MHz au lieu de 700. Ils embarquent tous deux les mêmes fonctions, l’UVD de première génération et supportent DirectX 10. Mais là où le 790GX est compatible AM2 et AM3, le 780G n’utilise que le socket AM2. En outre, ayant été remplacé par le 785G, il n’est même plus en vente. Mais il était nécessaire de l’introduire pour bien comprendre la suite. Car si le 780G était une version moins puissante du 790GX, la donne change désormais avec le 785G. Celui-ci embarque un RV620, ou HD4200. Derrière ce nom pompeux, il n’y a pas beaucoup de

Le 785G cumule tous les avantages qu’on peut attendre d’un chipset AM3 : il ne se limite donc pas seulement à l’usage home cinéma et conviendra dans bon nombre de machines.

changements, mais ils changent tout. Il s’agit, en effet, du même core, toujours à 500 MHz donc aussi puissant, mais il embarque les fonctions inaugurées sur les HD4000, principalement l’UVD 2 et DirectX 10.1. De quoi envisager plus sereinement les films HD et des rares jeux DX10.1. En outre, les cartes en 785G, plus modernes, embarquent de meilleurs chipsets son, comme l’ALC889 de notre Gigabyte 785GTM UD2H ou de la MSI 785GM-E65 , idéal pour les amateurs de son de qualité qui peuvent alors profiter pleinement de la qualité audio accrue des pistes sons DTS-HD et Dolby TrueHD des BluRay (à condition evidemment d’avoir un ensemble d’enceintes haut de gamme capable de restituer fidelement une telle qualité audio). Et vu qu’aucun de ces chipsets ne permet de jouer correctement à des jeux récents, l’IGP à 700 MHz du GX ne se justifie même pas, surtout que notre 785G était stable à 910 MHz. Et même en overclocking processeur, le nouveau venu est meilleur avec un impressionnant 310 MHz HTT en étant stable ! De quoi propulser n’importe quel CPU AM3 plus loin que ne le permettra un refroidissement conventionnel. Le 790GX ne

garde que la gestion plus souple des lignes PCIExpress, mais qui va installer un CrossFire sur une carte destinée à un HTPC ?

770 et 760G, l’entrée de gamme Le 770, qui était une version sans IGP du 780, est donc tout aussi proche du 785G. Son prix est légèrement plus bas, avec des cartes mères proposées vers les 70 euros, le destinant à des machines d’entrée de gamme. Idéalement couplé à un petit GPU et un Athlon II (dual, tri ou quad core, selon votre budget), il remplira parfaitement son office. Une partie des cartes 770 est au format µATX, mais d’autres sont un peu plus étroites que des cartes ATX. On a l’impression d’une carte très cheap, mais il faut se dire que cela fait sensiblement baisser le prix. Ne nous plaignons donc pas. Côté overclocking, en revanche, c’est plus limité, nous avons atteint 275 MHz HTT en

Cette 785GTM UD2H est la référence en 785G selon nous, talonnée de près par la MSI 785GME65. Proposées autour de 80€, elles peuvent absolument tout faire, de la configuration Home Cinema a celle de gamer overclockée.

Chipset

Finesse de gravure

Lignes PCIExpress 2.0

Southbridge associé

Nom de code

IGP

790FX

65 nm

16/16, 16/8/8 ou 8/8/8/8+ 6

SB750

RD790

Aucun

790GX

55 nm

16 ou 8/8

SB600, SB750

RS780D

RV610 (HD3300) @ 700 MHz (DX10, UVD, HDMi 1.2)

790X

65 nm

16 ou 8/8+6

SB700, SB710, SB750

RD780

Aucun

785G

55 nm

16

SB750

RS880

RV620 (HD4200) @ 500 MHz (DX10.1, UVD2, HDMi 1.3)

780G

55 nm

16

SB700, SB710

RS780

RV610 (HD3200) @ 500 MHz (DX10, UVD, HDMi 1.2)

770

65 nm

16 + 6

SB600, SB700, SB710, SB750

RX780

Aucun

760G

55 nm

16

SB700, SB710

RS780L

RV610 (HD3000) @350 MHz (DX10, HDMi 1.2)

Hardware Magazine

I 83


Pratique Southbridge

Ports USB 2.0

Ports SATA

RAID

Finesse de gravure

Lignes PCIExpress 1.1

Autres

SB750

12 USB 2.0 + 2 USB 1.1

6 (+AHCI 1.1)

0, 1, 5, 10

55 nm

4

ACC + Overdrive 3.0

SB710

12 USB 2.0 + 2 USB 1.1

6 (+AHCI 1.1)

0, 1, 10

55 nm

4

ACC

SB700

12 USB 2.0 + 2 USB 1.1

6 (+AHCI 1.1)

0, 1, 10

55 nm

4

ACC

SB600

10 USB 2.0

4

0, 1, 10

130 nm

4

N/C

Realtek ALC889, un des meilleurs chipsets son embarqués.

Et les southbridges ?

La 760GM-E51 est une carte idéale pour un PC de bureautique, proposée à 60€ elle permet de batir une plateforme récente en ajoutant un Atlon II X2 et 4 Go de DDR3.

84

étant stable, ce qui vous permettra donc d’emmener un Athlon II X4 620 à près de 3,6 GHz. Sans que ce soit vraiment exceptionnel, vous ne serez probablement pas trop bridé par le HTT lorsque vous déciderez d’augmenter la fréquence de votre CPU. Bien que ce soit frustrant d’être limité, 100 MHz ne changeront de toute façon pas grand-chose. Enfin, dernier northbridge de ce dossier, le 760G. On pourrait presque considérer qu’il s’agit d’un 780/785G sans les fonctions de vidéo avancées et légèrement moins puissant. On retrouve, en effet, un IGP à 350 MHz sans UVD, le cantonnant donc à de l’affichage 2D, la 3D et le décodage de flux HD étant impossibles. Néanmoins, vous pourrez toujours utiliser la puissance du processeur pour lire vos Blu-Ray, un Athlon II X2 étant assez puissant pour cette tache. Il supporte les trois connectiques standards VGA, DVI et HDMI. L’overclocking est comparable au 770, 280 Mhz stable cette fois. Quoi qu’il en soit, bien que ce soit de l’entrée de gamme très basique, à 60 euros, les cartes en 760G valent le détour, selon l’utilisation que vous ferez de votre PC. Notre MSI 760GME51 de test s’est d’ailleurs très bien comportée et est meme équipée d’un

I Hardware Magazine

Là où Intel impose un jeu de composants northbridge + southbridge, AMD laisse le choix aux constructeurs, à quelques contraintes près, marketing oblige. Il est donc possible d’associer à peu près n’importe quelles puces entre elles. Sans surprise, entre les SB600, SB700, SB710 et SB750, c’est le 750 qu’il faudra privilégier. Cependant, les différences sont infimes, de sorte que tous les SB conviendront, à l’exception du SB600. Issu d’une ancienne génération, il consomme plus, ne contrôle que 10 ports USB (au lieu de 14) et 4 ports SATA au lieu de 6. Les trois autres se valent. Le SB710 apporte l’ACC, ou Advanced Clock Calibration. Ce paramètre était primordial pour l’overclocking des Phenom premiers du nom, mais n’est plus aussi capital de nos jours. Il servira toutefois à réactiver les cores invisibles des Athlon II X3 ou des Phenom II X2 et X3. Le SB750 apporte, quant à lui, le support du RAID 5 et de l’Overdrive 3, si vous pratiquez l’overclocking de façon récurrente, cela pourrait bien vous être d’un grand secours pour tout régler sous Windows. Le SB800 devrait, quant à lui, être compatible avec le 785G uniquement, à condition que les constructeurs se donnent la peine de mettre à jour leurs cartes.

Le choix de la rédaction Au final, que devez-vous acheter ? Parmi tous ces chipsets, il y en a un qui sort vraiment du lot, c’est le 785G. Il cumule absolument toutes les qualités des autres chipsets : overclocking, fonctions HD avancées, support des derniers southbridges, équipement récent. Sa seule bride est d’être limité à un seul slot PCI-Express 16x pour

310 MHz de bus avec un 785G. De quoi propulser un Athlon II X2 240 à plus de 4.3 GHz ! Pas de doute, c’est un chipset qui en a dans le ventre.

cartes graphiques, ce qui ne gênera que très peu d’utilisateurs. C’est finalement un chipset qui conviendra à tous les usages. Le 790GX apporte une gestion plus souple des lignes PCI-Express, mais son IGP est moins intéressant, pour un prix qui est pourtant plus élevé. Même constat pour le 790X, mais qui n’a même pas d’IGP. Bien que ça ne serve pas si vous utilisez un GPU dédié, pourquoi se priver d’une porte de sortie pour recycler votre carte mère d’ici quelque temps ? Et ce n’est pas le 770 qui changera la donne, il est finalement trop proche du 785G en termes de prix, sans pour autant briller par un meilleur rapport qualité/prix. Le 790FX trouve son intérêt auprès des plus extrêmes d’entre nous. Soit par son overclocking un peu meilleur, soit par son grand nombre de lignes PCI-Express qui permettra d’installer jusqu’à quatre cartes graphiques, soit par son orientation plus haut de gamme qui lui vaut un équipement des plus complet. Mais il n’est certainement pas la seule solution valable pour qui veut s’adonner aux joies de l’overclocking. Et enfin, le 760G satisfera ceux qui se limitent aux usages les plus basiques de leur PC : écouter de la musique, surfer sur Internet, faire quelques menues tâches, le tout épaulé par un processeur d’entrée de gamme tel un Athlon II X2 240, ramenant le prix de la plateforme à à peine plus de 100 euros. Mais attention, pour un tel usage, une plateforme H55 + Pentium G sera, certes, un peu plus chère, mais proposera des performances bien meilleures, que ce soit en HD ou en puissance processeur.


Son nouveau cœur ne bat que pour vous !

Avec ou sans

Et si vous regardiez votre alimentation sous un nouvel angle ? C’est en quelque sorte le cœur de votre PC ! Comme lui, source d’énergie pour le corps humain, les STRAIGHT POWERE7 fournissent à votre configuration la puissance dont elle a besoin, avec efficacité et fiabilité. ● Multi cartes graphiques ; jusqu’à 4x PCIe ● Certification 80 PLUS® Bronze ; rendement électrique atteignant 89% (230V) ● Faible consommation en mode veille ; moins de 0.5W ● Ventilateur ultra silencieux SilentWings de be quiet! ● Quadri rail pour plus de stabilité (à partir de 450W) ● Elégance du design et qualité de la finition

www.be-quiet.fr SPE7 210x287c5 fr.indd 1

16.10.2009 14:22:38


Pratique

Garder

Windows 7 et Vista

en forme ! Manuel DaCosta

Il existe de nombreuses raisons pouvant expliquer les ralentissements de Windows, sans oublier les éventuels dysfonctionnements du système, à commencer par nos mauvaises habitudes. Plutôt qu’une fastidieuse réinstallation, une bonne maintenance évite que les performances de votre système ne se détériorent au fil du temps.

W

indows nous parait toujours tout fringuant quand il est fraichement installé. Malheureusement, au fil du temps, le système s’alourdit, se montre moins réactif et moins performant au point d’envisager une réinstallation complète de Windows. C’est gênant avec Vista qui n’a pas besoin de çà et moins perceptible avec Seven mais pourquoi se priver de confort et de performances ? Pourtant, plutôt que de perdre de nombreuses heures à réinstaller, puis paramétrer votre système et vos applications, il existe différents outils capables de restaurer et d’optimiser les performances de Windows.

Un nettoyage de printemps Au fur et à mesure de l’utilisation de Windows, le système mais aussi les différentes applications installées

Caché par défaut, le répertoire Temp est situé dans le répertoire utilisateur de Windows et enregistre tous les fichiers temporaires.

86

I Hardware Magazine

génèrent des fichiers temporaires qui ne sont pourtant pas indispensables et qui occupent inutilement de l’espace disque : fichiers temporaires, cookies, historique de navigation et des téléchargements, formulaires d’informations personnelles, liste des documents récents, Jump lists, rapports d’erreur Windows, fichiers de vidage mémoire des erreurs, pressepapiers, etc. Comme ses prédécesseurs, Windows 7 intègre un outil de nettoyage se trouvant dans le menu Démarrer, Accessoires, puis Outils système et permettant de supprimer tous ces fichiers inutiles. Cet outil se limite toutefois aux fichiers indésirables du système et ne prend donc pas en compte les applications tierces. Pour supprimer le superflu généré à la fois par le système et vos applications, Ccleaner, a notre préférence. Très simple, il se décompose en quatre modules. Le premier appelé nettoyeur permet de sélectionner les types de fichiers à supprimer (historique, cookies, cache, etc.) en fonction du système et des applications (Nero, Office, logiciels Adobe, navigateurs Web alternatifs, Media Player Classic, Alcohol 120 %, Windows Defender, etc.). Le module Registre permet de vérifier l’intégrité de la base des registres et de détecter les erreurs en détaillant chacune d’elles : type de problème, de donnée et clé du registre. Vous pourrez alors choisir de corriger le problème en fonction des informations à votre disposition et


A l’image de Glary Utilities et d’Advanced SystemCare, Ccleaner est capable de nettoyer et vérifier l’intégrité de la base des registres Windows.

L’outil de nettoyage intégré à Windows ne supprime que le superflu lié au système.

vous rencontrerez le plus souvent des clés de programmes obsolètes et des références d’installations invalides qui se rapportent généralement à des programmes qui ont été désinstallés. Le module Outils permet de gérer les points de restauration système, de désinstaller les applications et de gérer les programmes s’exécutant automatiquement lors du démarrage. Alors que le dernier module intitulé Options permet tout simplement d’adapter le logiciel à ses besoins en automatisant, par exemple, le nettoyage lors de chaque démarrage Windows, en ajoutant des dossiers et fichiers à nettoyer (comme le dossier Téléchargements), ou encore en sélectionnant les cookies que vous souhaitez exclure du nettoyage. Pour compléter le nettoyage, nous vous recommandons d’analyser périodiquement votre système à l’aide d’un antivirus et si vous ne voulez pas vous compliquer la vie, Internet Security Essentials, addon gratuit pour Windows

de Microsoft, suffira largement. Tout aussi important, installez un antispyware pour éradiquer les malwares pouvant être présents dans votre système tel que Spybot Search & Destroy (www.safer-networking.org). Enfin, pour récupérer de l’espace et faire son ménage, le logiciel gratuit NoClone (http://classic.noclone.net/fr.asp) recherche les fichiers en doublon. NoClone effectue, pour cela, une vérification bit à bit, ce qui permet de supprimer intelligemment les doublons, sans prendre en compte le nom des fichiers. Enfin, le logiciel portable SpaceSniffer (www.uderzo.it (http://www.uderzo.it)) n’est quant à lui pas indispensable mais très pratique pour analyser et afficher la structure du contenu de votre disque. Vous pourrez identifier visuellement et donc rapidement les fichiers et autres répertoires qui occupent inutilement de la place sur votre disque. Entière-

Ccleaner supprime tout le superflu lié au système mais aussi aux applications tierces courantes comme Firefox, Safari, Nero, ou encore Windows Media Player Classic.

ment paramétrable, vous pourrez vous concentrer sur un type de fichier ou leur ancienneté.»

Gérer les programmes s’exécutant au démarrage L’autre cause récurrente des ralentissements de Windows est caractérisée par le nombre toujours croissant de programmes s’exécutant automatiquement au boot. Ce qui augmente non seulement le temps de démarrage en plus d’utiliser inutilement des ressources. Il n’est, par exemple, pas utile de démarrer automatiquement des logiciels tels qu’ACDSee, Nero, QuickTime, ou encore l’assistant d’aide iTunes (iTunes Helper). Certains sont même totalement inutiles comme certains agents de la barre de tâche, un bon tri s’impose donc. Pour consulter la liste des programmes s’exécutant au démarrage, vous pouvez utiliser l’utilitaire de configuration système en ouvrant l’invite de commandes Exécuter, du menu Démarrer, pour y saisir la commande msconfig, avant d’ouvrir l’onglet Démarrage. Décochez la case des programmes que vous ne souhaitez pas exécuter automatiquement, puis appliquez les changements. D’autres logiciels permettent de faire de même, comme ceux que nous avons cités plus haut, mais notre préféré est sans aucun doute Autoruns. Un logiciel distribué gratuitement par Microsoft et développé par Sysinternals (http:// technet.microsoft.com), qui s’avère très complet, en affichant non seulement les programmes s’exécutant au démarrage, mais également les services, les barres d’outils tierces, ou encore les tâches planifiées.

“ La maintenance est la clé pour assurer une plus longue longévité à votre système.” Hardware Magazine

I 87


Pratique

La fragmentation

Glary Utilities est une alternative gratuite à Ccleaner.

Si le nettoyage est indispensable pour maintenir un système, il contribue également à la fragmentation du disque sur lequel est stocké votre système. Pour mieux comprendre, Windows enregistre sur le disque les données les unes à la suite des autres. Si bien qu’à chaque désinstallation de programmes, de pilotes, suppression de documents ou nettoyage, des « trous » se forment sur le disque. Des trous qui seront comblés par l’enregistrement de nouvelles données et qui marqueront une rupture dans la continuité et le stockage des données. Ce qui obligera alors les têtes de lecture du disque dur à parcourir plus de chemin pour retrouver les données et ce qui se caractérise au fil du temps par une dégradation des performances. Il est, par conséquent, conseillé de défragmenter régulièrement son disque, en passant par l’outil intégré à Windows

Ccleaner désactive directement les clés correspondant à chaque programme s’exécutant au démarrage dans la base des registres Windows.

(menu Démarrer, Accessoires, Outils système) ou par n’importe quel autre logiciel spécialisé à l’image d’Acronis Diskeeper (www.diskeeper.com) qui est bien plus abouti, comme nous l’expliquons dans notre dossier optimisation. Notons aussi, au passage, que la défragmentation est inadaptée aux disques SSD.

Libérer de l’espace disque Pour aller un peu plus loin, il convient de souligner que les effets de la fragmentation augmentent en fonction de l’espace libre restant sur votre partition système. Dès lors, si vous n’avez pas prévu une partition système suffisamment grande, vous serez très vite confronté à des problèmes de mémoire virtuelle mais également à Vous avez du mal à ranger vos fichiers ? Voici le soft idéal pour repérer où il y a de la place à gagner !

88

I Hardware Magazine

Accessible via la commande msconfig, le configurateur système permet de gérer les programmes s’exécutant au démarrage de Windows.

des problèmes de défragmentation. Car quel que soit votre outil, ce dernier ne peut fonctionner correctement que s’il dispose d’un minimum d’approximativement 20 % pour pouvoir déplacer et réorganiser les données sur la partition. Pour résoudre ce problème, vous pourrez commencer par déplacer la mémoire virtuelle sur un deuxième disque et en début de disque. Une procédure que nous détaillons dans notre dossier optimisation. Il est également possible de déplacer la table d’indexation (par défaut, C:\ProgramData\Microsoft) qui, pour rappel, est un mécanisme « invisible » de référencement des fichiers et programmes optimisant les temps de recherche, sur un autre disque. L’idéal est de déplacer cette table d’indexation en début de disque, sur un second disque dur. Pour y parvenir, ouvrez les options d’indexation dans le panneau de configuration, puis cliquez sur le bouton Avancé, ainsi que sur le bouton Nouveau de la rubrique Indexer l’emplacement. Il ne vous restera plus qu’à indiquer le chemin de la nouvelle destination, avant d’appliquer les changements qui prendront effet lors de la prochaine ouverture de session.


Développé par Sysinternals, le logiciel Autoruns permet de gérer les programmes s’exécutant au démarrage mais aussi les barres d’outils des navigateurs et bien d’autres choses encore.

En cas d’espace disque libre insuffisant sous Windows, il est possible de libérer de la place en déplaçant la table d’indexation sur un autre disque.

La défragmentation est une étape indispensable dans la maintenance du système.

Vous pourrez également choisir de redimensionner votre partition système pour récupérer de l’espace disque. Une opération qui n’est pas sans risque et pour laquelle nous recommandons de créer une image de sauvegarde, afin de pouvoir restaurer le système en cas de problème, à l’aide par exemple du logiciel Acronis True Image. Depuis Windows Vista, il est possible de redimensionner les partitions à chaud, en passant par le gestionnaire des disques qui est accessible à l’aide d’un clic droit sur le Poste de travail, et l’option Gérer. Il suffit alors de sélectionner la partition à modifier et de choisir l’option Etendre le volume, pour augmenter la taille de votre partition et à condition qu’il y ait suffisamment d’espace libre sur le disque pour le faire,

ou l’option Réduire le volume, dans le cas où votre partition système serait trop grande.

Le moniteur de fiabilité enregistre chaque défaillance du système, des applications et échecs divers.

Surveiller l’état des disques Contrairement aux disques SSD, les disques durs sont composés de parties mécaniques très sensibles aux chocs et aux pannes. Dans le cadre de la maintenance, il est donc utile de régulièrement surveiller l’état de son disque système, à l’aide d’un outil comme CrystalDiskInfo (http://crystalmark. info) qui est gratuit et qui, grâce à la technologie SMART, permet de prédire toute défaillance mécanique comme un bloc ou un secteur défectueux ou encore une température trop élevée. Ce qui entraîne généralement des erreurs en écriture et lecture provoquant des erreurs d’applications ou système.

Edité par Acronis, Disk Director permet de redimensionner à chaud n’importe quelle partition, mais aussi d’effectuer un formatage de bas niveau en tâche de fond ou encore de récupérer une partition endommagée.

Hardware Magazine

I 89


Pratique Les points clés pour redonner un second souffle à Windows • Supprimer le superflu à l’aide de l’outil de nettoyage Ccleaner • Eradiquer les malwares avec SPybot Search and destroy ; • Désinstaller les programmes inutilisés • Effacer les fichiers inutiles avec Noclone et SpaceSniffer • Désactiver les programmes inutiles s’exécutant automatiquement au démarrage avec Autoruns • Défragmenter régulièrement votre disque avec Diskeeper ; • Surveiller régulièrement la stabilité du système à l’aide du moniteur de fiabilité intégré à Windows ; • Surveiller l’état de santé de vos disques avec CrystaldiskInfo.

CrystalDiskInfo est, par conséquent, un excellent indicateur qui vous préviendra de toute anomalie, comme un nombre anormalement élevé de réallocations de secteurs, de secteurs instables, d’erreurs d’écriture ou encore d’erreurs d’accès des têtes. Vous aurez ainsi le temps de réagir en sauvegardant vos données, avant de remplacer le disque. Avant de condamner un disque défectueux en apparence, tentez un formatage de bas niveau en démarrant votre PC à l’aide du disque Ultimate Boot CD (www.ultimatebootcd.com) qui intègre les outils de diagnostic et de maintenance capables de le faire. Une opération qui permet de réinitialiser la

La restauration du système peut résoudre de nombreux problèmes si les méthodes de maintenance restent inefficaces.

Grâce aux journaux d’événements Windows, n’importe quel utilisateur est, en théorie, capable de trouver une solution adaptée à son problème dans la base des connaissances de Microsoft ou sur divers forums.

90

I Hardware Magazine

surface des plateaux du disque et qui peut être réalisée à chaud à partir d’un logiciel comme Acronis Disk Director et de la fonction effacer.

Résoudre les problèmes de Windows 7 et Vista Malgré toutes les précautions qu’il est possible de prendre avec des logiciels de protection antimalware, il est toujours possible de rencontrer divers dysfonctionnements système, les causes pouvant être multiples. Avant de jeter l’éponge en envisageant une réinstallation complète, commencez par utiliser l’outil Moniteur de fiabilité (Panneau de configuration, Centre de maintenance) qui est un graphique représentant la courbe de stabilité générale de votre système sur une échelle de 1 à 10, où 10 représente le niveau maximal. Ainsi, à chaque problème applicatif ou système, la courbe chute brutalement, affiche les dysfonctionnements intervenus chaque jour et tente de fournir les détails techniques qui permettront de trouver une solution. De quoi déterminer le moment clé où sont apparus les premiers dysfonctionnements et faciliter le choix d’un point de sauvegarde qui permettra de restaurer le système à un état fonctionnel antérieur (menu Démarrer, Accessoires, Outils système et Restauration du système). Ces points sont créés par défaut lors d’événements bien précis tels que l’installation de nouvelles applications ou de pilotes. Pour ne toutefois pas saturer votre partition système, nous vous recommandons de restreindre l’utilisation de l’espace disque. Pour cela, ouvrez les Propriétés de votre Poste de travail à l’aide d’un clic droit, puis sélectionnez les Paramètres avancés, avant d’ouvrir l’onglet Protection du système et de régler la réglette Utilisation max pour définir l’espace disque limite dédié à la sauvegarde des points de restauration. Une fois la limite atteinte, Windows supprimera alors les points les plus anciens. Si la restauration de votre système ne résout toujours pas votre problème, commencez par vérifier l’intégrité des fichiers système de Windows à l’aide de l’invite de commandes (menu Démarrer, Accessoires, et Outils système) qu’il faudra exécuter avec les droits administrateur à l’aide d’un clic droit et de la commande sfc /scannow. Si un fichier système endommagé est détecté, Windows vous demandera d’insérer le disque d’installation Windows pour le remplacer.


base, ou encore réparer les problèmes de lenteur d’affichage des vignettes. Parmi les pannes système, il est courant d’endommager et de perdre une partition à la suite d’une mauvaise manipulation. Un phénomène qui n’est pas si dramatique et qui ne requiert pas forcément l’utilisation d’un logiciel de récupération de données, puisqu’un logiciel comme Acronis Disk Director ou Partition Wizard Home Edition est tout à fait capable de récupérer une partition. Il suffira tout simplement de lancer l’assistant Partition Recovery qui analysera la table principale des partitions, qui est enregistrée sur le premier secteur du disque (MBR), pour pouvoir restaurer la structure de la partition endommagée, sans une réelle intervention de votre part. Puisqu’il suffira de sélectionner la partition détectée par l’assistant pour la récupérer.

Quick Fix permet de résoudre instantanément les problèmes les plus couramment rencontrés sous Windows.

Si aucune amélioration n’est à noter, votre ultime recours sera d’exploiter les journaux d’événements créés par Windows. Plus complets, ces derniers sont accessibles depuis le Panneau de configuration, les Outils d’administration et l’Observateur d’événements. Dans la partie de gauche, vous aurez accès aux journaux application, sécurité et système. La partie centrale se chargeant ensuite d’afficher une vue d’ensemble ou une vue détaillée du journal sélectionné. Ainsi différenciés, vous pourrez plus facilement remonter à la source du problème (même invisible) puisque chaque événement critique, chaque erreur et chaque avertissement possèdent leur propre icône, ce qui permet de les identifier plus facilement pour relever l’ID de l’événement, le code d’erreur et la source de l’événement. Avec ces trois informations, chaque utilisateur sera alors capable de trouver une solution adaptée dans la base des connaissances de Microsoft ou sur divers forums comme le nôtre (www.techage.fr).

certains logiciels légers capables de résoudre les problèmes les plus courants sous Windows. A l’aide de Quick Fix (http://leelusoft.blogspot.com) ou FixWin (www.windowsvalley.com), vous pourrez par exemple automatiser la vérification des fichiers système, réparer l’explorateur Windows, Windows Media Player, Windows Update, retrouver l’usage des lecteurs de CD/DVD, rétablir les paramètres TCP/IP de

Pour finir, il peut également arriver que le MBR soit endommagé, ce qui empêche Windows de démarrer. Dans un tel cas, il suffit de démarrer votre machine à l’aide du disque d’installation Windows, de choisir l’option Réparer votre ordinateur, puis Réparation du démarrage. En cas d’échec, ouvrez l’invite de commandes et indiquez la lettre correspondant à votre lecteur CD/DVD dans le champ X:\Sources=> Il suffira ensuite de saisir et valider la commande bootsect /nt60 SYS qui aura pour effet de réparer le secteur de démarrage, avant de redémarrer votre PC.

Résoudre les problèmes courants Si le moniteur de fiabilité et l’observateur d’événements permettent de résoudre la plupart des problèmes sous Windows 7 et Vista, il existe

L’option Réparation du démarrage du disque d’installation Windows permet de reconstruire le MBR.

Hardware Magazine

I 91


Pratique

jeremy panzetta

Les meilleurs outils de dépannage et de contrôle PC

à distance

Le contrôle à distance est un procédé simple à mettre en oeuvre et très pratique pour dépanner et piloter un PC à travers un réseau local ou Internet. Encore faut-il utiliser les bons outils pour se faciliter la tâche. Voici une sélection des meilleurs d’entre eux.

V

Toutes les versions de Windows intègrent un outil d’assistance à distance. Il s’agit du même outil que celui proposé dans Windows Live Messenger.

92

I Hardware Magazine

ous en avez marre de passer des heures au téléphone ou sur MSN pour dépanner votre famille et votre entourage ayant des problèmes avec leur ordinateur ? S’il ne s’agit pas d’une panne d’accès à Internet, le plus simple est de prendre directement le contrôle de leur machine pour les assister. Cette prise de commandes s’adapte, par ailleurs, à d’autres types d’usages puisqu’il est possible de piloter et d’administrer n’importe quelle machine depuis n’importe quel endroit, comme s’il s’agissait de la vôtre et sans aucune limitation. Le procédé est également

très utile au sein d’un réseau local afin d’accéder à un serveur de fichiers (ou un serveur Web) qui ne possède ni clavier, ni souris, ni moniteur. L’efficacité de la connexion à travers Internet dépend néanmoins de la bande passante entre les deux machines et des options d’affichage utilisées (résolution, Aero, fond d’écran, profondeur des couleurs, lissage des polices, etc.). Entre deux lignes ADSL à 8 Mbps par exemple, une latence d’affichage reste présente, même avec des options d’affichage minimums, mais le service est parfaitement exploitable. Il existe de nombreuses solu-


Même entre deux connexions ADSL à 8 Mbps, la prise de contrôle d’un PC distant rame un peu. Pour améliorer la réactivité de la session, il est toujours possible de réduire les options d’affichage.

invitation par mail ici, et théoriquement, toujours pas de configuration réseau nécessaire. L’outil d’assistance Windows se base sur un mot de passe et un fichier invitation au format MSRCIncident généré automatiquement et à envoyer à la personne souhaitant vous aider. Mais si la session doit s’établir entre deux machines sous Seven, la connexion ne requiert qu’un mot de passe.

tions gratuites ou payantes destinées à ces activités. Nous présentons ici les meilleurs outils que nous avons retenus, chacun ayant un intérêt au niveau du mode de contrôle ou des fonctionnalités proposées.

I : Avec les outils Windows Windows intègre de base des outils de contrôle à distance, il en propose deux. Le premier se nomme Assistance à distance Windows, le second est baptisé Connexion bureau à distance. Comme son nom l’indique, l’Assistance à distance Windows permet d’inviter un utilisateur à prendre le contrôle de votre PC en vue d’un dépannage et impose que vous soyez devant votre écran pour autoriser la prise de commandes. Elle est disponible sur toutes les versions de Windows. Normalement, aucune connaissance ou configuration réseau n’est requise avec cet assistant. Mais selon votre matériel, il peut être nécessaire de paramétrer le

routeur pour que la connexion entrante s’établisse (port 3389), ou de laisser le service traverser votre pare-feu. Le principe de connexion de l’Assistance à distance se base sur un fichier invitation au format MSRCIncident et un mot de passe à envoyer au correspondant souhaitant vous aider. Le module est très simple à utiliser, il vous propose de créer automatiquement ce fichier et même de le mailer, si Windows a détecté un client de messagerie installé sur votre machine (vous pouvez aussi envoyer ce fichier par MSN ou FTP par exemple). Le correspondant n’a ensuite besoin que d’ouvrir le fichier invitation et d’entrer le mot de passe choisi pour lancer le pilotage à distance du PC. Lorsque la liaison se fait entre deux PC installés sous Seven, un autre mode de connexion encore plus simple est disponible grâce à Easyconnect. Il suffit de transmettre le mot de passe généré automatiquement à votre correspondant, pas besoin d’envoyer une

Avec l’outil de Connexion bureau à distance, il n’y a pas besoin d’une quelconque confirmation de prise de contrôle du PC distant. Le service est donc adapté au pilotage direct d’un de vos PC placé à la maison ou au travail. Mais son utilisation est dépendante de la version de Windows installée sur le PC à commander. Il est, en effet, impossible de prendre le contrôle d’un PC sous Windows XP édition Familiale, Vista Starter/Familiale Basique/Familiale Premium, ou Seven Starter/Familiale Basique/Familiale Premium. En revanche, ces OS peuvent piloter un PC installé sous d’autres versions de Windows. L’utilisation de cet outil est un peu plus complexe car la connexion au PC distant n’est possible que si vous utilisez un nom/mot de passe déjà enregistré dans les comptes d’utilisateurs. Il est aussi nécessaire de rediriger le port 3389 de votre routeur et de vérifier le pare-feu. La fenêtre de configuration de la Connexion bureau à distance vous propose d’entrer l’IP ou le nom du PC à contrôler. Si tout est bien configuré, la prise de commandes s’effectue immédiatement. Contrairement au module d’assistance, la connexion bureau à distance de Windows prend les commandes d’une machine sans avoir besoin d’une confirmation de connexion du côté du PC distant.

L’outil de connexion bureau à distance de Windows ne peut pas être utilisé pour se connecter à un Windows XP édition Familiale, Vista Starter/Familiale Basique/Familiale Premium, ou Seven Starter/Familiale Basique/Familiale Premium. Ces OS peuvent, en revanche, piloter un PC installé sous d’autres versions de Windows.

Hardware Magazine

I 93


Pratique

II : Windows Live Messenger L’outil d’assistance disponible dans Windows Live Messenger est exactement le même que celui présent dans Windows. Mais il est simplifié puisqu’il n’y a pas besoin d’envoyer une invitation par e-mail. Il suffit de lancer

une demande d’assistance à un de vos contacts (Menu/Actions/Demander une assistance à distance), puis de lui fournir le mot de passé généré automatiquement. Théoriquement, il n’y a pas besoin de configurer votre routeur (sinon port 3389), tout est

TeamViewer est un logiciel gratuit très simple à utiliser et idéal pour les personnes qui n’ont pas de connaissances dans ce domaine.

Allumer un PC à distance (Wake On LAN) Afin de pouvoir contrôler un PC à distance, celui-ci doit naturellement être allumé. Démarrer un PC à distance impose quelques prérequis matériels. Il faut, en effet, que la carte réseau et la carte mère supportent cette fonction de réveil en réseau. Il est également nécessaire de bien configurer le BIOS de la carte mère et d’activer l’ACPI (appelé IPCA parfois). Dans la section Power Management, vous devriez trouver une option appelée Power Off State ou ACPI Suspend Type ou ACPI State, elle doit être placée sur S3/STR. Cherchez aussi un paramètre appelé Wake On LAN ou parfois PME (Power Management Event) et activez-le. Vérifiez dans le gestionnaire de périphériques Windows que le ou les paramètres associés au Wake On LAN sont bien actifs dans les propriétés de la carte réseau et notez sa MAC address (que vous trouverez aussi dans les détails de votre connexion réseau). Pour allumer le PC à distance, il suffit ensuite de passer par un petit utilitaire comme ceux que l’on trouve sur www.dipisoft.com (WakOnLAN3.3) ou www. depicus.com (WoL for Windows). Pour ce dernier, dans la case MAC address, entrez l’adresse MAC de la carte réseau du PC à réveiller. Dans la case suivante, entrez l’IP locale du PC distant ou son IP/URL Internet et le masque réseau 255.255.255.255 s’il s’agit d’une IP Internet. Placez le paramètre Send Option sur Internet ou Local, selon que l’envoi du paquet magique doit se faire via Internet ou le réseau local. Entrez enfin le numéro de port 7 ou 9 et cliquez sur Wake Me Up pour lancer le réveil de l’ordinateur distant. Il faudra diriger le port de votre routeur vers ce PC, le protocole utilisé est l’UDP. Une autre solution pour envoyer des paquets magiques est de passer par un service en ligne comme en propose le site de Wake On LAN. Allez au menu WoL Over The Internet et entrez les mêmes informations de connexion. Vous trouvez un autre outil online sur www.rshut.com/products/wol, pas besoin ici de connaître le masque de sous-réseau.

94

I Hardware Magazine

automatique. Il faudra, en revanche, s’assurer d’avoir la dernière version de Live Messenger installée sur les deux machines.

III : TeamViewer (www.teamviewer.com) TeamViewer est disponible pour Mac et Windows et permet aussi bien d’assister une personne que de prendre le contrôle d’un PC à travers Internet ou le réseau local. Le logiciel doit être présent sur les deux machines allant établir une connexion, mais il est possible de le lancer sans l’avoir installé. La fenêtre principale du programme affiche un numéro d’identification fixe et un mot de passe généré automatiquement à chaque lancement du logiciel, à fournir à la personne souhaitant vous aider. Si besoin, il est possible de passer par une authentification avec les comptes d’utilisateurs Windows paramétrés sur le PC distant, et avec support du nom de domaine. La prise de contrôle du PC distant se fait immédiatement après avoir entré les identifiants, pas besoin de configurer son routeur/box ou le pare-feu. Le logiciel propose le chat, la conversation par VoIP, l’usage de webcams, la création d’un tunnel VPN (pour utiliser l’imprimante du PC distant par exemple ou exécuter des applications qui accèdent à une base de données distante), la configuration d’un proxy, des invitations d’assistance par mail, le redémarrage du PC distant avec une reconnexion possible avant qu’une session Windows n’ait été ouverte, ou encore l’enregistrement de la session sous forme de film dans un format propre au logiciel. Sous réserve d’avoir créé un compte gratuitement sur le site, TeamViewer peut également enregistrer une liste de partenaires afin de visualiser directement s’ils sont en ligne et les assister en un seul clic de souris. Le PC prenant le contrôle peut, d’autre part, se dispenser du logiciel en passant par un navigateur Internet et le site de TeamViewer. La liaison entre une machine sous Windows et Mac est au programme mais le VPN, le démarrage automatique et le redémarrage du PC distant ne sont pas disponibles sous Mac. Pour utiliser TeamViewer en tant qu’outil de contrôle distant classique, vous pouvez spécifier au logiciel de se lancer automatiquement avec Windows et définir un mot de passe permanent. Vous n’avez alors


Publi Reportage

MSI Extreme Speed Concours d’overclocking extreme Pendant un mois, entre le 15 Novembre et le 13 Décembre 2009, MSI a organisé un concours d’overclocking international. Après une rude compétition, Topalof, un overclocker français a réussi à décrocher la première place, avec quelques records du monde en prime. Retour sur cet évènement.

A

lors que nous sommes désormais très nombreux à pratiquer l’overclocking au quotidien, afin de bénéficier d’un peu plus de puissance, MSI organise des concours d’overclocking. Xtreme Speed est un concours online organisé sur la plateforme P55 d’Intel. Online, cela signifie que l’entrée est libre, il n’y a pas de sélection, chacun peut donc participer, et il faut soumettre des scores par internet des résultats que l’on a pu obtenir chez soi. Ouvert à tous, et basé sur du matériel abordable, le mot d’ordre du concours était le fair play. Trois benchmarks à effectuer (CPU-Z, Super Pi 32M et wPrime 32) dans 2 catégories différentes (Lynnfield Core i5 et Core i7).

MSI P55-GD65 : une arme redoutable ? Armé d’une MSI P55-GD65, d’un Core i7 860 et d’une cascade deux étages qui refroidissait le CPU aux environ des -90°C, Topalof alias Laurent a remporté la compétition. Son excellent processeur lui a permis de prendre la première place sur CPU-Z en atteignant la fréquence de 5735 MHz, soit plus

Poussez ce simple bouton sur votre carte mère, et tout le système sera overclocké

de 95% d’overclocking. Une fréquence quasiment doublée, et ce sur une carte mère mainstream, voila qui est étonnant. Lorsqu’on lui demande pourquoi il a choisi cette carte mère, et pas la GD80, la réponse est simple : la GD65 représente un excellent compromis et est bien assez performante afin de battre des records du monde.

En effet, Laurent a été très surpris de l’incroyable facilité pour overclocker cette carte mère. Ce qui compte le plus pour lui, c’est d’avoir de bonnes performances, mais si en prime on a une carte agréable a utiliser, c’est quand même bien plus satisfaisant. Du coup, même s’il n’a pas décroché la première place sur Super Pi 32M, il conserve sa 2e place mondiale avec le Core i7 860, preuve que son résultat est impressionnant. Pour effectuer ce calcul en 6 minutes et 47 secondes, les quatre barrettes de mémoire ont été overclockées à près de 2000 MHz C6. 8 Go a cette fréquence, ce n’est donc pas étonnant que le résultat soit détonnant.


Publi Reportage

que les condensateurs à électrolyte traditionnellement présent sur les cartes mères. Ils limitent les fuites et les pertes d’énergie, et grâce à la technologie Dr Mos qui permet de gérer activement les differentes phases d’alimentation, la tension délivrée est de meilleure qualité. Fiabilité, précision et longévité, voila de quoi améliorer encore les cartes MSI.

…Sans oublier les gamers MSI facilite l’overclocking

Interview de Topalof Pourquoi avoir choisi la P55 GD65 ? Mon choix s’est porté sur la GD65 pour son prix, mais aussi parce qu’elle n’avait visiblement rien à envier a la GD80 sur le plan de l’overclocking. Après quelques recherches, il s’est avéré qu’elle pouvait facilement grimper en BCLK et en fréquence RAM, et qu’elle avait toutes les fonctions pour me faciliter la tâche, notamment les boutons pour modifier le BCLK a la volée.

Quelles sont ses qualités ? Dès les premiers tests, j’ai été agréablement surpris par la simplicité et la rapidité de prise en main. Les 245 MHz de BCLK ont été facilement atteint, sans le moindre caprice, et ma RAM (4 ou 8 Go) pouvait tout à fait monter à 2000 MHz C6. En outre, le bouton +/pour le BCLK fut une arme redoutable puisqu’aucun logiciel n’était alors nécessaire, allégeant le système et permettant de modifier les fréquences en plein bench.

Que penses-tu de l’overclocking avec MSI ? Je n’étais pas très confiant au début du concours. Mais au fil du temps, j’ai pris plaisir a overclocker avec la P55 MSI puisqu’il s’agit d’une carte stable, performante et rapide. Un grand pas a été franchi, probablement grâce à la collaboration poussée avec divers overclockers. Espérons qu’il ne s’agisse que d’un début et que d’autres surprises vont arriver. Retrouvez l’interview complète sur le site MSI : http://fr.msi.com/content/interview-de-topalof

MSI est une marque déposée de Micro Star International. Toutes les marques citées sont la propriété de leurs détenteurs respectifs. Les spécificités des produits peuvent changer sans aucun préavis. Toute configuration autre que celle du produit d’origine n’est pas garantie.

http://fr.msi.com

Outre un excellent processeur, à ce jour le deuxième meilleur i7 860, Topalof a pu atteindre une fréquence aussi importante grâce notamment au MSI OC Genie. Cette fonction permet d’overclocker automatiquement le système. Bien que cela soit très utile au quotidien pour bénéficier d’un ordinateur puissant, sans pour autant devoir se plonger dans les réglages du BIOS, simplement en appuyant sur un bouton, ce n’est pas comme cela qu’une telle fréquence a été atteinte. Après avoir trouvé les bons réglages dans le bios, il est possible de monter la fréquence de base (BCLK) à la volée sous Windows. En effet, la MSI P55 GD65 possède deux boutons sur le PCB afin de modifier la fréquence de base. C’est immédiat et fiable, et ca évite de devoir revenir dans le bios. D’ailleurs, il est aussi possible de modifier toutes les autres tensions et même les timings mémoire via le logiciel MSI Core Center. Ces fonctions sont désormais présentes sur l’OC Dashboard, un petit boitier livré avec les cartes de la série Big Bang, et qui dispense la moindre installation de logicielle, tout se faisant de manière hardware. Il sert aussi d’écran de debug afin d’indiquer les éventuels problèmes de boot.

Parce que l’overclocking ne fait pas tout, MSI propose aussi des fonctions avancées pour maximiser l’immersion dans les jeux vidéo. Alors que les meilleurs chipsets intégrés sont utilisés sur les P55 GD65 et GD80, la série Big Bang embarque une carte son dédiée. Equipée de la technologie Quantum Wave, celle-ci permet de bénéficier des dernières avancées en termes de gestion audio. Grâce au support de l’EAX 5.0 HD, les sons sont mieux répartis dans l’espace. De plus, la série Big Bang est dédiée aux joueurs a la recherche d’une grosse puissance 3D. La Trinergy, équipée d’une puce NF200, permet de gérer 3 carte graphiques en SLI ou CrossfireX, alors que la Fuzion, la seule carte au monde équipée d’une puce Hydra Lucid, permet de faire fonctionner ensemble deux cartes de marques différentes, par exemple une Radeon avec une GeForce. De quoi profiter du meilleur de chaque carte.

Les meilleurs condensateurs du monde Mais le bios n’est pas le seul avantage des cartes MSI. Il faut aussi que le matériel soit de très bonne qualité afin de répondre aux exigences des overlockers. C’est ainsi que les cartes de la série Big Bang sont les premières au monde à introduire des condensateurs Hi-C Cap. Ceux-ci sont encore meilleurs

La carte son des Big Bang est compatible EAX HD 5.0


VoIP, webcam, chat, transfert de fichiers, TeamViewer propose des fonctionnalités complètes.

LogMeIn permet de contrôler très facilement, et sans aucune configuration réseau, autant de PC que vous souhaitez à partir d’un navigateur Internet.

se connecter au site et installer un plugin ActiveX, pour accéder à votre menu d’administration listant tous les ordinateurs contrôlables. Un clic de souris suffit pour les piloter. A partir d’un navigateur Web, vous pouvez donc contrôler autant d’ordinateurs que vous souhaitez et ce, sans configuration du routeur/box ou du parefeu. Les fonctionnalités offertes par LogMeIn sont relativement complètes. Le programme se chargeant au lancement de Windows, il est possible de prendre le contrôle avant qu’une session ne soit ouverte sur le PC distant, et donc de le redémarrer si besoin. LogMeIn permet également la liaison entre un PC et un Mac. Il supporte ensuite le Wake On LAN, le copier-coller entre les deux machines, le chat, l’encryptage AES 256 bits de tout le trafic, des outils de filtrage IP, les proxys et l’enregistrement vidéo

besoin que de son numéro d’identification pour le contrôler avec une autre machine. En bref, TeamViewer est un logiciel complet, efficace, qui vous simplifie fortement la tâche et parfaitement adapté aux néophytes.

IV : LogMeIn (https://secure.logmein.com) Décliné en version gratuite, LogMeIn Free est un outil de contrôle à distance astucieux, fonctionnant sur PC et Mac. Pas besoin de logiciel client, la prise de contrôle d’une machine s’effectue à partir d’un navigateur Internet. La seule chose à faire est de s’inscrire sur le site pour télécharger le programme devant être installé sur les ordinateurs à contrôler. Ensuite, de n’importe quelle autre machine, il faut

LogMeIn supporte le Wake On LAN et peut également prendre le contrôle d’un PC avant que la session Windows ne soit ouverte.

Hardware Magazine

I 97


Pratique

Avec UltraVNC, il est obligatoire de configurer le routeur/ box du PC à contrôler

de la session dans un format propriétaire ou en AVI. Notez qu’un autre outil nommé LogMeIn Ignition (7,95 dollars par mois) permet de faire la même chose mais à partir d‘une clé USB, d’un smartphone ou d’un iPhone/iTouch. Il existe aussi une version dédiée à l’iPhone à 24 euros sur l’Apple Store.

étant à la base open source, il existe plusieurs variantes de ce logiciel parmi lesquelles RealVNC, UltraVNC et TightVNC. Le premier ne fonctionne pas sous Vista, Server 2008 ou Seven dans sa version gratuite, le second ne marche que sur Windows, le troisième est compatible avec tous les Windows 32 bits et existe en version portable, mais il ne peut pas être démarré automatiquement sous Vista et Seven au lancement du PC. Notre choix se porte sur UltraVNC, libre à vous d’essayer les deux autres, sachant que ces trois logiciels se ressemblent fortement dans leur configuration et leur usage un peu plus complexe que TeamViewer ou LogMeIn. Ils requièrent de diriger un port de votre routeur/box du côté du PC qui est piloté (port 5900 de base mais il peut être modifié) et de

laisser le service traverser un pare-feu. UltraVNC supporte la prise de contrôle par http Java (ce qui permet d’utiliser une machine sous Linux ou Mac OS), l’usage des comptes d’utilisateurs Windows et des noms de domaine, le transfert de fichiers, le chat et il accepte la connexion simultanée de plusieurs clients sur le même PC, ainsi que l’encryptage de tout le trafic via un plugin gratuit. Il représente une bonne alternative aux outils Windows si vous ne possédez pas une version adéquate de cet OS, mais il s’adapte mieux à la prise de contrôle de PC placés sur votre réseau local, plutôt qu’à travers Internet car nous l’avons trouvé un peu moins performant que les autres solutions présentées dans cet article (il en est de même de RealVNC et de TightVNC).

V : UltraVNC (www.ultravnc.fr, www.uvnc.com) VNC est depuis longtemps un logiciel très utilisé pour prendre le contrôle d’un PC à distance. Il fonctionne avec un principe de client/serveur, ce qui impose l’installation de l’outil serveur sur le PC distant et de l’outil client sur le PC servant à contrôler. VNC

UltraVNC ne s’est pas montré aussi performant que TeamViewer, LogMeIn ou les outils Windows à travers Internet, nous le recommandons plus pour des prises de contrôle PC sur un réseau local.

Pas à pas :

contrôle et assistance à distance avec Windows

A

vant de pouvoir utiliser l’Assistance à distance Windows ou la Connexion bureau à distance, il est nécessaire d’activer ces fonctions sur le PC devant être piloté. Sous XP, les paramètres de configuration se trouvent dans les Propriétés du Poste de travail, à l’onglet Utilisation à distance.

98

I Hardware Magazine

Sous Vista et Seven, il faut ouvrir les Propriétés de l’ordinateur puis cliquer sur Paramètres système avancés pour accéder à cet onglet. Cochez la case Autoriser les utilisateurs à se connecter à distance à cet ordinateur. Il faut également définir le mode de connexion du Bureau à distance (sauf sous Seven).


Placez ce paramètre sur la deuxième option pour autoriser n’importe quelle version de Windows à se connecter à votre ordinateur. Si vous savez que la machine allant prendre le contrôle est sous Vista ou Seven, choisissez la troisième option qui a surtout l’avantage d’avoir une méthode d’authentification plus sécurisée.

1 : Assistance à distance L’outil d’assistance est accessible au menu Démarrer/Programmes/Maintenance sous Vista et Seven, et au menu Démarrer/Programmes sous XP. En choisissant l’option Inviter une personne de confiance à vous aider, le module vous propose de créer un fichier d’invitation à envoyer par mail à votre correspondant. Un mot de passe à lui communiquer est aussi à définir lors de cette étape (il est généré automatiquement sous Seven). Une fois l’invitation envoyée, la fenêtre du module d’assistance doit rester ouverte et en attente d’une demande de connexion. Le correspondant réceptionne le mail, puis ouvre le fichier qui y est joint. Une fenêtre apparaît alors de son côté pour entrer le mot de passe défini précédemment. Après une dernière validation du PC à contrôler, celui-

ci est prêt à être piloté à distance. Notez que ce fichier invitation n’est valable par défaut que pour une durée de 6 heures. Vous pouvez la définir en minutes ou en heures si besoin à l’onglet Utilisation à distance/Options avancées des Propriétés système. Si les deux PC sont sous Seven, vous pouvez utiliser le mode de connexion Easyconnect. Il suffit de choisir cette option de connexion au menu d’Assistance à distance, puis de transmettre le mot de passe généré automatiquement à votre correspondant. Celui-ci devra lancer lui aussi le module Easyconnect et entrer ce mot de passe pour établir une liaison entre les deux PC. Lorsque la liaison est établie entre les deux PC, la personne souhaitant assister ne peut, en premier lieu, que voir le bureau Windows du PC distant. Pour lui donner le contrôle, il faut cliquer sur le bouton Demander à partager le contrôle de l’autre ordinateur.

2 : Connexion bureau à distance Le service Connexion bureau à distance se trouve au menu Démarrer/ Programmes/Accessoires. Mais la connexion au PC distant n’est possible que si vous utilisez les informations

d’authentification d’un compte d’utilisateur déjà enregistré sur la machine. Naturellement, le client ne possédera que les droits attribués à ce compte. Celui-ci doit également avoir un mot de passe. Pour ajouter ou modifier des comptes, allez dans Démarrer/Panneau de configuration/Comptes d’utilisateurs. Pour autoriser l’accès d’un utilisateur, cliquez sur Sélectionner des utilisateurs aux options Bureau à distance des Propriétés système, puis sur Ajouter. Tapez son nom dans la case dédiée ou cliquez sur Avancé/Rechercher pour trouver une liste de tous les comptes de votre machine. Cette étape est nécessaire sous XP et Vista, pas sous Seven. Dans la fenêtre principale du service de Bureau à distance, à la case Ordinateur, entrez le nom ou l’IP du PC local à contrôler, ou son IP publique/ Internet si vous passez par le Net. Un nom d’utilisateur et un mot de passe sont alors demandés si la connexion est établie. Entrez les données d’un compte d’utilisateur du PC distant. Une nouvelle fenêtre s’ouvre dans laquelle vous pouvez visualiser le bureau du PC distant et le contrôler. Dans le cas d’une connexion via Internet, il faudra configurer le routeur du PC distant pour rediriger le port vers son IP locale. Par défaut, il s’agit du port 3389 mais il est possible d’en utiliser un autre en l’ajoutant après l’adresse IP (192.168.1.1:3390 par exemple). Il faudra donc utiliser un port différent si vous voulez contrôler via Internet plusieurs PC placés sur un même réseau. Si vous sentez que l’affichage rame, à l’onglet Affichage, réduisez le nombre de couleurs, et utilisez les profils de performances disponibles à l’onglet Avancé.

Hardware Magazine

I 99


Pratique

Oubliez votre chargeur

Décuplez votre

autonomie

Quel que soit votre ordinateur portable, il existe une foule de petites améliorations qui, mises bout à bout, peuvent grandement améliorer l’autonomie de votre machine : entretenir votre batterie, améliorer votre système d’exploitation afin d’économiser de l’énergie, agir sur le hardware pour prolonger votre durée de vie nomade. Voici notre méthode afin de gagner le précieux temps qui manque toujours sur ces engins.

Benjamin bouix

L

’autonomie de votre portable dépend en très grande partie de votre batterie et on ne doublera pas la puissance de la batterie avec tous les conseils du monde. Mais il est néanmoins possible de bien l’entretenir afin de prolonger sa durée de vie et de maximiser son rendement. D’autre part, paramétrer son système d’exploitation permet de mettre en veille certains composants dont on ne se sert pas ou peu. D’ailleurs, le système d’exploitation peut-il influer sur l’autonomie de par les routines qui tournent en fond ? Un Linux serait-il intéressant ? Et enfin, il y a la question du hardware. Plus on a de composants, plus ils consommeront. Sans aller jusqu’à remplacer deux barrettes de RAM de 2 Go par une de 4 Go, on peut quand même un peu améliorer les choses.

Les batteries Li-ion Les batteries Li-ion équipent la quasi-totalité de nos appareils mobiles : smartphones, baladeurs, ordinateurs portables, GPS, etc. Constituées de lithium qui reste sous sa forme ionique, elles sont chères, mais ont un format très réduit compte tenu de leur puissance. Or beaucoup d’idées reçues proviennent du temps où les batteries Ni-MH étaient les plus répandues. Une batterie Li-ion est constituée de différentes cellules organisées de plusieurs façons, afin de délivrer plus ou moins de tension ou d’intensité. En plus de ces cellules, il existe un circuit électronique indépendant qui gère la batterie, et il doit être alimenté

100

I Hardware Magazine


en permanence. Les accumulateurs et le circuit vont donc être tous deux responsables de la décharge progressive de la batterie. Cette perte est estimée à environ 10 % par mois, mais elle dépend de la conception de chaque batterie. C’est un problème bien plus gênant qu’il n’y paraît au premier abord. D’une part, si la batterie atteint son seuil de décharge, il se peut qu’elle soit endommagée, pouvant alors perdre d’un coup jusqu’à 20 % de sa capacité. La stocker pendant un long moment peut donc être mauvais pour sa durée de vie. Aussi, si vous décidez de la stocker quelque part pendant un long moment, assurez-vous de temps à autre de la recharger. A ce sujet, il est recommandé de la stocker entre 40 % et 60 % de charge (cette valeur change selon les constructeurs), afin d’avoir assez de réserve pour ne pas qu’elle se décharge trop vite, mais pas non plus à 100 % afin de ne pas trop stresser les composants suite à une trop grande puissance stockée. Il faudra aussi la vérifier de temps à autre afin qu’elle ne se décharge pas, mais à 40 % de charge, elle peut être stockée 8 à 12 mois sans problème si elle n’est pas défectueuse…

Charge et décharge Lors de la première utilisation de votre portable, il convient de le charger à fond, puis de le laisser se décharger à fond. Attention, cela ne veut pas dire qu’il faut tenter de le rallumer afin d’épuiser complètement la batterie. Bien au contraire, ceci serait bien trop nocif pour la batterie. Il convient de laisser l’ordinateur tourner et de le recharger après qu’il se soit éteint de lui-même, sans chercher à le rallumer. Une fois cela achevé, vous pourrez utiliser votre ordinateur de façon normale, mais il est recommandé d’effectuer ce cycle charge/

“ Près de 20 min gagnées sur une autonomie de 3 h (soit un épisode de Big Bang Theory supplémentaire) grâce à de multiples améliorations. ” Un SSD, un disque 5 400 tpm ou un 7 200 tpm. Le choix influera sur les performances évidemment, mais aussi sur l’autonomie.

décharge complètes régulièrement, une fois par mois par exemple, afin de recalibrer la batterie. L’effet mémoire, phénomène au cours duquel la batterie ne délivre pas toute sa puissance à cause d’un mauvais cycle de recharge, n’existe pas sur les batteries Li-ion, mais ce recalibrage est nécessaire afin que les capteurs puissent mesurer au plus juste l’énergie restante. Entre chacun de ces calibrages, vous pouvez charger la batterie comme bon vous semble. Il n’est pas plus mauvais de recharger sa batterie régulièrement, même si elle n’est pas vide, que de la recharger seulement une fois le seuil critique atteint. En effet, une batterie a une durée de vie qui se compte en cycles. Un cycle est en

Si vous n’avez pas de bouton de raccourci pour désactiver la carte Wi-Fi, vous pouvez le faire via Windows. Faites de même pour la carte réseau si elle ne vous sert pas.

fait le passage d’une décharge (5 % de la batterie) à une charge complète (100 % de la batterie). Aussi, recharger deux fois sa batterie quand elle est à moitié vide, ou une fois lorsqu’elle est complètement vide ne réduira pas la durée de vie de celle-ci. Enfin, si vous utilisez votre portable tantôt sur batterie et tantôt sur secteur, il n’est pas nécessaire de retirer la batterie. Certains le font pour éviter que la batterie ne soit rechargée en continu, ce qui serait évidemment mauvais pour celle-ci. Mais les constructeurs font bien les choses, et avec des batteries Li-ion, il y a deux circuits séparés. Le premier alimente la batterie lors des recharges, tandis que le second sert à alimenter l’ordinateur. De cette façon, si votre batterie est chargée, elle n’est pas alimentée et ne s’usera donc pas prématurément. Et si elle n’est pas chargée, le courant est réparti sur les deux circuits. C’est pour cette raison que la batterie met plus de temps à se recharger lorsque l’ordinateur est en fonctionnement.

Windows sait tout faire ! Vista avait fait de gros progrès sur la gestion de l’autonomie par rapport à XP, Seven conserve donc ces avantages. Aucun OS ne consomme réellement plus qu’un autre, mais les options de

Hardware Magazine

I 101


Pratique

gestion de l’alimentation sont variables, si bien que Seven semble être tout désigné. D’une part, pour ses qualités intrinsèques qui font qu’il s’adapte bien sur un ordinateur à la puissance limitée et d’autre part, parce qu’il est préférable à Vista et XP en termes de gestion d’énergie. Notez que nous avons testé Ubuntu dans sa dernière version et qu’il est tout à fait compétent en la matière,

Cette page vous permet de régler un à un chaque paramètre et de façon très précise. C’est assez fastidieux, mais cela peut se révéler payant, surtout en ce qui concerne la puissance processeur que l’on peut limiter à 50 % par exemple.

Les processus qui se lancent au démarrage ont tendance à s’accumuler avec l’installation des programmes. Ils restent ensuite en mémoire et consomment donc de l’énergie et des ressources. Autant les supprimer sauf si ce sont des indispensables comme l’antivirus.

les fans ne seront donc pas déçus, mais ça ne justifie pas un changement d’OS si vous préférez Windows. Les réglages principaux concernent évidemment les fréquences de fonctionnement du hardware. En plus des économies d’énergie au niveau matériel, comme l’Intel SpeedStep ou AMD PowerNow, l’OS est à même de modifier de lui-même la fréquence. Ou plutôt, il se base sur les processus arbitraires de chaque CPU, mais les fréquences maximales et minimales sont ajustables. Par exemple, vous pouvez faire en sorte que sur batterie, votre processeur ne tourne qu’à 75 % de sa fréquence. Ceci est toujours bénéfique, mais généralement moins évolué que les utilitaires des constructeurs. Les pilotes installés automatiquement dans Vista et Seven vont faire varier les fréquences processeur en se basant sur les fonctions d’économie d’énergie existantes. En mode économie d’énergie par exemple, ce seront les paramètres les plus bas possible, alors qu’en mode performances, le CPU fonctionnera à sa fréquence maximale.

102

I Hardware Magazine

Personnalisez Windows Il est ensuite possible de baisser la luminosité de l’écran, grand consommateur d’énergie au sein de l’ordinateur. Et c’est même recommandé, tant il peut être inutilement lumineux au maximum. En effet, lorsque l’on regarde un film, un bon éclairage est requis, alors qu’un traitement de texte, sur fond très clair, peut s’effectuer avec moins de luminosité. Pour régler ce paramètre, il existe bien souvent un raccourci clavier avec la touche Fonction, mais le régler dans le profil de l’OS permet de le garder en mémoire. Vous pouvez ensuite ajuster selon votre convenance. Allez donc dans le Panneau de configuration, puis Matériel et Audio, Modifier les paramètres de batterie et réglez la luminosité comme elle vous convient. Lorsque vous n’utilisez pas votre écran depuis un certain temps, la luminosité est alors réduite à son minimum, on parle d’estompage. Ce délai est modifiable et, en général, réglé sur 2 min par défaut. L’étape suivante concerne l’extinction de l’écran, qui intervient après sa baisse de luminosité. 5 min sont

bien assez selon nous, car n’oubliez pas qu’un simple effleurement du touchpad ramènera le rétroéclairage. Le délai de mise en veille des disques durs dépend de votre configuration et de votre usage. Avec un SSD, la reprise prend très peu de temps, tellement l’unité est réactive. En revanche, avec un disque dur magnétique, comme c’est souvent le cas dans un ordinateur portable, il faut patienter quelques instants, avant que le disque recharge toutes les données. Cela dit, un disque dur 2,5’’ consomme assez peu au repos, surtout les modèles 5 400 tpm. Selon votre degré d’exigence quant à la réactivité du système, vous pourrez donc le régler sur une dizaine de minutes ou plus. Moins est une mauvaise idée car lorsque vous relancez le système après une veille, l’ordinateur passe un moment à se relancer, du temps perdu que vous ne passerez pas à vous servir de votre machine… et donc une autonomie ressentie pas forcément plus longue. A ce propos, nous vous conseillons de n’utiliser que le mode hibernation (ou veille prolongée) lorsque vous êtes sous batterie : de cette façon, vous évitez le processus de démarrage, en général plus long. Mais comme un redémarrage complet du système ne fait pas de mal, profitez-en pour le faire lorsque vous êtes sur secteur. Tous ces paramètres sont ajustables via la page des paramètres avancés de la gestion de l’alimentation. Un passage d’une luminosité maximale à une luminosité minimale confortable (selon nous), soit environ 40 % de la puissance maxi, nous a permis de gagner 7 min sur une utilisation de 3 h, le tout sans perte de confort, nos yeux s’étant habitués à une luminosité réduite.

Les logiciels propriétaires Bien qu’on puisse se contenter des options Windows, les logiciels propriétaires apportent un léger mieux. Ceuxci sont, en général, très aboutis et sont


un peu plus efficaces que Windows. Ils ne se contentent pas de moduler la fréquence, mais ils arrivent aussi à jouer sur la tension, en plus d’améliorer la réactivité du changement d’état. De cette façon, le processeur s’adapte plus rapidement à l’usage. Ils permettent aussi de créer divers profils, afin d’optimiser au mieux l’autonomie, selon l’usage que vous faites du PC par exemple. Ceux-ci, tout comme Windows, passent du profil de performances maximales sur secteur au profil d’économie d’énergie choisi, dès lors que l’on débranche l’alimentation. Nous vous recommandons donc d’utiliser ces logiciels, même s’ils sont parfois lourds et peu agréables, le gain en confort et en autonomie est présent. Si vous avez réinstallé votre système d’exploitation, vous pouvez le télécharger sur le site du constructeur de votre ordinateur, sinon, il est trouvable dans la suite logicielle présente sur l’OS. Nous n’avons pas pu démontrer leur gain lors de nos tests, mais ceci s’explique en grande partie par le fait que les tests sont réalisés en charge complète ou au repos (affichage du bureau). Dès lors, la tension et la fréquence ne changent jamais. Et les tests d’utilisation normale, c’est-àdire de multiples passages d’un état de charge à un état de repos, ne sont pas reproductibles.

Attention aux périphériques Les périphériques d’un ordinateur sont sans cesse alimentés, même s’ils ne sont pas utilisés activement. Cela signifie qu’une carte Wi-Fi qui ne sert pas (quand vous n’avez pas accès ou pas besoin d’Internet) mais qui est quand

Comme tous les autres périphériques, il vaut mieux désactiver la carte Wi-Fi si vous ne vous en servez pas. Certains portables intègrent un bouton pour ce faire.

même sous tension va consommer de l’énergie, ne serait-ce que pour chercher les réseaux à proximité. Il vaut mieux alors désactiver la carte Wi-Fi. Pour cela, soit vous avez un bouton de raccourci sur votre châssis, soit vous pouvez le faire manuellement. Pour cela, cliquez sur l’icône Wi-Fi dans la barre des tâches et ouvrez la page de configuration des réseaux (Centre réseau et partage sous Seven), puis modifiez les paramètres de la carte. Faites ensuite un clic droit sur le périphérique désiré et désactivez-le. Il en est de même pour une souris USB par exemple. Le capteur envoie sans cesse un signal au système et cette opération nécessite de l’énergie. En plus, le touchpad continue lui aussi à émettre. Certains portables sont équipés d’un bouton pour verrouiller le touchpad, qui coupe son alimentation dans certains cas, c’est donc une bonne idée si vous n’avez pas besoin du tout de votre souris (pour une vidéo par exemple).

Par défaut, le profil d’économie d’énergie est assez efficace, mais on peut tout de même l’améliorer. Notez qu’il est utilisé dès lors que vous débranchez l’alimentation.

Les câbles réseau RJ-45, périphériques USB, casque audio et autres périphériques n’ayant pas leur propre alimentation fonctionnent de la même façon. Le graveur est très énergivore lui aussi, mais toute modification nécessite de plonger au coeur de votre ordinateur, ce qui n’est ni pratique, ni conseillé si vous bénéficiez encore d’une garantie. Cela dit, Lenovo propose dans son utilitaire une option pour couper l’alimentation du lecteur. Laisser le Wi-Fi activé, ainsi qu’une clé USB et une souris branchées, ce qui peut finalement être très courant, peut amener à perdre jusqu’à 5 min. Si vous regardez un film dans le train, mieux vaudrait donc supprimer ces périphériques.

Les processus en fond Plus il y a de processus qui tournent en fond, plus vous allez consommer de l’énergie. Ce n’est certes pas énorme, mais mis bout à bout, cela peut faire gagner quelques minutes ou dizaines de minutes d’autonomie. Par exemple, le service d’indexation sur un disque dur consomme relativement beaucoup de ressources CPU, en plus de multiplier les accès disque. N’étant utile que si vous faites une recherche de fichiers, il peut être désactivé en faisant un clic droit, puis Propriétés, sur le disque désiré et en décochant l’option en bas de la fenêtre. Supprimer les processus qui se lancent au démarrage peut être une bonne idée. Ils proviennent, en général, de programmes utilisés occasionnellement (Adobe, iTunes, MSN, Deamon Tools, etc.) et on peut les supprimer avec Autoruns (voir notre article sur

Hardware Magazine

I 103


Pratique la maintenance de Windows dans ce même numéro). Utiliser un thème classique, notamment sur Vista et Seven, au lieu d’un thème avec effets de transparence (Aero) sera bénéfique. En effet, pour tous les jeux d’ombre et de fondu, le GPU doit exécuter divers calculs, ce qui réduit d’autant plus l’autonomie disponible. En passant d’un système très consommateur (grand nombre de processus en fond et effets graphiques activés) à un autre, plus optimisé, nous avons constaté de manière répétée un gain de quelques minutes sur 3 h. Assez peu, certes, mais au passage, les performances et le confort ont été améliorés. Notez que nous avons testé différents OS, mais les différences sont d’une part difficilement comparables et surtout, trop faibles pour justifier de changer sur cette unique raison.

Underclocking A force, on dira que nous ne pensons qu’à ça, et qu’il nous est impossible de laisser le processeur tourner tranquillement à la fréquence qui lui convient. Mais pourtant, l’underclocking est ici très utile. Tous les conseils que nous donnions lors de notre dossier dans PC Update n° 44 sont valables, mais il n’est pas

Gain d'autonomie 110

Optimisé 106,4 108

( p ) Economie (Propriétaire)

104 105

Economie (Windows) 100 100

Normal (Windows) 90

95 Repos

toujours possible de modifier les mêmes paramètres. Il est rarement possible de baisser la tension du processeur manuellement, mais si c’est le cas, n’hésitez pas à l’ajuster au mieux en faisant vos propres tests de stabilité. Vous pouvez aussi baisser la fréquence de bus, le chipset, le processeur et la RAM consommeront d’autant moins. Et modifier les fréquences de la carte graphique est ici très utile. Si vous avez un portable avec un GPU dédié, baisser ses fréquences 2D s’avérera très bénéfique. Mais si vous

A retenir • Ne déchargez jamais totalement votre batterie • Utilisez les profils d’économie d’énergie des logiciels propriétaires ou, à défaut, ceux de Windows • Baissez la luminosité de l’écran • Veillez à nettoyer les processus inutiles qui tournent en fond sur votre système • Débranchez ou désactivez les périphériques inutiles • Le hardware a son importance : préférez les CPU basse consommation, les chipsets intégrés, les batteries puissantes et les disques durs 5 400 tpm

I Hardware Magazine

100

105

110

115

120

Charge

Avec toutes les optimisations possibles, on arrive à gagner près de 20 minutes sur une autonomie de 3h avec le profil standard et 6 à 8 minutes comparé au logiciel propriétaire d’économie d’énergie.

Le thème basique de Seven (ou Vista) est moins agréable à l’oeil, mais il permet d’économiser des ressources CPU et de prolonger l’autonomie, les effets d’ombre et de transparence demandant une certaine puissance de calcul.

104

114,5

avez un IGP, cela sera à la fois plus complexe, mais pourrait aussi engendrer des instabilités tellement ces puces sont testées au mégahertz près par les constructeurs. Si vous avez un IGP, cette opération est rarement efficace, mais avec une carte graphique dédiée, le gain est bien présent.

L’importance du hardware En dehors de toutes les astuces qu’il peut y avoir pour améliorer son autonomie, il ne faut pas oublier qu’il y a une limite : le hardware. Acheter une batterie 9 cellules, malgré son prix, peut grandement améliorer les choses, sachant que la plupart des ordinateurs actuellement vendus sont équipés de 6 cellules. De même, les processeurs basse consommation sont un avantage indéniable malgré leur prix : les séries SU et U sont donc préférables aux T chez Intel. Une carte graphique dédiée est bien souvent un gouffre en autonomie, alors contentez-vous de chipsets intégrés si vous n’envisagez pas de jeux. Enfin, il existe des différences notables entre les disques durs. Un 5 400 tpm est relativement économe et silencieux, mais un 7 200 tpm (assez puissant dans notre cas) peut faire chuter l’autonomie de façon significative, jusqu’à 7 min sur notre configuration. A l’inverse, un SSD peut améliorer les choses, avec 5 min de mieux par rapport au 5 400 tpm d’origine, pourtant de dernière génération. Au total, 12 min de différence pour le changement d’un seul composant, c’est assez payant.


EVGA présente sa gamme P55

MALIN. RAPIDE. La compatibilité avec les processeurs Intel® CoreTM i5 et CoreTM i7 assure des performances intelligentes pour des applications de type multitâches, création de médias numériques et gaming toujours plus rapides. Les cartes mères EVGA combinées aux processeurs Intel offrent une expérience de jeu plus fluide et réaliste par l'utilisation de threads multiples gérant l'AI, la physique et les rendus. En dehors du gaming, la technologie Hyperthreading optimise les performances sur des applications multithreadées, faire plusieurs choses à la fois devient plus facile que jamais.

PAR "DÉCOUVREZ LES SUR EVGA.COM"

Intel P55 Express Chipset Based Designed for Intel Socket 1156 Processors ®

®


Geek

Geekitude Petit déjeuner geek

La gamelle USB

L

e restaurant à midi c’est bien mais ça peut très vite peser sur le budget. Pour éviter ce genre de désagrément, rien de tel qu’une gamelle pour manger au bureau. Facturé 29 dollars, la Lunch Box Warmer Bag (www.gadget4all.com) peut être alimenté en 12V via un allume-cigare ou par l’intermédiaire d’une prise USB pour conserver votre plat bien au chaud. Avec toutefois des dimensions limitées à 200x135x98 mm, il ne faut pas être trop gourmand

La résurrection de Pong

S

i nous sommes plutôt friands de nouvelles technologies à la rédaction, nous savons également reconnaître les objets cultes ayant un rapport direct avec nos souvenirs geek passés. A l’image de cette table réalisée par l’équipe d’Evil Mad Laboratories (www.evilmadscientist.com), qui redonne physiquement vie à l’incontournable Pong. Un des premiers jeux vidéo à succès du début des années 70 sur lequel nous avons passé tant d’heures. Et s’il est possible de visionner une vidéo prouvant que cette table fonctionne, il est également possible de découvrir en photo toutes les étapes de fabrication de la table Pong.

L

e réveil est toujours une étape délicate dans notre vie puisque nous fanfaronnons toujours très tard sur nos PC. Au point que nous adoptons presque naturellement le caractère d’un nain. Alors pour éviter de taper sur l’elfe du coin, rien de tel qu’un grille pain Zuse (www.inseq.net) capable d’imprimer douze illustrations pour révéler votre humeur du moment.

Rfiddler

A

trop dépendre des technologies, nous avons toujours pensé que les militaires développaient secrètement des armes capables d’annihiler n’importe quel réseau de communication mais aussi n’importe quel appareil électronique. Mais lorsque qu’un petit génie nous montre comment avec 50 euros, il a réussi à bricoler un fusil capable de détruire des puces RFID et divers petites périphériques nomades, la science-fiction a fini par rejoindre la réalité. Baptisé Rfiddler (http://codeninja.de/rfiddler), l’auteur ne décrit pas la marche à suivre pour fabriquer votre propre arme mais dresse la liste des accessoires qui auront été nécessaire pour réaliser le prototype ainsi qu’une petite vidéo de démonstration. Bluffant !

106

I Hardware Magazine


e

evoMouse Pet

L

’evoMouse Pet de Celluon est un petit dispositif capable de remplacer la souris. Le petit boîtier qui se pose sur une surface plane comme un bureau, s’appuie sur une connexion sans-fil de type bluetooth et intègre des capteurs infra-rouges capables de détecter et retranscrire vos mouvements pour contrôler le curseur de la souris à l’écran. Compatible avec Windows XP, Vista et 7, l’evoMouse Pet est ainsi capable de simuler le déplacement du curseur, le glissé/déposé, le défilement, le zoom , le double clic gauche, ou encore le clic droit. Aucun prix ni aucune date de disponibilité n’ont toutefois été annoncé par la société Celluon (www.celluon.com) qui s’était montré plutôt discrète depuis 2007 et son dispositif laserkey. Un dispositif également bluetooth mais qui permettait de projeter l’image d’un clavier virtuel et d’interpréter la saisie à l’aide de capteurs infra-rouge.

Une guitare électrique tactile propulsée par Linux

V

éritable amoureux et passionné de la guitare électrique, Michael a eu l’idée non pas de remplacer une guitare électrique par un gadget électronique sans fondements mais bel et bien de proposer un instrument de musique électronique incomparable, la Misa Digital Guitar (www.misadigital.com). Reprenant la forme et le design d’une guitare électrique, ne vous attendez pas à vous la jouer façon Guitar Hero puisque les fondements ont été conservés. A savoir une main gauche qui contrôle quelles notes jouer, et une main droite qui contrôle quand les jouer et à quelle intensité. Vous devrez par conséquent apprendre les bases musicales pour espérer appréhender cette Misa Digital Guitar qui repousse les limites de la guitare électrique en offrant bien plus d’effets acoustiques. Architecturée autour d’une distribution Linux Gentoo, l’instrument qui n’est autre qu’un contrôleur MIDI, s’appuie sur un écran tactile qui remplace les cordes, une interface réseau de type Ethernet ainsi qu’un serveur SSH. Notez que l’instrument est en vente auprès de Michael qui est basé à Sydney en Australie (michael@misadigital.com).

Emily The Strange...

E

st une rebelle et une reine de la culture underground pour qui seules ses propres règles importent. Entre geek et icône gothique, ce tome 2 d’Emily The Strange : la mort vous va si bien (www. soleilprod.com) propose d’explorer quelques uns des thèmes fondateurs de notre société avec un regard habilement noir et un humour clairement décalé. La solitude, le rock, la mort, la vengeance et les arnaques sont ainsi passés en revue avec les yeux d’Emily. Un véritable phénomène interplanétaire qui est d’ailleurs en passe d’être adapté sur grand écran.

Mouchakaka

E

crit et illustré par Bebb, Mouchakaka (www.soleilprod.com) est un savoureux mélange humoristique de guano et différents autres excréments naturels très apprécié des mouches et des asticots. Comme son nom l’indique, l’auteur vous invite à mettre les pieds dans... le plat pour découvrir un monde de merde où vous pourrez notamment croiser le grand Archimerde et son célèbre théorème, les bonnes recettes de moucheline mais aussi découvrir toute sorte de papier toilette (à chacun son PQ). En quelque sorte une encyclopédie du caca façon Pierre Perret, qui vous encouragera à vous laver les mains.

Hardware Magazine

I 107


Geek

Windows 7 avancé

P

◗ Sécurisez votre système grâce aux modèles de sécurité ◗ Luttez contre les spywares et malwares et apprenez

à dépanner votre système

◗ Intégrez votre PC dans tout type de réseau : Wi-Fi, VPN,

groupe résidentiel…

et mettez en place un espace FTP

À qui s’adresse cet ouvrage ? ◗ Aux particuliers qui veulent migrer leur PC vers Windows 7 ◗ Aux utilisateurs aguerris de Windows qui souhaitent exploiter les dernières avancées de l’OS ◗ Aux administrateurs système des PME qui doivent maîtriser rapidement Windows 7 9 7 8221 2 1 25 948

Code éditeur : G12594 ISBN : 978-2-212-12594-8

29,90 €

GWT 2

Pour peu qu’on en maîtrise les pré-requis d’architecture, le framework GWT 2 met à la portée de tous les développeurs web la possibilité de créer des applications web 2.0 interactives et robustes avec autant d’aisance qu’en Flex ou Silverlight. Publié en licence libre Apache, le Google Web Toolkit génère depuis Java du code Ajax (JavaScript et XHTML/CSS) optimisé à l’extrême. La référence sur GWT 2 : une autre façon de développer pour le Web La version 2 de GWT est une révolution en termes de productivité, de simplicité et de robustesse. C’est ce que montre cet ouvrage de référence sur GWT 2, qui fournit au développeur une méthodologie de conception et des bonnes pratiques d’architecture. Il détaille les concepts qui sous-tendent le framework pour en donner les clés d’une utilisation pertinente et optimisée : performances, séparation en couches, intégration avec l’existant, design patterns, sécurité… De la conception à l’optimisation et aux tests, toutes les étapes du développement sont déroulées, exemples de code à l’appui. S’adressant tant au développeur qu’à l’architecte, l’ouvrage dévoile les coulisses de chaque API au fil d’un cas d’utilisation simple et décortique les bibliothèques tierces principales telles que GWT-DnD, les API Google Calendar, Google Maps, SmartGWT et Ext-GWT…

Au sommaire Introduction à GWT • Historique et objectif du projet • Performances et support multi-navigateurs • Comparaison avec les autres frameworks Ajax • L’environnement de développement • Télécharger et installer GWT • Packaging et notion de module • Structure d’un projet Eclipse • Mode développement et mode production • Déploiement • Les contrôles • Panorama des composants • Classes UiObject et Widget • Utilisation des feuilles de styles CSS • Composants

S. Jaber

Programmation

Conception : Nord Compo

Code éditeur : G12569 ISBN : 978-2-212-12569-6

– À tous les développeurs web (Java, PHP, Ruby, Python…) qui souhaitent industrialiser la création d’applications complexes Ajax ; – Aux architectes logiciels, chefs de projets ou testeurs qui doivent comprendre l’intérêt de GWT ; – À tous ceux qui voient en JavaScript un socle idéal pour l’exécution d’applications web.

9 7 8221 2 1 25 696

À qui s’adresse cet ouvrage ?

7

Préface de Lucas Riedberger

L

Programmation

GWT 2

Sami Jaber Architecte logiciel et formateur, Sami Jaber a passé plusieurs années comme directeur technique chez un grand intégrateur avant de créer DNG Consulting, cabinet de conseil et d’expertise spécialisé dans les architectures orientées services et le Web 2.0. Webmestre de DotNetGuru.org, il donne de nombreuses conférences sur GWT en France et à l’étranger et assiste les entreprises utilisatrices de technologies .NET ou Java. Son blog, une référence du domaine, est hébergé à l’adresse www.samijaber.com.

de formulaires • Composant SuggestBox et bundle d’image • Conteneurs simples et complexes • Le modèle de placement CSS • Architecture de placement et limites des tableaux HTML • Composants LayoutPanel, TabLayoutPanel, StackLayoutPanel • Bibliothèques tierces • L’incubateur • Ext-GWT et SmartGWT • Glisser-déplacer avec GWT-DnD • Liaison de données • GWT-Log • API GData et Google API • Intégration de code JavaScript • Comprendre JSNI • Le type JavaScriptObject • Les exceptions • Les Overlays et JSON • Magie interne de JSNI • Créer ses propres composants • Le DOM • La mécanique des événements • Composant dérivé de Widget • Attachement à un conteneur et fuites mémoire • Les services RPC • Architecture RPC 2.0 (deRPC) • Étapes de construction d’un service • Sérialisation • Modèle de service hybride • Classes RequestBuilder et architecture REST • Intégration J2EE • Modèle par délégation • Extensibilité • Intégration Spring, EJB3, RMI ou Soap • Chargement à la demande • Positionner les points de rupture • Design Patterns • Liaison différée • Propriétés, règles et conditions de liaison • Générateur de code • Gestion des ressources • Introduction à l’API ClientBundle • Injection dynamique de CSS, de données binaires et de texte • Préfixes et fonction de valeur • Substitution à la volée • Sous le capot de GWT • Compilateur • Arbre syntaxique et optimisations • Accélérer les temps de compilation • Linkers et gadgets • Internationalisation • Constantes • Messages • I18nCreator • Formes plurielles • Gestion des tests • Problématique des tests GWT • Styles de tests • Selenium • HtmlUnit • WebDriver • Bouchons (mock objects) • Design patterns GWT • Gestion de la session • Gérer l’historique • Traitements longs • Séparer présentation et traitements • Patterns MVC, MVP et Commande • Gérer la sécurité • XSS • Injection SQL • CSRF • Authentification • UiBinder • Styles et ressources • Gestion des événements • Internationalisation • Analyseurs personnalisés • Plugin Eclipse • Création de projet • Assistants graphiques • RPC.

Windows avancé

GWT 2

Expert certifié en administration système et nommé MVP par Microsoft sur Windows Vista, Louis-Guillaume Morand est consultant en technologies Microsoft et responsable de publication .NET sur Developpez.com.

◗ Transformez votre ordinateur en serveur web

Conception : Nord Compo © Photo de couverture : istockphoto

Thomas Garcia est un passionné d’informatique et de programmation. Administrateur système, il aime découvrir de nouveaux systèmes et en explorer les moindres recoins. Il anime et modère sur son temps libre la rubrique Windows sur Developpez.com.

orsqu’on a pas envie de parler, rien de tel qu’un petit coussin LED pour communiquer. Le Relational Pillow project (http://fluid.media.mit.edu) s’appuie sur une feuille de substrat souple composée de cathodes, d’anodes, de leds ainsi que sur une interface de reconnaissance tactile des mouvements. Cet oreiller est en outre capable de se connecter à d’autres coussins via un réseau sans-fil. Un prototype est d’ores et déjà fonctionnel et nous n’attendons plus qu’un industriel charitable pour commercialiser cet oreiller ultime.

Développer des applications RIA et Ajax avec Google Web Toolkit

Sami Jaber

35 €

Programmation GWT 2

R

éservé aux utilisateurs désireux de découvrir un nouveau langage de programmation web 2.0, cet ouvrage rédigé par l’expert Sami Jaber (www.samijaber.com), est une véritable bible offrant tous les outils indispensables pour appréhender l’architecture Google Web Toolkit 2 et développer ses propres applications interactives. De l’environnement de développement au compilateur en passant par les bibliothèques tierces, chaque étape de conception est clairement expliqué à condition toutefois de posséder un minimum de connaissances en développement web.

Une imprimante alimentaire

C

ornucopia (http://fluid. media.mit.edu) est un concept d’imprimante pour le moins original puisqu’il propose de réaliser vos impressions sur plats et pâtisseries préférées. Le procédé n’utilise aucun laser ni aucune encre « bio » mais s’appuie au contraire sur des petits récipients contenant les ingrédients alimentaires réfrigérés de votre choix. Chacun de ces récipients est ensuite relié à un mixeur qui permet de réaliser quelques compositions originales avant d’envoyer le résultat vers la tête d’extrusion. De quoi réaliser quelques pâtisseries distillant le sommaire de nos magazines.

Asterisk, la téléphonie d’entreprise libre

Préavis de mort

I

kigami, Préavis de mort (www.kaze.fr) est une oeuvre d’anticipation à la fois originale et particulière. Ikigami jouit d’un énorme succès au Japon et dépeint avec cynisme la société Japonaise puisque l’histoire raconte comment à la suite d’un programme de vaccination national annuel mis en place lors de chaque rentrée scolaire, les victimes entre 18 et 24 ans arbitrairement choisies, reçoivent et vivent leur préavis de mort. Un préavis indiquant le jour et l’heure exacte de l’issue fatale, délivré par le fonctionnaire Fujimoto. Ce n’est d’ailleurs pas pour rien si le manga Ikigami fait parti de la sélection officielle du festival de BD d’Angoulême 2010. L’adaptation cinématographique de l’oeuvre de Motorô Mase est d’ailleurs d’ores et déjà disponible en édition limitée DVD.

108

I Hardware Magazine

A

vec cet ouvrage (www.editionsl’Admin l’Admin eyrolles.com), PhiAsterisk lippe Sultan nous dévoile toutes les clés pour déployer son propre réseau télécom à l’aide d’Asterisk qui est une solution libre de téléphonie IP. Si l’ouvrage est dédié en premier lieu au monde des professionnels, ce dernier permet néanmoins de découvrir et comprendre une technologie libre qui pourra s’avérer très utile pour déployer LinuxMCE chez vous (http://linuxmce. org). Une distribution Linux Media Center qui intègre en plus des fonctionnalités de domotique, de visio-conférence et de surveillance vidéo.

G12434_Asterisk_Couv:12443_Debian

25/11/09

14:32

Page 1

P. Sultan

◗ Optimisez les partitions et les disques durs ◗ Chiffrez et sauvegardez vos données

Un oreiller geek

Cahiers de

Système libre de téléphonie sur IP le plus utilisé au monde, Asterisk séduit tous ceux qui cherchent l’assurance d’une téléphonie sans péril et à moindre coût, au sein d’entreprises de toutes tailles ! Au fil d’une étude de cas d’entreprise, ce cahier accompagne l’administrateur système dans la conception et le déploiement de son réseau ToIP/VoIP. Au-delà des fonctions traditionnelles de messagerie vocale, fax ou audioconférence, le PABX sur IP Asterisk sert aussi d’interface SIP avec les équipements des FAI comme la Freebox ou les réseaux publics (RTC, GSM…). Véritable boîte à outils pour développer de puissantes applications téléphoniques, il s’intègre au Web, à la messagerie électronique et instantanée et aux annuaires LDAP.

Asterisk et la ToIP libre • Protocoles de ToIP (H.323, SIP, MGCP, IAX, Jingle) • Présentation de l’étude de cas • Prise en compte de l’existant • Contraintes réseau • Installation d’Asterisk • GNU/Linux • Programmes complémentaires (DAHDI et libpri) • Adressage IP • Distributions et modules d’Asterisk • Architecture réseau • Filtrage • Configurer les postes téléphoniques • SIP pour le serveur et les postes physiques • IAX2 pour les softphones • Plan de numérotation (dialplan) • Contextes, extensions et variables • Configurer l’interface vers le RTC • Asterisk, serveur vocal interactif (SVI) • Les fichiers vocaux (langue, enregistrement…) • Messagerie vocale • Activation via le Web, notifications, renvois, consultation • Le fax via le Web • Notification d’appel • Accès à distance aux ressources téléphoniques • IAX • Sécurité et confidentialité : VPN IPSec • Gérer les comptes utilisateurs • Contrôle d’accès • Installer Asterisk chez un particulier • L’obstacle de la traduction d’adresses (NAT) • Configurer un softphone • Réunions téléphoniques • Sécurité • Mise en place du serveur d’audioconférences • Intégration à une application web • Intégration au système d’information (CTI) • Scripts AGI (Asterisk Gateway Interface) • Présentation du nom de l’appelant par consultation de l’annuaire • Fax : envoi par le Web et réception par e-mail • Appel par composition d’adresse e-mail sur un softphone • AMI (Asterisk Manager Interface) pour l’administration et la supervision • Click-to-call avec Apache/PHP • Web dynamique avec Ajam (AMI + Ajax) • Administrer les serveurs Asterisk • Sécurité • Journaux d’activité (logs) • Tickets de taxation (CDR) • Authentification RADIUS • Diagnostiquer un dysfonctionnement • Débogage et analyse réseau • Interconnexion de sites • Kamailio en tant que proxy SIP • Domaines d’application particuliers • IPv6 • SRTP • Vidéo • XMPP (Jabber) • GoogleTalk et Jingle • Contribuer • Versions d’Asterisk • Demander de l’aide à la communauté.

Ingénieur en télécommunications à l’INRIA et diplômé de Telecom SudParis, Philippe Sultan développe des services et applications téléphoniques basés sur Asterisk et d’autres logiciels libres. Contributeur au projet depuis 2005 et développeur officiel depuis 2007, il maintient les modules d’Asterisk liés au protocole XMPP (Jabber).

Développeur passionné par les logiciels libres, Mark Spencer est l’inventeur d’Asterisk, créé pour pallier le manque d’un PABX traditionnel dans la société où il travaillait. Depuis, il a fondé aux États-Unis la société Digium, fournisseur en télécommunications essentiellement basées sur Asterisk.

39 €

Asterisk

AppLocker…

Code éditeur : G12434 ISBN : 978-2-212-12434-7

◗ Gardez la main sur les actions utilisateurs : autorisations,

9 782212 124347

◗ Paramétrez vos périphériques et installez vos programmes

Conception couverture : Nord Compo

Windows 7 avancé

◗ Configurez finement votre système et optimisez-le

SANSTABOO

Adaptez toutes les facettes de Windows 7 à vos habitudes

Programmation

Windows 7 au doigt et à l’œil

Thomas Garcia & Louis-Guillaume Morand

7

Windows avancé

Pour exploiter tout le potentiel de Microsoft Windows 7, chaque utilisateur doit s’approprier un ensemble complexe d’outils. Cet ouvrage vous explique comment paramétrer, administrer et dépanner votre PC pour qu’il réponde parfaitement à vos besoins. Tant pour une utilisation familiale que professionnelle, ce livre présente les bonnes pratiques qui feront de vous un expert de Windows 7.

Thomas Garcia & Louis-Guillaume Morand

SANSTABOO

ublié par les éditions Eyrolles (www.editionseyrolles.com) et rédigé par le duo Thoms Garcia et Louis-Guillaume Morand, « Windows 7 avancé » est un ouvrage qui vous permettra d’appréhender chaque facette du nouvel OS de Microsoft. Toutefois, comparé aux nombreuses autres ouvrages dédiés à Windows 7, celui-ci se distingue par sa mise en page claire et soignée ainsi que par son contenu qui est à notre avis, le plus complet.

Cahiers de

Philippe Sultan

Préface de Mark Spencer (Digium, Inc.)

Collection dirigée par

Nat Makarévitch


L’Avatar de tous les superlatifs

Q

ue vous ayez adoré le dernier blockbuster de James Cameron, Avatar ou pas encore renoncé à votre dignité en enfilant des lunettes polarisées, voici quelques chiffres qui devraient vous mettre l’eau à la bouche. Le film ayant été réalisé tout en 3D, il a demandé quelques machines pour en calculer le rendu final. En 2008, Le studio Weta Digital de Peter Jackson en Nouvelle-Zelande, celui là même qui a servi aux effets speciaux du Seigneur des anneaux, s’est doté de 900m² de puissance brute. On ne dénombre pas moins de 34 racks de 4 machines, avec 32 blades par sous-système embarquant pas moins de 35 000 cœurs de processeurs Intel harpertown (Yorkfield), un peu plus de 100 To de ram et le tout lit et écrit sur 3 Petaoctets de disque durs ! En période de charge, Wilkie (ndlr : le nom donné à la machine) a été soumise à plus de 10 000 requêtes pour environ 1,3 millions de taches par jour ! Sachant qu’une trame de 24 images par seconde prenait plusieurs heures en rendu et qu’une minute de film représente pas moins de 17,28Go… On ne sait pas si ces chiffres vous donneront envie d’aller voir les schtroumpfs sur Pandora, heu non, Avatar pardon , mais dans le pire des cas, il ne vous restera plus qu’à attendre la version Blu Ray 3d.

RCA Airnergy

S

i la tendance est de proposer des systèmes portables embarquant des cellules photovoltaïques pour recharger ses appareils nomades en tout temps et quel que soit le lieu, la société RCA a suivi un tout autre chemin. La société a en effet dévoilé lors du dernier CES, un dispositif USB portable capable de capturer et de convertir les ondes WiFi en énergie électrique pour recharger les batteries. La société s’est montré plutôt avare d’un point de vue technique et s’est contenté d’avancer que le RCA Airnergy (www.popsci.com) était capable de recharger 70% de la batterie d’un blackberry en quelques heures. Il faudra attendre l’été 2010 pour voir les premiers modèles débarquer aux environs de 50 dollars et juger de l’efficacité de cette technologie.

Une tablette tactile flexible Une batterie épaisse comme une feuille

A

près les premières feuilles embarquant des cellules photovoltaïques développées par la société Nanosolar, des chercheurs Japonais de l’Advanced Materials Innovation Center of Mie Industry (AMIC) and Enterprise Support Center viennent de mettre au point un procédé permettant de fabriquer des batteries rechargeables aussi épaisses qu’une feuille (500 um) mais également flexibles. Aucun détail technique n’a été révélé hormis le fait que le prototype était capable de délivrer une tension comprise entre 2 et 4 Volts, mais l’état d’avancement des recherches est si avancé qu’une commercialisation est d’ores et déjà prévue pour 2011.

A

près avoir présenté le téléviseur LCD Full HD 42 pouces le plus fin au monde avec une épaisseur de seulement 2,6 mm pour un poids de 4 Kgs, le constructeur LG vient récemment de dévoiler un prototype e-paper assez impressionnant puisque ce dernier offre une surface d’affichage de 250 x 400 mm presque aussi grande qu’une feuille A3 pour une épaisseur de seulement 0,3 mm et un poids plume de 130 grammes. S’appuyant sur une feuille de substrat métallique plutôt qu’une feuille de «verre», l’e-paper est flexible à la manière de n’importe quel quotidien papier, et se montre capable de reprendre sa forme d’origine grâce aussi à l’absence de rétro-éclairage. LG n’a pas dévoilé grand chose de plus si ce n’est que ce prototype s’appuie sur la technologie GIP (Gate In Panel). En découvrant cette avancée extraordinaire à l’aube de la démocratisation des ereaders, on se dit que les premiers modèles commerciaux lents et rigides sont vraiment de maladroits prémices de l’avenir. Le constructeur n’a toutefois dévoilé aucun prix ni aucune date de disponibilité mais un tel périphérique pourrait changer la façon dont vous lirez vos magazines dans quelques années !

Hardware Magazine

I 109


Pratique

Les

softs

du moiS Manuel Da Costa Ffdshow Tryout

les filtres en mode DXVA. A l’issue de quoi, les filtres internes du lecteur MPC-HC seront eux-mêmes remplacés en cours d’année par ceux de Ffdshow.

SPlayer

N

ous débuterons cette rubrique avec l’incontournable Ffdshow Tryout (http://sourceforge.net/projects/ffdshow-tryout) qui amorce en ce début d’année, un tournant majeur dans son développement. Puisque la dernière version bêta marque le début du support officiel du bitstream audio HD avec les Radeon et les cartes son HDMI 1.3. Une fonction qui, pour rappel, permet de faire transiter tous les types de sons via la sortie HDMI. Ajoutons à cela la prise en charge de l’accélération matérielle via le mode DXVA (DirectX Video Acceleration) pour la lecture des formats h.264 et VC-1, que vous utilisiez une solution graphique Intel, ATi ou nVidia. En contrepartie, l’implémentation du mode DXVA étant toute récente, les filtres de posttraitement vidéo seront désactivés et il ne sera donc pas possible d’exploiter la puissance de calcul de votre GPU avec les sous-titres. Du moins pas pour longtemps puisque de l’aveu même du développeur, Ffdshow Tryout intégrera le filtre de sous-titres compatible DXVA du player Media Player Classic Home Cinema (http://mpc-hc.sourceforge. net), en plus de proposer à terme tous

110

I Hardware Magazine

Voici un lecteur d’origine chinoise baptisé SPlayer Home Theater (www. splayer.org) et presque aussi léger que MPC-HC. Notez qu’une version portable existe et que SPlayer supporte l’accélération GPU, le logiciel CoreAVC Pro qui, pour rappel, permet d’optimiser le décodage matériel, un éditeur de Pixel Shaders, un large éventail de formats audio vidéo et de sous-titres, ainsi que tous les filtres Ffdshow. Mais ce n’est pas tout puisque le logiciel intègre une fonction de capture d’écran (image et miniature), d’upscaling HD, ainsi que des filtres de traitement s’appuyant sur le Shader Engine et le LiveColor qui permettent d’améliorer le rendu de l’image et des couleurs. L’aspect esthétique de SPlayer n’est d’ailleurs pas en reste avec une interface visuelle qui gère parfaitement les effets de transparence et le bureau Aero de Windows Vista et 7. Bref, une

Belarc Advisor

excellente surprise et une alternative de choix pour ceux qui n’apprécient guère MPC-HC (il y en a ?), ou pour ceux qui sont tout simplement curieux.

Belarc Advisor Très pratique, Belarc Advisor (http:// belarc.com/free_download.html) est un logiciel gratuit pour un usage privé, capable de dresser un état complet de votre système sous la forme d’une page Web. Cette dernière vous donnera tous les détails sur les logiciels installés, le matériel, les mises à jour de Windows absentes, ainsi que l’état de l’aspect sécurité du système. Notez que Belarc Advisor supporte Windows 7, Server 2008, Vista, Server 2003, et XP, que vous utilisiez un système 32 ou 64 bits. Mais aussi Windows 2000, NT 4, Me, 98, et même 95.

Intel Turbo Boost Technology Monitor Comme son nom l’indique, Intel Turbo Boost Technology Monitor (http:// downloadcenter.intel.com) est un gadget se logeant dans la barre latérale de Windows Vista ou sur le bureau de Windows 7, capable de surveiller et d’afficher en temps réel la fréquence des processeurs Core i5 et i7 d’Intel lorsque la charge de travail de ces der-

SPlayer Home Theater


7capture

TMonitor

niers active la technologie Turbo Boost. Plus intéressant, le logiciel TMonitor (www.cpuid.com) permet lui aussi de visualiser la fréquence de chacun des coeurs du processeur avec une précision de 50 ms et les effets de l’Intel Boost Technology. Mais il permet, en outre, d’afficher la fréquence des coeurs virtuels, le coefficient multiplicateur et d’enregistrer un journal détaillant chaque changement. A noter qu’une nouvelle version supportant les processeurs AMD devrait être disponible à l’heure où vous lirez ces lignes

tant très utile de connaître l’autonomie maximale offerte par nos batteries, d’autant plus que les estimations affichées par les distributions Linux et Windows sont

Windows 7 in a box

Windows 7 in a box Si la création d’un dossier nommé GodMode.{ED7BA470-8E54-465E-825C99712043E01C} permet effectivement d’afficher toutes les fonctions et les paramètres de Windows 7 sous la forme d’une liste et dans une unique fenêtre (www.elfedac.info/?p=215), cette petite astuce ne nous a jamais donné entière satisfaction à la rédaction. Pour pallier ce manque d’ergonomie évident, nous vous recommandons, au contraire, d’utiliser le logiciel gratuit Windows 7 in a box (www. big-daddy-design.com) qui offre à peu de chose près les mêmes fonctions, mais de manière plus claire et intuitive.

Imtec Battery Mark S’il est courant de bencher la plupart des composants de nos machines, il est moins courant de torturer les batteries des netbooks et des PC portables. Il est pour-

très souvent erronées, voire assez éloignées de la réalité. Gratuit et en anglais, Imtec Battery Mark (http://en.imtec.org. ru) propose deux sortes de tests : rapide et normal. Si le premier permet d’avoir une première idée de l’autonomie de votre batterie, c’est le test normal qui permettra de pousser la charge de travail du processeur à son maximum et d’avoir une estimation plus réaliste.

Mais le logiciel reste gratuit et suffira à la plupart des utilisateurs.

Un Steam like dédié aux mods de jeux Nous terminerons cette rubrique avec Desura (www.desura.com). Une plateforme logicielle développée depuis maintenant 2 ans par l’équipe de ModDB (www.moddb.com). Mais plutôt que d’emprunter le même chemin que Steam, Desura est avant tout une plateforme communautaire rassemblant tous les développeurs indépendants mais aussi les joueurs passionnés. Il sera ainsi possible de suivre l’actualité des mods en général ou via un filtrage défini par vos soins, d’accéder à de nombreux tutos de prise en main pour les SDK existants, de promouvoir un mod ou un DLC que vous avez développé, ou encore de mettre automatiquement à jour vos mods. Mais chacun pourra également proposer des tests, poster des commentaires, uploader des captures d’écran, accéder à des ressources développeurs et bien d’autres choses encore. Un must incontournable qui est encore en phase bêta privée.

7capture… est un logiciel de capture d’écran sous Windows, capable de prendre en charge les effets de transparence mais aussi les coins arrondis des fenêtres. En se limitant à la capture du bureau et d’une fenêtre active, 7capture (www.7capture. com) n’offre pas toutes les fonctions d’un logiciel aussi abouti qu’HyperSnap-DX ou encore Solid Capture, comme la capture d’une région ou de multiples régions.

Desura

Hardware Magazine

I 111


Comparatif

Antec, Arctic Cooling, FSP, Fractal Design, Seasonic, SilverStone

Silence, rendement, design les meilleures alimentations du moment Arctic Cooling et Fractal Design, les petits nouveaux, parviendront-ils à concurrencer les ténors ? La première alimentation 80 Plus Gold de Seasonic est-elle à la hauteur ? Découvrez sept nouvelles alimentations en test, grâce à notre analyse de marché, choisissez la meilleure.

L

thomas olivaux

e marché des alimentations est sans cesse en mouvement. De nouvelles marques font leur apparition, comme Arctic Cooling, le spécialiste des ventirads pour cartes graphiques et ventilateurs, ou Fractal Design, une toute nouvelle marque suédoise. Ils commencent fort, leurs premières alimentations visent haut. Pendant ce temps-là, les ténors du marché ne se tournent pas les pouces. 80 Plus Silver ? C’est presque une formalité à présent, les nouvelles alimentations continuent de favoriser un rendement toujours plus élevé. Seasonic, leader haut de gamme incontesté, revient sur le devant de la scène pour la première fois depuis un an avec les X-Series, premières alimentations 80 Plus Gold de la marque, à la conception totalement novatrice. Les sept alimentations que nous avons intégrées dans ce comparatif délivrent une puissance de 550 à 850 W et sont vendues de 60 à 190 euros. Laquelle convient à votre PC ?

112

I Hardware Magazine


Antec

Signature 850 W, modulaire, 190 euros Qualité, look, finitions Une belle boîte noir et jaune, le label Signature écrit subtilement en noir brillant sur fond noir mat, le déballage est flatteur. Justifiant son nom, la première chose que nous découvrons est un certificat attestant que l’alimentation a passé avec succès toute la batterie de tests en fin de production. Le bloc, de grande profondeur (18 cm), est peint en noir mat lisse, un finish plutôt classique. L’étiquette en écriture fine blanche sur fond noir fait dans la sobriété. Nous pourrions dire de la Signature qu’elle est semi-modulaire. En effet, de nombreux câbles sortent du bloc d’origine, un peu trop selon nous. Outre les indispensables ATX 24, 8 et 4 pins, nous avons deux 6/8 pins PCI-Express et surtout deux brins, l’un proposant 3 Molex et l’autre 3 SATA. Si vous vous contentez d’un ou deux périphériques SATA, il faudra faire avec les Molex inutilisés, dommage.

Bruit

Rapport qualité/prix Qualité et finitions

5 4 3 2 1 0

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement

A l’heure où de plus en plus d’alimentations abandonnent le ventilateur 120 mm pour un 140 mm, Antec surprend en utilisant un simple 80 mm pour la Signature. Pourtant, ce modèle est un exemple de silence tant que la température et la charge ne sont pas extrêmes. Concrètement, si vous ne tirez pas plus de 600 W, le ventilateur est tout bonnement inaudible, celuici tournant à moins de 1 250 tours. Lorsque celui-ci atteint 1 500 tours, il commence à se faire entendre et si vous avez le malheur de dépasser 75 ou 80 % de charge, la Signature devient plutôt pénible. Quand la température ambiante excède 50 °C, le ventilateur peut grimper jusqu’à 4 600 tours, c’est atroce. Pour une belle configuration équipée d’une ou deux cartes graphiques, la Signature 850 W est généralement inaudible.

Performances électriques Concurrente des Cooler Master UCP et de la Seasonic M12D, l’Antec Signature fait partie de ces rares alimentations à fonctionner avec un convertisseur courant continu vers courant continu (CC vers CC, DC to DC) afin de maximiser le rendement. Pari réussi puisqu’elle fut l’une des premières alimentations certifiées

80 Plus Bronze, un label qui n’est plus si rare désormais. Ses concurrentes sont même Silver voire Gold pour la nouvelle Seasonic. La stabilité des tensions nous a un peu choqué, avec des chutes en charge allant jusqu’à 5 %. Ce n’est pas spécialement inhabituel, mais ça fait désordre sur un modèle aussi haut de gamme et cher. Seasonic et Cooler Master parviennent à rester sous les 3 % quelle que soit la charge appliquée.

Rapport qualité/prix Sortie il y a un peu plus d’un an, la série Signature déclinée en 650 et 850 W reste le haut de gamme du constructeur. Malheureusement, les prix n’ont pas vraiment baissé et à 190 euros le morceau, difficile de se ruer dessus. La M12D de même puissance est légèrement meilleure et coûte une dizaine d’euros de moins. Pour ceux qui se passent volontiers d’une alimentation modulaire, la Cooler Master UCP 900 W à 150 euros est un très bon choix. emballage profondeur

silence jusqu’à 600 W trop de fils non amovibles pour une modulaire

tensions qui chutent un peu trop pour un haut de gamme

Hardware Magazine

I 113


Comparatif

Antec

TruePower New 550 W, modulaire 85 euros

La mythique gamme TruePower d’Antec a été renouvelée en 2009 par la série TruePower New. Déclinées de 550 à 750 W, ces alimentations cherchent à renouveler le succès des aînées, à savoir des alimentations de milieu de gamme bénéficiant d’un très bon rapport qualité/prix. Parfaitement adapté à la majorité des PC, nous avons testé le « petit » modèle de 550 W. Dès 85 euros, nous avons droit à un finish noir légèrement granuleux, qui rappelle la couche de peinture des Seasonic. A part le côté où est apposé le gros sticker avec les caractéristiques techniques du modèle, cette TruePower New est un exemple de sobriété, le logo Antec étant embouti dans un coin et il n’y a aucun petit sticker posé çà et là pour nous gâcher le plaisir. Même la grille du ventilateur est noire, ce qui n’est pas toujours le cas. Constat appréciable : de plus en plus d’alimentations sont modulaires, même à des prix raisonnables, c’est le cas de cette 550 W. Elle est du moins semi-modulaire, car Antec a jugé bon de fournir en dur les câbles utilisés dans la Rapport majorité des PC, y compris un brin de Molex et un autre de SATA. qualité/prix 5 4 3 2 1 0

Qualité et finitions

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement

Electriquement parlant, les stabilités du 5 et 12 V sont tout à fait satisfaisantes, même bonnes pour ce niveau de prix, avec des écarts de 0,1 à 0,2 V, rarement plus. Pour ne rien gâcher, ce bloc est certifié 80 Plus Bronze. Au niveau du bruit, si tout se passe bien en dessous de 50 % de charge (elle est très silencieuse), le ventilateur s’affole rapidement au-delà et devient franchement pénible passé les 400 W. Concrètement, ce modèle n’a sa place que pour les machines qui ne possèdent pas de grosses cartes graphiques. Pas mauvaise, nous ne pouvons pas vraiment la recommander sachant par exemple que la Corsair HX 520 W au même prix fait un peu moins de bruit en charge et offre une modularité plus complète.

look/finition pour le niveau de gamme bruit en charge modularité incomplète

FSP

Everest 85plus 600 W, modulaire, 90 euros

FSP ne sort pas beaucoup de nouveautés et celle que nous tenons entre nos mains n’est qu’une simple évolution du modèle que nous avions déjà testé. La gamme Everest représente le meilleur de FSP et cette dernière évolution propose un rendement amélioré. Il s’agit d’ailleurs de la gamme Everest 85plus, tandis que notre précédent test proposait une Everest 80plus. La famille Everest 85plus bénéficie du label 80 Plus Bronze et est proposée en 500, 600, 700 et 800 W. Nous avons testé la version 600 W vendue 90 euros.

Rapport qualité/prix 5 4 3 2 1 0

Qualité et finitions

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement ? difficile à trouver en France

114

I Hardware Magazine

couleur ?

Comme la TruePower New, ce modèle reste sur une architecture classique à quatre rails de 12 V, quatre rails de 18 A dans le cas de ce modèle. Il est amusant de constater que la moins puissante Antec de 550 W propose quatre rails de 20 A ! Certes, une 550 W ne sort pas 80 A sur le 12 V (il s’agirait sinon d’une 900 ou 1 000 W !), mais ça permet plus de souplesse quant à la possibilité de tirer jusqu’à 20 A sur un seul rail, si une carte graphique réclame autant par exemple. Le plus gros problème de l’Everest 85plus réside probablement dans sa couleur. Peinte en bleu foncé tirant sur le violet, elle ne s’accorde malheureusement avec rien. A part séduire quelques personnes qui aiment se faire remarquer, les adeptes d’un PC looké bien accordé iront voir ailleurs.


Artic

Cooling Fusion 550R 550 W, 80 Plus, 60 euros Qualité, look, finitions

Le déballage de l’alimentation Fusion 550R n’est pas des plus excitant, à moins d’être un militant écolo adepte du carton recyclé ; toutefois, nous achetons une alimentation et non une boîte, ça n’est donc pas un défaut, surtout à ce niveau de prix. D’aspect original, la Fusion 550R est un petit boîtier noir mat embouti çà et là avec des logos Eco 80 et Fusion 550R. De puissance raisonnable, la coque est peu profonde (13,5 cm) mais nous ne saurions manquer le proéminent ventilateur placé à l’extérieur de l’alimentation, portant la profondeur à un très standard 16 cm. Pour un petit prix, la qualité est tout à fait correcte, les câbles (non amovibles) sont notamment gainés. Pour la disposition, il faudra se contenter d’un montage classique ; non seulement le connecteur ATX 4 pins est court (moins de 40 cm) mais surtout, les prises sont étrangement réparties. Les six SATA sont toutes sur le même brin, le second cordon regroupant trois Molex et un connecteur pour un lecteur de disquettes. Il n’y a pas de connecteurs ATX 12 V à 8 pins : hors overclocking extrême, ça ne sert que pour les anciennes machines en Pentium D qui consommaient à outrance, mais il est surprenant de trouver une alimentation qui s’en passe encore en 2010. En bonus, la Fusion 550R propose deux prises pour brancher des ventilateurs de boîtier.

Bruit Comme l’Antec Signature, Arctic Cooling a fait le pari du ventilateur de 80 mm, plutôt qu’un imposant 120 ou 140 mm sur le dessus. Issu de leur gamme de ventilateurs de boîtier, il s’agit d’un Arctic F8 Pro au look original. Monté sur quatre petits supports en caoutchouc, il se fait très discret, même lorsque l’alimentation est fortement sollicitée. Variant de 700 à 2 000 tours, rien à signaler, il faut vraiment tirer à fond dans l’alimentation pour que le ventilateur devienne vraiment pénible. Difficile de trouver mieux à ce prix.

Performances électriques Construite autour de deux rails 12 V de 17 A chacun, nous n’avons rien à redire, si ce n’est que la stabilité des tensions est perfectible, mais c’est le cas sur toute alimentation de ce niveau de prix, le rendement est tout à fait bon. Certifiée 80 Plus uniquement, elle mériterait un label 80 Plus Silver avec un rendement de 88 % à mi-charge et de 85 % à 20 % de charge. Hélas, elle ne parvient pas à tenir les 85 % à charge maximale. Le saviez-vous ? C’est Seasonic qui fabrique cette alimentation, voilà pourquoi on n’est pas déçu ! A l’intérieur, nous reconnaissons immédiatement Qualité et l’agencement Seasonic, la seule véritable différence consiste au finitions remplacement du ventilateur.

Rapport qualité/prix Annoncée à 90 euros, l’alimentation d’Arctic Cooling ne faisait pas vraiment rêver. Dans la pratique, nous la trouvons en boutiques vers 60 euros et, du coup, elle est un des meilleurs choix que l’on puisse envisager. Silencieuse et économe, elle offre une puissance intéressante. Concrètement, vous devrez trancher entre une alimentation modulaire plus modeste et légèrement plus bruyante comme la Corsair HX 400 W ou cette 550 W.

Rapport qualité/prix 5 4 3 2 1 0

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement

rapport qualité/prix silence câblage non modulaire

Hardware Magazine

I 115


Comparatif

Fractal

Newton R2 800 W, modulaire, 140 euros Qualité, look, finitions Les Suédois de Fractal Design ont réussi leur premier produit, le boîtier Define R2 testé dans notre précédent numéro. Côté alimentations, la première gamme s’appelle Newton R2 et compte bien poursuivre la volonté de design de la marque. Sortie d’une boîte neutre, nous apprécions d’emblée le fait que l’alimentation fasse partie de ces modèles protégés par un petit sac en toile. Chose moins courante, les cordons modulaires sont eux aussi placés dans un sac, bien pratique pour les ranger si vous désirez jeter la boîte en carton. Le bloc en lui-même est peint en noir mat lisse, c’est assez réussi mais plutôt sensible aux taches, la trace d’un doigt se faisant vite remarquer. Le ventilateur est blanc et l’alimentation propose en dur les cordons 20/24 et 4/8 pins pour la carte mère, gainés en noir comme sur toute alimentation haut de gamme. En résumé, nous n’avons pas un modèle qui vient bouleverser les standards établis en matière de finitions, mais pour une première de la part de Fractal Design, c’est très bon.

Bruit Refroidie par un ventilateur de 135 mm sans marque, la Newton R2 est un modèle de silence. C’est bien simple, nous ne l’entendons pas jusqu’à 400 W et, même au-delà, elle reste très discrète, son ventilateur accélère moins fort que l’Antec Signature par exemple. La fiche constructeur indique qu’en dessous de 350 W, le ventilateur tourne en deçà de 670 tours.

Performances électriques C’est assez rare pour être souligné, les alimentations Newton R2 (déclinées en 650, 800 et 1 000 W) sont des blocs monorails. Ça signifie que l’essentiel du courant délivré, celui d’une tension de 12 V, est assuré par un seul et unique transformateur, qui devient monstrueux dans le cas d’alimentations aussi puissantes. Beaucoup de constructeurs ont abandonné cette conception pour répartir la puissance sur plusieurs rails au début des années 2000, au fur et à mesure que les puissances ont explosé. C’était plus prudent et plus économe, pour ne pas avoir à utiliser des composants trop chers. Depuis quelques mois, les produits haut de gamme retournent vers le monorail qui offre plus de souplesse quant à l’utilisation de la puissance fournie. Ainsi, au lieu d’attribuer un rail de 18 A à une carte graphique et un autre de 18 A à l’ATX 12 V du processeur, autant mettre un gros 40 A et chacun prend ce dont il a besoin à un instant T. La Newton R2 800 W est donc architecturée autour d’un gros rail 12 V de 60 A. C’est sans doute pour cette raison qu’elle n’offre pas un excellent rendement, un peu moins bon que la moyenne ; en revanche, les tensions délivrées sont d’une stabilité exemplaire, c’est un bon bloc pour overclockers.

Rapport qualité/prix Il est encore assez difficile de trouver les produits Fractal Design dans le commerce, mais les quelques boutiques qui proposent la Newton R2 réclament 140 euros. C’est une sacrée somme, mais à y regarder de plus près, c’est plutôt placé pour une 800 W modulaire de bonne facture. Beaucoup de concurrentes, parfois moins bonnes, sont affichées à 150 euros et plus. Si vous avez besoin d’une telle puissance, pour que votre PC soit à l’aise avec deux cartes graphiques haut de gamme par exemple, c’est un bon choix.

Rapport qualité/prix 5 4 3 2 1 0

Qualité et finitions

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement silence -

116

prix pour une 800 W

I Hardware Magazine

connectique complète


Seasonic

X 750 W, modulaire, 165 euros Qualité, look, finitions Emballé dans un joli sac en feutre noir, le bloc Seasonic X-750 est bien à l’abri. Le sortir offre la bonne surprise de tomber nez à nez avec une alimentation 100 % modulaire, c’est si rare. 100 % modulaire, c’est-à-dire que même les connecteurs indispensables à la carte mère ne sont pas fixés en dur dans l’alimentation. Les câbles sont regroupés dans une pochette refermable qui vous permettra de les ranger proprement, même après avoir jeté la boîte de l’alimentation. Nous n’avons strictement rien à redire quant à la qualité de fabrication, c’est propre et robuste comme nous avons l’habitude avec Seasonic. Le finish est une peinture noir mat un peu granuleuse, nous avons connu plus sexy ; certains trouveront un peu kitch les stickers à l’écriture dorée, les alimentations X-Series affirmant leur prestigieuse certification.

Bruit Seasonic est réputé depuis des années pour produire des alimentations haut de gamme qui associent qualités électriques et silence. Fidèle, Seasonic fait toujours confiance à Sanyo Denki pour le ventilateur qui équipe les X-Series, un 120 mm à roulement à billes. La régulation adopte trois modes de fonctionnement : totalement coupé tant que la charge ne dépasse pas 20 %, un mode Silence entre 20 et 50 % de charge et un mode Refroidissement où la vitesse du ventilateur accélère au-delà de 50 % de charge. Nous ne connaissons pas les vitesses de rotation, mais autant dire que nous n’avons même pas entendu le ventilateur se mettre en route en mode Silence et que, même au-delà de 50 % de charge, ça reste très peu audible. Il faut vraiment arriver proche de la puissance maximale pour commencer à percevoir quelque chose. Une vraie référence du genre.

Performances électriques 80 Plus Gold, ce label seul en dit long sur les prestations de la bête. Pour parvenir à un rendement aussi élevé (90 % minimum à 50 % de charge, 87 % minimum à 20 et 100 % de charge), il faut clairement utiliser des composants top niveau mais également repousser les limites du design. Et pour le coup, Seasonic l’a fait. En ouvrant l’alimentation, c’est la stupéfaction, mais où sont passés les gros radiateurs ? L’agencement des composants a entièrement été revu, nous n’avions pas découvert une alimentation aussi originale depuis des années. Et la qualité est là. On est habitué, par exemple, à voir des condensateurs de filtrage de bonne qualité comme ceux proposés par le Japonais Chemi-con. Mais là où la majorité des constructeurs qui font l’effort de les acheter se contentent des modèles certifiés 85 °C, comme l’alimentation Fractal Design de ce comparatif par exemple, Seasonic a opté pour les meilleurs, certifiés 105 °C. A l’équerre, nous avons droit à un second PCB plus petit qui fait à la fois office de support pour les connecteurs des câbles amovibles mais aussi la distribution du courant continu. Comme toute alimentation de son rang, la X-750 est de type DC to DC, c’est le second modèle de la marque construit comme ça, après l’excellente M12D. Seasonic a prévu large, cette X-750 utilise un rail principal 12 V de 62 A, c’est plus que la majorité des 800 W ! Nos tests n’ont fait que confirmer nos soupçons, c’est tout simplement la meilleure alimentation que nous ayons jamais essayée, des tensions ultrastables, le tout à un très haut niveau de rendement, chapeau.

Rapport qualité/prix 165 euros, c’est vraiment cher pour une alimentation de 750 W, mais ça n’est pas du vol puisque ce modèle est le meilleur un peu partout. Un beau cadeau à faire à votre PC, ne serait-ce que la version 600 W à 150 euros.

Rapport qualité/prix Qualité et finitions

5 4 3 2 1 0

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement silence rendement prix pour une 750 W

stabilité des tensions

100 % modulaire

Hardware Magazine

I 117


Comparatif

SilverStone

Strider Plus 750 W, modulaire, 120 euros Qualité, look, finitions On prend le haut de gamme Strider, on l’améliore, pour obtenir Strider Plus. Rien à dire, cette alimentation 750 W est sobre et belle, peinte en noir brillant et 100 % modulaire, comme la Seasonic. Concernant l’emballage, en revanche, nous avons connu mieux. La Strider Plus est livrée avec tous les câbles branchés et si vous désirez en retirer la moitié pour qu’elle corresponde à votre installation, vous n’aurez aucun sachet pour les ranger. Pour un produit qui se veut haut de gamme, c’est un peu dommage. Avec 16 cm de profondeur, elle est relativement compacte, notamment pour une 750 W modulaire. Il y a un total de six connecteurs PCI-Express, de quoi brancher trois cartes graphiques. Nous avons réussi à alimenter un Core i7 et trois HD5870, sans parvenir à la mettre en défaut, de quoi se demander pourquoi acheter plus puissant ! Petit bémol, cette alimentation n’a pas de bouton on/off à l’arrière.

Bruit La Strider Plus 750 W est refroidie par un 135 mm. Jusqu’à 50 % de charge, il tourne à 850 tours environ, garantissant un silence de fonctionnement proche de la perfection. Elle est un peu plus silencieuse que la Corsair HX concurrente que nous avons l’habitude de recommander. Au-delà de 50 % de charge, la vitesse de rotation grimpe peu à peu pour culminer vers 1 750 tours, une valeur tout à fait audible mais un souffle grave qui n’est pas trop pénible.

Performances électriques SilverStone a placé la barre haut avec les Strider Plus, choisissant d’utiliser un maximum de composants de grande qualité. Cédant lui aussi à l’appel du gros monorail 12 V, ce modèle délivre des tensions impressionnantes de stabilité, nous n’avons pas réussi à provoquer plus de 0,2 V de variation entre un état de repos et une charge intense. Qui dit alimentation stable, dit PC sans plantage et overclocking favorisé. Cette alimentation n’a d’ailleurs aucun mal à fournir la puissance annoncée, vous pourrez même ponctuellement dépasser 800 W avec. Ce qui est plus difficile, c’est d’allier grosse puissance avec tensions stables et rendement optimal. Nous pouvons dire que SilverStone y est parvenu puisque Rapport les modèles de cette gamme, également déclinés en 850 et 1 000 W sont tous trois certifiés 80 Plus Silver. qualité/prix

Qualité et finitions

5 4 3 2 1 0

Rapport qualité/prix

Bruit Perf. élec. stabilité 5/12V

Câblage Perf. élec. rendement rapport qualité/prix pas de bouton on/off

118

I Hardware Magazine

connectique

stabilité des tensions

Cette Strider Plus est une alimentation à classer en « milieu de gamme plus », c’est-à-dire de très bons produits seulement dépassés par les alimentations les plus prestigieuses, la plupart étant de type DC to DC. Parmi les concurrentes de ce milieu de gamme plus, nous avons déjà plusieurs modèles très bien établis comme les Cooler Master Silent Pro ou Corsair HX. A 750 W, la Corsair et la SilverStone sont au même prix, 120 euros, mais chez Cooler Master, vous gagnez 20 euros à prendre la 700 W ou ne dépensez que 10 euros de plus pour grimper à 850 W. Un peu plus silencieuse que la Corsair et munie de câbles pour brancher jusqu’à trois cartes graphiques, la SilverStone n’a finalement pas de mal à trouver sa place.


Choix de la rédaction

E

Bruit Strider Plus 750 X‐series 750

40 40

Newton R2 800

40 40

Everest 85p 600

41

41

Fusion 550

40

TP New 550 TP New 550

40 40 38

40

650 W

Marque

Antec

Gamme Version

Deux modèles sont tout de même sortis du lot. En entrée de gamme, la première alimentation d’Arctic Cooling nous a particulièrement plu. Malgré une connectique perfectible, la Fusion 550R offre une qualité électrique et un silence au top, pour un prix défiant toute concurrence. Evoluant dans d’autres sphères de prix, la Seasonic X-Series 750 est aussi un véritable coup de coeur. Un peu chère, 165 euros, elle est tout sim-

44

Stabilité 12 V

X‐series 750 X‐series 750

11,99 12,02 11,98 12,05

Strider Plus 750 42 47

44

42

48

42

Signature 850 Signature 850

11,62

Everest 85p 600

11,61

42

44

300 W

46

150 W

48

12,09 12,05 12,08

11,2 11,3 11,4 11,5 11,6 11,7 11,8 11,9

50

12,04

11,53

TP New 550

44

41

12,03

11,71

Newton R2 800

43

500 W

11,87

Fusion 550

41

41

Signature 850

43

41 41 41 41

plement la meilleure à tout point de vue. Rendement, stabilité des tensions, bruit, belle et compacte en prime, elle gagne partout. Notre comparatif ayant réuni trois puissantes Radeon HD5870 sur une plateforme Core i7 900, nous avons démontré une fois de plus qu’il n’est pas vraiment utile d’aller chercher plus haut que 750 W. Les Fractal Design Newton R2 et SilverStone Strider Pro nous ont également séduit, mais les concernant, la concurrence est bien plus rude. Par exemple, les Corsair modulaires HX et les Cooler Master modulaires Silent Pro restent des références qui n’ont pas à rougir face à ces nouveaux modèles.

mais, il n’est plus nécessaire de viser les gammes les plus hautes pour avoir un beau finish noir, une alimentation modulaire et des cordons gainés !

ncore plus que celui des cartes mères, le marché des alimentations est véritablement tiré par le haut. Force est de constater qu’il n’existe plus, en tout cas au-delà de 60 euros, de mauvais produits. Nous avons eu bien du mal à décerner des distinctions tant toutes les alimentations essayées étaient bonnes. Il existe bien sûr quelques disparités que nous avons tâché de mettre en avant, mais globalement, aucun des blocs testés ce mois-ci ne faisait un bruit insupportable, n’avait un très mauvais rendement ou défaillait d’un point de vue qualité d’alimentation. De surcroît, le design s’installe et désor-

12 V charge

12 repos

Fractal Design

12

12,1 12,2

Antec

Arctic Cooling

FSP

Seasonic

SilverStone

TruePower New

Signature

Fusion R

Everest 85plus

550 W

850 W

550 W

600 W

Newton R2

X-series

Strider Plus

800 W

750 W

Modulaire

Oui (partiel)

Oui (partiel)

Non

Oui (Partiel)

750 W

Oui (Partiel)

Oui (Total)

Oui (Total)

Rails 12 V

*4 (20 + 20 + 20 + 20, *4 (22 + 22 + 22 + max 45 A cumulé) 22, max 65 A cumulé)

*2 (17 + 17 A)

*4 (18 + 18 + 18 + 18)

*1 (60 A)

*1 (62 A)

*1 (60 A)

Connecteur ATX

24 pins - 50 cm

24 pins - 55 cm

24 pins - 33 cm

24 pins - 50 cm

24 pins - 52 cm

24 pins - 60 cm

24 pins - 55 cm

Connecteur ATX 12V

4 pins - 50 cm + 8 pins 60 cm

4 pins - 55 cm + 8 pins 55 cm

4 pins - 38 cm

4 pins - 50 cm + 8 pins 50 cm

8 pins - 52 cm

4 pins - 60 cm + 2* 8 pins - 60 cm

2* 8 pins - 55 et 75 cm

Prises PCI-Express

*2 (6 + 6/8 pins)

*4 (6 + 6 + 6/8 + 6/8 pins)

*2 (6 + 6/8 pins)

*2 (6 + 6/8 pins)

*4 (6/8 pins)

*4 (6/8 pins)

*4 (6 + 6 + 6/8 + 6/8 pins)

SATA

*9

*9

*6

*6

*12

*8

*6

Molex

*9

*9

*3

*5

*9

*8

*6

Profondeur

15 cm

18 cm

16 cm

16,5 cm

16 cm

16 cm

16 cm

Prix

85 euros

190 euros

60 euros

90 euros

140 euros

165 euros

120 euros

Hardware Magazine

I 119


Test

A la recherche du smartphone parfait Téléphones

Android, iPhone OS, Maemo, Windows Mobile, voici les quatre prétendants à la couronne d’OS mobile du futur. Pour juger de qui pourrait l’emporter, nous avons réuni les fers de lance de chaque étendard avec le Motorola Milestone, le HTC HD2, l’iPhone 3GS et le N900.

D

éjà 2 ans que règne l’indétrônable iPhone 3G et le fait est que jusqu’à présent, il n’avait aucune concurrence sérieuse. Les mobiles Android 1.6 n’ont pas un hardware à en rêver la nuit ; les mobiles WM rament si lamentablement ou ont une interface si moche que cela vaut à peine le coup d’en parler. Mais voici qu’Android 2 arrive d’abord avec le Motorola Milestone, puis beaucoup d’autres bientôt. Pour faire bonne mesure, nous avons repêché Windows Mobile grâce à Sense, l’interface développée par HTC (qui succède à TouchFLO 3D), qui le cache au maximum pour la plupart des fonctions usuelles

Un smartphone tactile, c’est avant tout un réceptacle à marques de doigts. Porteur de lunettes, désormais, tout geek peut compatir avec vous et emmener son petit chiffon rince-écran dans sa poche.

d’un smartphone. Samsung et Acer arriveront peut-être au même résultat mais étant encore un cran en dessous de HTC, inutile de nous encombrer dans cet article qui vise l’idéal. Enfin, nous parlerons - dans un petit coin - de Nokia et Maemo, à titre d’encouragement toutefois. Une fois n’est pas coutume dans nos pages, ce texte est doté d’une certaine subjectivité. Un téléphone n’est pas un PC, les mesures objectives sont souvent impossibles. Tout est question de feeling. Une chose est sûre, nos trois compères ont tous en tête d’enterrer les iPhone 3G. Voyons ce qu’il en est.

Form factor Avec son alu brossé dans le sens du poil et sa finesse à rendre jaloux un mannequin anorexique, le HD2 est juste… beau. A côté, le Milestone fait très années 2000. Son joli et flatteur plastique laqué noir est mal servi par une forme peu gracieuse. Il faut dire qu’il n’est pas aidé par son clavier coulissant. A quoi cela peut-il bien servir à l’heure des claviers tactiles ultraperformants ? Devoir enlever la batterie pour accéder à la SD Card ? Merci Moto… Quant à l’iPhone, posé à côté du HD2, il fait un peu grassouillet, sa ligne ne vieillit pas si bien que ça… Ah inutile de soulever la batterie, il n’y a pas de lecteur SD Card. Ah et puis, c’est vrai, on ne peut pas changer de batterie ! En plus, Apple a toujours eu un problème avec les boutons. Déjà sur les souris, la firme n’a jamais trouvé où placer le second. Sur l’iPhone aussi. Pourtant, à l’usage, les quatre boutons du HD2 ou du Milestone sont bien pratiques pour épauler l’interface tactile.

Ecran En qualité pure, le contraste et la vibrance des couleurs de l’écran 3,7’’ du Milestone, avec une résolution de

120

I Hardware Magazine


800 x 480, écrasent la compétition. C’est tellement beau qu’on dirait de l’oled. Mais c’est parfois un peu petit. Mauvaise vue, s’abstenir. Le HD2 dispose de la même finesse d’affichage et sa taille de 4,3’’ la rend plus utilisable. On pourrait craindre que c’est trop, mais en fait, quand on y a goûté, c’est parfait. Ses couleurs sont en revanche bien plus fades. L’écran du 3GS n’a ni la taille, ni la qualité, ni la définition. L’iPhone est largué et nul doute que ça sera une des principales innovations de son successeur.

Expérience tactile Le match est un peu plus équilibré que d’habitude puisque nous avons affaire à trois écrans capacitifs. Apple n’avait jamais été inquiété dans ce domaine, mais on peut raisonnablement dire que le Milestone fait aussi bien à tout point de vue. Du moins, le tactile est parfaitement implémenté tant au niveau de la sensibilité que de la définition. Mais aussi étrange que cela puisse paraître, le multitouch n’est pas présent partout et peu exploité. Et

Nos trois plateformes permettent le « tethering » pour partager leur connexion Internet avec un PC, que cela soit en USB ou en Wi-Fi. Votre opérateur téléphonique peut toutefois interdire cette option ou vous la faire payer très cher.

notamment pas dans Google Maps ! Incroyable quand même. Enfin, ayons une pensée pour nos amis américains qui n’ont pas droit du tout au multitouch, sans que l’on sache si c’est une affaire de brevets vis-à-vis d’Apple ou un choix (ô combien discutable) de Google, qui prétend que deux doigts pour se servir d’un téléphone, c’est un de trop. Chez HTC, la sensibilité est excellente également mais pas toujours bien utilisée. Tant que l’on est dans Sense, tout va bien mais elle peut quand même par moments être un tout petit peu plus heurtée. Ça se gâte un peu dans Opera. Impossible de « cliquer » sur un tout petit lien au sein d’une page Internet. Il faudra zoomer d’abord pour que ça soit bien gros sous le doigt. Bref, la sensibilité est bonne mais pas la définition. Et quand on sort de Sense, là, c’est au petit bonheur. Certaines applications gèrent bien le tactile, d’autres se croient encore à l’époque du stylet. Le multitouch, ne rêvons pas…

Look & interface Pour beaucoup, le look, ça compte ! Une interface « eye candy » fait toute la différence au quotidien et Apple l’a toujours compris. Nokia et Microsoft jamais. Chez Google, c’est un peu plus rock’n’roll mais on sent quand même que ce sont des ingénieurs qui ont fait le gros du design. Ça n’est jamais moche mais jamais très sexy. L’ef-

ficacité est là avec moult raccourcis et menus contextuels qui manquent tant sur l’iPhone, mais ça peut parfois devenir un petit peu fouillis. Aucun problème pour un amateur de PC mais le grand public risque de s’y perdre un peu. Apple trouve, en revanche, un sérieux compétiteur dans les soirées à thème : « C’est moi qui ai la plus grosse » avec Sense, tout simplement magnifique. De l’animation météo en passant par l’agenda, c’est la frime totale mais en toute élégance. Seul problème, même si Sense couvre 80 % de l’usage quotidien d’un téléphone, il y a toujours un moment où il faut repasser sous l’interface WM classique, ne serait-ce que pour utiliser

Quand on a goûté au confort d’utilisation d’un écran 4,3’’ et d’une résolution de 800 x 480, il est très dur de revenir à son iPhone.

Les applications pour smartphones, c’est un peu le règne du n’importe quoi. Heureusement, les plus farfelues sont le plus souvent gratuites et on en trouve aussi de vraiment très pratiques. Ici, de quoi faire du Morse sous Android…

Hardware Magazine

I 121


Test

Opera, à gauche, lisse un peu moins les polices que Chrome, à droite.

des applications, à commencer par celles de Microsoft. Et là, ça pique les yeux. Très fort. En un mot, c’est moche. Imaginez des fenêtres Windows 3.1 surgir au milieu de Seven et vous serez près de la vérité. Les ingénieurs de la division professionnelle dont dépend WM doivent avoir comme parangon du design une Lada marron. Les équipes travaillant sur le superbe Zune HD ou Xbox Live doivent, elles, en pleurer tous les matins. D’après la rumeur, WM 6.6 gommerait une large partie des horreurs que l’on croise encore de-ci de-là. Ça ne serait pas du luxe en attendant le graal d’ici la rentrée, WM7.

Logiciels L’avenir est clairement à Google, côté logiciels. Le Big Brother du Net trouve avec les téléphones le plus beau des écrins pour sa stratégie de numérisation du monde entier. Il suffit de voir une démo de Google Navigation sur YouTube pour avoir envie d’un téléphone sous Android Google Maps

Difficile de lire un site non adapté aux mobiles sur des écrans si petits dotés de telles résolutions. Il faut constamment jouer avec le zoom.

+ Street View + toute la puissance des algorithmes de recherche Google Search, ça tue… (à quand la dispo européenne car le soft GPS de Motorola est juste ridicule ?). Mais attention, les services Google impliquent de disposer en permanence d’une connexion internet rapide. Pas évident en Europe...

Android est parfaitement multitâche, là où l’iPhone ne l’est que très partiellement sauf via jailbreak et Backgrounder (c’est quand même malheureux de devoir faire des choses interdites pour utiliser correctement un appareil). Pour des applications à laisser tourner en tâche de fond comme Skype, c’est un vrai plus. La navigation Internet Android est parfaite. Même si le Flash n’arrivera que plus tard dans l’année, on est déjà ravi de la vitesse et du confort de lecture. Tout a été très bien pensé, la mise à l’échelle est très propre, ce qui compte beaucoup quand on a une résolution aussi élevée sur un si petit écran. Mais il y a encore de vrais efforts à faire sur des applications aussi basiques que l’agenda ou le lecteur multimédia, fonctionnels mais pauvres comme un jour sans pain.

Opera gère beaucoup moins bien les liens en tactile et au final, s’avère moins confortable que ses compétiteurs, même sur un plus grand écran. Le navigateur Android, grâce à une foule d’astuces, l’emporte sur Safari qui reste néanmoins exemplaire.

122

I Hardware Magazine

Du côté HTC, Sense semble au premier abord la plus agréable au quotidien car elle est très belle. Ça se gâte quand on commence à surfer sur le Net et à lire ses mails, dommage pour un smartphone. Certes, l’affligeant Internet Explorer est complété par Opera mais celui-ci peine face à Webkit. L’efficace mise à l’échelle ne compense pas une lisibilité un peu plus difficile ou la gestion inconfortable du tactile. Evidemment, en cherchant, on trouvera


toujours les limites de WM. Essayez donc de charger une image de 5 Mp sur un site Internet. Le Milestone la charge comme une fleur et vous naviguez dedans aussi confortablement que la taille de l’écran le permet, sans jamais attendre. Le HTC ne la charge même pas. Là, on ne parle plus de puissance CPU mais bel et bien d’OS et de navigateurs optimisés… ou pas. Mais le pire, c’est vraiment Outlook, encore en look WM classique, ni pratique, ni rapide, ni riche. Une horreur. En bref, sur le HD2, dès qu’on fouille un peu, on imagine ce que pourrait donner une SLS AMG avec un intérieur velours bleu clair. Il manque en plus la vision et la convergence qu’offre Google entre géolocalisation, réseaux sociaux et bases de données. Certains pourront également apprécier la présence d’Office Mobile en standard, alors qu’il faut payer chez les autres (et encore, les applications payantes ne sont toujours pas disponibles en France chez Google). Ceci dit, la plupart d’entre nous auraient sûrement échangé Office contre un soft de navigation GPS. Les logiciels d’origine de l’iPhone sont excellents, sobres juste ce qu’il faut. C’est globalement un peu plus homogène qu’Android mais ce qui dotait Apple d’un énorme avantage n’est plus que la norme désormais. Evidemment, l’armada d’applications en tout genre de l’App Store peut se prévaloir de la quantité comme de la qualité et donc l’adaptation aux besoins les plus pointus. En face,

Chaque millimètre compte. HTC fait preuve d’un savoir-faire exemplaire, en proposant le plus puissant et sophistiqué hardware du marché, dans un boîtier ultrafin.

l’Android Market a l’énorme chance d’être beaucoup moins censuré, est aussi un peu moins fourni. Gageons que cela ne durera pas longtemps, beaucoup de développeurs soutenant Google. Quant à WM, il bénéficie certes d’un parc immense, fruit de 10 ans sur le marché, mais la plupart des applications sont inadaptées à un smartphone moderne, voire franchement désuètes à l’heure de la géolocalisation et des synergies en tout genre avec les services Internet. Sa grosse communauté de développeurs pourrait là aussi très vite enrichir le WM Store.

Qualité photo/vidéo Faire des photos avec un smartphone relève in fine de la plaisanterie. Selon l’appareil, on a droit à 3 ou 5 Mp de bouillie plus ou moins bruitée sauf en pleine lumière. Admettons que cela puisse servir si vous tenez absolument à prendre votre meilleur ami cherchant son dongle USB Logitech dans 25 m de câble réseau, en l’absence de tout appareil photo décent… Et dans ce cas, le Milestone et le HD2 font un peu mieux que le 3GS, ce qui ne surprendra personne. Leur flash LED aide un peu en basse lumière et la qualité d’image est un peu supérieure, surtout en extérieur. Mais ne vous leurrez pas sur les 5 Mp. Le compte y est mais la définition, sûrement pas. Quant à la réactivité, mieux vaut un sujet (très) statique…

Autonomie

Les accessoires pour smartphones ne manquent pas. Qui peut le plus peut le moins, alors pourquoi pas un réveille-matin !

Voilà une question bien épineuse. Mesurer objectivement l’autonomie d’un téléphone n’est pas évident. La comparer à d’autres est carrément impossible. Les fabricants de téléphones aiment bien parler de temps de veille ou temps de conversation téléphonique. Mais avec un smartphone, vous vous en fichez, vous n’aurez jamais l’occasion de vérifier qu’ils dépassent les 200 h de veille

car vous prendrez l’habitude de toujours avoir un chargeur sur vous. C’est presque impossible de tenir la journée loin d’une prise avec le Wi-Fi allumé et un usage de quelques heures par jour. L’autonomie varie en fonction des usages et réglages de chacun mais les témoignages comme notre expérience convergent en tout cas en faveur du Milestone. Toutefois, sachant que l’écran représente le très gros de la consommation d’un smartphone, on pouvait s’attendre au pire concernant le HD2 mais il n’en est rien. Tous vous permettront de regarder vos séries préférées le temps d’un Paris-Marseille en TGV. Mais pour un Paris-Sydney, n’oubliez pas votre chargeur dans la soute.

Avec Windows Le logiciel Motorola Media Link donnerait presque envie d’aimer iTunes. Google se souciant peu de la synchronisation Windows et se consacrant uniquement à ses outils (Gmail, agenda, etc.), chaque constructeur se débrouille et ici, plutôt mal. Chez HTC, on se contente des outils standard Microsoft, Media Player, ActiveSync, Myphone qui s’en sortent plutôt bien. Mais il manque une interface unifiée pour tout ça. Du coup, iTunes, dont on aimerait parfois tant se passer quand on a un iPhone, présente quand même quelques avantages, en particulier pour les non-informaticiens. Reste que les deux premiers se connectent comme une clé USB et ça change tout…

et l’ideal est... On ne saura jamais si Microsoft paye pour garder l’exclusivité du hardware du HD2 mais s’il ne le fait pas, il devrait ! Sans lui, ce match se résumerait à un duel Android/iPhone, tant l’offre Windows Mobile est affligeante, même sous Windows Mobile 6.5. On peut toutefois espérer un effort de Samsung pour l’avenir, le Coréen ayant montré au CES de fermes intentions quant à la convergence mobile/TV.

Hardware Magazine

I 123


Test

Les appareils photo des smartphones sont décidément décevants. Plutôt que des mégapixels supplémentaires, ils feraient mieux de travailler un peu sur les hautes sensibilités ou la définition.

C’est simple, quelqu’un qui n’a jamais eu la joie de goûter à un Windows Mobile 5 ou 6 pourrait trouver injuste l’avalanche de critiques qu’ont pu subir les deux pauvres rejetons de la période ingrate de Microsoft. Mais à vrai dire, si on aime Windows Mobile dans le HD2, c’est parce qu’on ne le voit pas beaucoup, de prime abord. Sense le cache vraiment très bien, avec fluidité, confort et rapidité. Bravo, HTC, niveau ergonomie et cache-misère, c’est du sans-faute. Mais comme dit et répété, dès que l’on sort de Sense, c’est l’horreur. Le meilleur hardware du monde, et le HD2 est sans nul doute le meilleur prétendant au titre, ne saurait faire d’un WM phone un choix de la rédaction. Android n’est pas un produit fini et n’est surtout pas à mettre dans les mains de quelqu’un qui a déjà du mal avec un PC sous Windows, autrement dit la plupart de vos proches. Android, c’est un peu Linux. Tout devient vite compliqué, bêta, bidouille quand on sort du cadre. Pour un amateur de PC, la liberté et les performances compenseront toutefois les aspects encore brouillons qui devraient de toute façon vite se corriger avec le temps. Google upgrade son OS à marche forcée, espérons juste que chaque constructeur suive rapidement. Mais le Milestone n’est pas le form factor idéal de notre point de vue. Le clavier physique n’apporte rien, alors autant se passer du poids et de l’encombrement. Et Apple dans tout ça ? Le 3GS reste bien sûr l’étalon du marché qu’il domine encore outrageusement. Et même un peu trop ? Eh oui, Apple, qui n’avait

124

I Hardware Magazine

guère eu à gérer le succès quand c’était encore un fabricant d’ordinateurs, se retrouve désormais avec deux énormes hits ; mais de in, il devient out, surtout pour les fans de hardware. Franchement, vous n’en avez pas marre de voir vos cinq meilleurs potes, vos trois voisins de bureau et bientôt vos grands parents avec les mêmes baladeur et téléphone que vous ?

lui offre également des horizons ludiques dont sont incapables ses concurrents. Alors, au final, que choisir ? Choix cornélien. On aurait presque envie d’attendre un Milestone sans clavier, prévu chez Motorola ou le Google Nexus One et le Sony Ericson Xperia 10, plus puissants grâce à leur Snapdragon. Mais le hardware du HD2, les performances d’Android et le look & feel Sense ne seraient pas loin de la perfection. D’après la rumeur, un tel engin devrait sortir avec le wimax en prime ! Allez HTC, fais-nous plaisir !

En plus, tout ce que l’on a pu supporter de la part d’Apple quand l’iPhone n’avait aucune concurrence, on n’en veut plus. Etre forcé à utiliser iTunes pour faire quoi que ce soit, le software plus verrouillé que le coffre de la banque de France, les connectiques propriétaires, la batterie pas changeable, l’App Store géré à parité par des intégristes et la World Company, en 2010, c’est fini ! Oh, bien entendu, à l’usage, l’iPhone, surtout le 3GS, s’en sort encore très bien. Son écran est peut-être un peu has been, son interface prend un petit coup de vieux comparée à Android, mais il reste d’un confort douillet et son parc applicatif est sans concurrence. C’est encore aujourd’hui le seul téléphone avec lequel on ne se prend jamais la tête (si l’on exclut la politique commerciale Apple). Sa puce PowerVR

C’est aussi pour de tels écrans qui ne servent à rien que les amateurs de PC préféreront le Droid.

Et Nokia alors ? A l’origine, nous comptions intégrer le N900 et surtout Maemo dans cet article. Malgré d’évidentes qualités, nous y avons renoncé, tant le match aurait été déséquilibré. Le 900 est épais, son écran résistif, même s’il est probablement le meilleur du genre, ne vaudra jamais un capacitif, et surtout, malgré ses 600 MHz, il est lent, très lent. Il suffit de comparer Ovi Maps à Google Maps sur nos trois autres compétiteurs pour comprendre. Mais c’est tout aussi valable pour le surf Internet ou tout ce qui requiert un peu de puissance. Maemo, la nouvelle interface Nokia, a toutefois de beaux atouts. Multitâche, plutôt jolie et ergonomique, se mettant à jour par Internet, elle serait sûrement très agréable avec une expérience plus fluide. Il faudra donc compter avec Nokia dans l’avenir, d’autant que le Finlandais a fait le pari de l’indépendance en développant seul tous ses services, à l’exception d’incontournables comme Facebook, ce qui au moins offrira de l’originalité.


Actuellement en Kiosque


Comparatif

Multitouch : contrôlez Seven

avec les doigts La technologie tactile n’est pas nouvelle mais Windows Seven est le premier OS de Microsoft supportant nativement le multipoint. Comment ça marche ? Quels sont le matériel et les applications nécessaires ? Découvrez une nouvelle façon de commander votre PC.

A

pparue dans les années 80 sur nos ordinateurs, la technologie tactile est longtemps restée rudimentaire. Un seul point de contact pouvait, en effet, être détecté par un écran, ce qui limitait les possibilités de contrôle mais n’a pas empêché de nombreux appareils de l’exploiter, à l’image des tablettes PC, des baladeurs, ou des téléphones portables souvent associés à un stylet. Popularisé par Apple avec son iPhone, le multitouch renouvelle l’expérience tactile puisqu’il consiste à gérer non plus un mais plusieurs points d’impact sur une même surface. Windows Seven peut d’ailleurs en gérer jusqu’à cent. Il est donc possible de combiner plusieurs doigts, deux en l’occurrence sur les produits grand public, pour déclencher Tous les constructeurs fournissent une interface logicielle plus ou moins complète avec leurs PC tactiles. Elles ne remplaceront pas un Media Center bien configuré mais facilitent l’usage de la machine avec les doigts.

126

I Hardware Magazine

jeremy panzetta toutes sortes d’interactions avec le PC et se dispenser d’une souris et d’un clavier.

Comment s’équiper ? Pour exploiter une configuration tactile multipoint, le matériel requis est simple. Il faut tout d’abord avoir la bonne version de Seven car seules les versions Familiale Premium, Professionnelle et Intégrale le proposent. Le seul composant supplémentaire nécessaire est une dalle multipoint que l’on peut aujourd’hui trouver dans les tablettes PC, les portables/netbooks, les écrans LCD classiques, ou encore les PC touten-un (intégrés dans un écran LCD). Tous ces produits grand public sont conçus pour supporter deux points d’impact. Mais il n’existe pas moins d’une demi-douzaine de technolo-


gies tactiles, chacune ayant ses avantages et ses inconvénients. Les plus utilisées dans les produits informatiques sont le capacitif, le résistif et l’infrarouge. Le résistif est la technologie la plus simple à mettre en oeuvre et la moins coûteuse. Elle utilise une surface de verre ou d’acrylique gainée d’une couche conductrice et de couches résistives dures. Ici, c’est la pression du doigt qui déclenche une réaction. Lors d’une pression sur la dalle tactile, une modification du signal est enregistrée et localisée, mais la relative sensibilité de l’ensemble et l’opacité de la surface tactile qui ne laisse passer que 75 % de la luminosité ne sont pas à son avantage. C’est celle que l’on trouve le plus couramment dans les téléphones, les baladeurs, les GPS ou encore la Nintendo DS. La technologie capacitive est celle intégrée aux smartphones haut de gamme ou aux touchpads des portables. Le contact du doigt déplace ici un courant électrique de faible potentiel parcourant la surface du dispositif. La variation de charge mesurée détermine alors la position des doigts. C’est la technologie qui nous a le plus convaincu, une pression de 0,08 kg suffit d’ailleurs pour l’interaction, contre 50 à 120 g pour le résistif, et elle laisse passer 90 % de luminosité. Quant à la technologie à infrarouge, elle se rencontre de plus en plus dans les écrans LCD et PC tout-en-un grand public. Il s’agit d’un rayonnement par ondes IR horizontal et vertical entourant l’écran et déclenchant le contact, dès lors que les faisceaux détectent une interruption de lumière. Ses principaux défauts viennent d’un déclenchement trop sensible du contact au moindre effleurement, et d’une dalle généralement protégée par une couche brillante sensible aux reflets.

fenêtres d’exploration ou pour transférer des fichiers et dossiers d’un répertoire à l’autre par exemple. Une double pression rapide lance l’exécution d’un fichier ou encore l’agrandissement/réduction d’une fenêtre. Le clic droit de souris s’effectue, quant à lui, en laissant un doigt en contact et en touchant la surface avec le deuxième, ce qui ouvre le menu contextuel de l’élément sélectionné. • Mouvements panoramiques : un toucher et un glissement d’un ou deux doigts vers le bas, le haut, la droite ou la gauche utilisent les barres de défilement d’une fenêtre de l’explorateur Windows, d’une page Internet, d’une playlist audio, d’un document Word/ Excel ou encore d’une visionneuse photo. Ces actions remplacent donc la molette de la souris. L’inertie du déplacement est supportée, un mouvement net et rapide dans une direction faisant dérouler la page. Une pression maintenue suivie d’un déplacement horizontal et/ou vertical du doigt permet de tracer une zone de sélection. • Zoom : touchez deux points de l’élément, puis rapprochez les doigts pour dézoomer. Eloignez les doigts pour zoomer. Utile pour les photos ou les documents divers et pour d’autres applications comme Google Maps par exemple.

Les contrôles tactiles de Seven Windows Seven a organisé et structuré les mouvements des deux doigts pour déclencher de nombreuses actions de navigation ou d’édition. Les fonctions tactiles de base sont les suivantes : • Clics droit et gauche : un simple toucher remplace le clic gauche de la souris. En laissant son doigt appuyé, il est possible de déplacer des éléments, pour bouger et modifier la taille des

• Rotation : Touchez deux points de l’élément, puis déplacez vos doigts dans la direction de rotation souhaitée. • Clavier tactile : un clavier virtuel apparaît à chaque fois que vous touchez une zone de saisie de texte. Il propose deux modes de saisie, un mode classique par pression des différentes touches, et un mode manuscrit avec reconnaissance d’écriture. Un outil de

La grande majorité des écrans LCD et PC tout-en-un multipoints exploitent la technologie tactile infrarouge. Elle est efficace mais les dalles sont recouvertes d’une surface brillante sensible aux reflets et souffrent d’une mauvaise détection tactile sur leurs extrémités.

personnalisation de cette reconnaissance est d’ailleurs présent pour faciliter l’usage avec votre style d’écriture au doigt ou au stylet. Par défaut, deux autres gestes tactiles sont configurés pour effectuer des actions de navigation, il s’agit des raccourcis page suivante et page précédente. Ils s’utilisent en effectuant un toucher et un déplacement courts et rapides du doigt à droite ou à gauche. Six raccourcis de ce type peuvent être ajoutés, à partir des six autres directions dont les diagonales. De base, ils sont configurés pour effectuer les actions supprimer, copier, coller, annuler, glisser vers le haut et glisser vers le bas. Il est possible de les modifier pour leur attribuer d’autres fonctions comme le basculement des fenêtres, la touche Windows, l’impression, ou encore couper et répéter. Il est également permis de leur affecter soi-même une combinaison de touches. Un outil de test est, au passage, présent pour s’exercer à les utiliser. Vous pouvez ensuite déterminer la rapidité des clics pour un double clic, régler la distance maximale que

Hardware Magazine

I 127


Comparatif

Les écrans LCD et PC tout-en-un tactiles se destinent surtout à des usages multimédias, et de préférence via des interfaces simples.

Pour améliorer l’expérience tactile, les applications ont besoin d’être repensées, à l’image des programmes de la suite Touch Pack de Microsoft livrée avec tous les PC tactiles de constructeurs.

le pointeur peut parcourir entre deux clics lors de ces doubles clics, définir la sensibilité avec laquelle ces raccourcis sont reconnus, et calibrer la détection tactile de l’écran.

Quelles applications ? Avec le bon équipement, vous pouvez déjà manipuler Seven et son Media Center avec deux doigts comme vous le ferez avec une souris. Pour faciliter l’usage tactile, l’OS dispose de toutes les options d’ergonomie et d’affichage utiles : taille des éléments du menu Démarrer, des boutons des fenêtres d’exploration et des icônes des raccourcis bureau, personnalisation des icônes de la barre des tâches, AeroPeek, etc. A vous de paramétrer tout cela pour faciliter la prise en main car, de base, il peut être difficile de cliquer avec le doigt sur les éléments les plus petits, surtout sur un écran de petite taille. Certains programmes, comme la visionneuse photo ou IE8, sont déjà optimisés pour les nouvelles manipulations tactiles. Mais il n’existe pas beaucoup d’autres applications dédiées à cet usage pour le moment, bien que des interfaces comme Media Center s’y adaptent déjà parfaitement. Impossible, par exemple, d’utiliser le zoom ou la rotation tactile avec un Photoshop, Picasa ou une application de création 3D. Les constructeurs vendent donc leurs machines avec une surcouche logicielle maison organisée pour un usage tactile. Généralement, on y trouve des rac-

128

I Hardware Magazine

L’inertie du défilement est prise en charge.

courcis vers les applications multimédias, quelques logiciels spécialement conçus comme des lecteurs audio, photo, vidéo ou des blocs-notes. Mais elles ne remplaceront jamais un Windows Media Center bien configuré qui restera plus efficace. Tous ces PC sont aussi livrés avec la suite logicielle Touch Pack de Microsoft dédiée aux OEM et compatible multipoint. Elle comprend Globe (exploite Virtual Earth 3D pour naviguer sur la planète), Collage (regarder et interagir avec des photos), Lagoon (un économiseur d’écran interactif simulant un bassin à poissons), Rebound (un jeu de balle), Garden Pond (un jeu avec des bateaux origamis), et Blackboard (un jeu de réflexion). Ça, c’est du pack, merci Microsoft…

ris restent indispensables pour n’importe quel autre programme nécessitant beaucoup de frappe et d’accès aux options des menus. Sur des écrans de grande taille, il est aussi plus rapide de travailler avec des périphériques de contrôle car vous êtes obligé de faire de plus grands mouvements avec les bras qu’avec votre souris et le clavier. Sur les PC tout-en-un et moniteurs LCD où l’écran est posé à la verticale sur votre bureau, le mal de bras se fait également vite sentir, même si un pivot permet de pencher l’afficheur. L’usage reste plus confortable sur un tablet PC pouvant se poser à plat, notamment pour écrire avec le clavier virtuel. Tant que les programmes ne seront pas repensés pour des manipulations tactiles, les PC et écrans de bureau multitouchs resteront surtout adaptés à des usages multimédias, accrochés à un

Nos sensations L’usage d’un PC tactile multipoint peut paraître simple, mais il faut un temps d’adaptation et d’apprentissage pour utiliser les raccourcis efficacement et se faire à la dalle et à ses éventuelles imprécisions. Après deux jours à manipuler tous les produits testés dans cet article, nous commencions à être à l’aise avec les interactions tactiles. Certes, il est possible d’utiliser n’importe quelle application avec les doigts même si certaines commandes ne sont pas prises en charge, mais il faut bien avouer que le clavier et la sou-

Les fonctions tactiles multipoints de Seven remplacent aisément la molette et les clics droit et gauche d’une souris. Elles permettent aussi d’accéder à huit autres raccourcis de navigation et d’édition.

Si toutes les applications peuvent être contrôlées avec le doigt, très peu d’entre elles supportent les actions multipoints pour le moment.


Un grand nombre de tablettes PC tactiles multipoints vont être lancées cette année.

mur de la maison par exemple, et de préférence associés à des interfaces logicielles simplifiées. On regrette presque qu’aucun constructeur n’ait osé proposer une sorte de sous-main de bureau, un peu à la manière d’un Surface. Investir dans un tel appareil tactile, oui, mais à condition de bien cibler ses usages.

Le clavier virtuel tactile propose deux modes de saisie, un mode classique par pression des différentes touches, et un mode manuscrit avec reconnaissance d’écriture.

Viseo 200 Touch Packard Type : écran LCD tactile (deux points) Dalle : 20 pouces 16/9 TN à 5 ms

Bell

Résolution native : 1 600 x 900 Entrées vidéo : DVI, VGA

Technologie tactile : infrarouge Prix : 200 euros

Site Web : www.packardbell.fr

Le Viseo 200 Touch est un écran LCD tactile de 20 pouces compatible avec deux points de contact. Il ne dispose pas de pied à proprement parler, mais repose sur un support inclinable à 35 degrés à l’arrière et sur deux ergots en plexiglas à l’avant. Il dispose aussi d’accroches pour un kit VESA mais l’écran étant relativement épais, ce ne sera pas des plus esthétique sur un mur, d’autant plus que les ergots avant ne sont pas amovibles et débordent de l’écran. Sa technologie tactile est basée sur l’infrarouge. Comme tous les écrans de ce type, la surface de la dalle est protégée par une vitre en plastique transparente et brillante très sensible aux reflets. On retrouve d’autre part le défaut de ce procédé, à savoir une interaction tactile qui se déclenche en effleurant l’écran et qui peut être pénalisante pour l’usage du clavier virtuel. Le contact des doigts n’était également pas bien détecté le long des extrémités de la dalle. Si l’on cache la barre des tâches de Windows par exemple, impossible de la faire apparaître en touchant le bas de l’écran avec le doigt. Un calibrage n’y a rien changé. La dalle TN de 5 ms possède une résolution native de 1 600 par 900, contre 1 650 par 1 080 sur d’autres modèles 20 pouces. Sa réactivité est correcte et suffisante pour jouer mais on a déjà vu mieux. La colorimétrie est bonne par défaut, encore meilleure une fois l’écran calibré à la sonde, le contraste est lui aussi appréciable. Un léger fourmillement est présent en vidéo et l’angle de vision inférieur est limité. La luminosité est, quant à elle, homogène, avec une différence maximum constatée de 17 % entre deux points. L’OSD complet propose, entre autres, le réglage des trois couleurs primaires ainsi que des profils colorimétriques préenregistrés. De petites enceintes de piètre qualité et deux entrées vidéo DVI (HDCP) et VGA sont intégrées. Un port USB est aussi présent mais il doit être obligatoirement relié à l’unité centrale pour activer le tactile. Quant à la consommation, 21 W ont été affichés à la prise. A 200 euros, le prix n’est pas exagéré mais l’ajout du tactile fait tout de même prendre entre 50 et 70 euros à l’écran, face à d’autres modèles 20 pouces classiques. Les plus : Colorimétrie par défaut, Contraste, Fixations pour accroches VESA, Homogénéité de la luminosité, Bonne réactivité Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Epaisseur, Dalle brillante

Acer T230H Type : écran LCD tactile (deux points) Dalle : 23 pouces 16/9 TN à 2 ms

Résolution native : 1 920 x 1 080 Technologie tactile : infrarouge

Entrées vidéo : HDMI, DVI, VGA Prix : 300 euros

Site Web : www.acer.fr

Le T230H d’Acer est le plus grand écran LCD tactile disponible actuellement. Sa dalle de 23 pouces compatible avec deux points de contact présente une résolution Full HD de 1 920 par 1 080. Elle repose sur un grand pied équipé de pivots horizontal et vertical et peut aussi se basculer d’avant en arrière. Ce dernier inclinable à 20 degrés manque cela dit d’amplitude pour obtenir une position de travail confortable, surtout que l’écran est placé relativement haut sur son pied. Grâce aux accroches présentes au dos, vous pourrez le fixer à un mur ou à un bras articulé. Il possède deux enceintes de 1,5 W au rendu médiocre, trois entrées vidéo HDMI (HDCP), DVI (HDCP) et VGA, ainsi qu’un port USB indispensable pour activer les fonctions tactiles. Lui aussi exploite la technologie infrarouge et dispose d’une surface de protection brillante et d’une trop grande sensibilité lorsqu’on l’effleure. Ce modèle souffre également d’une mauvaise détection tactile aux extrémités de la dalle, qu’il n’est pas possible de corriger. Ses couleurs d’usine sont loin d’être justes mais deviennent très bonnes une fois l’écran calibré. Son contraste poussif oblige, en revanche, à augmenter la luminosité pour obtenir tous les détails dans les zones sombres d’un film ou d’une photo et à délaver les noirs. Sa dalle TN à 2 ms offre une bonne réactivité pour jouer, sans constater de rémanence, mais on retrouve les limitations sur les angles de vision verticaux (noir vers le bas) et un fourmillement vidéo. L’homogénéité de la luminosité est dans la moyenne avec une différence maximum constatée de 26 % entre les extrémités droite et gauche de l’écran. L’OSD intègre toutes les options nécessaires dont le réglage des trois couleurs primaires et des profils colorimétriques prédéfinis pour la photo, la vidéo ou le texte. Quant à la consommation, 44 W ont été relevés à la prise. A 300 euros, le T230H n’est pas donné pour un modèle en TN, mais il n’existe pas encore d’alternatives chez d’autres constructeurs dans cette taille. Le bilan est donc mitigé, sachant que certains écrans TN moins chers non tactiles de 23 pouces font nettement mieux. Les plus : Très bonne réactivité, Fixations pour accroches VESA présentes, Trois entrées vidéo, Pivots Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Contraste, Colorimétrie d’usine, Confort d’usage tactile (pivot avant/arrière trop limité), Dalle brillante

Hardware Magazine

I 129


Comparatif

Médion Akoya Type : écran LCD tactile (deux points) Dalle : 21,5 pouces 16/9 TN à 5 ms

E54009 (MD 20125) Résolution native : 1 980 x 1 080 Technologie tactile : infrarouge

Entrées vidéo : VGA Prix : 260 euros

Site Web : www.medion.com

Cet Akoya de Medion est affiché comme un 21,5 pouces Full HD, mais il dispose de la même taille de dalle que les 22 pouces. Comme le Viseo 200 Touch, il adopte un design avec deux supports à l’avant et à l’arrière afin de pouvoir le pencher à 35 degrés et améliorer le confort d’usage. Il est possible de dévisser les pieds pour l’accrocher à un mur mais il est relativement épais. Il est équipé d’une seule entrée vidéo VGA, de deux petits haut-parleurs de mauvaise qualité et se base sur la technologie tactile infrarouge avec le support de deux points de contact. On retrouve donc une dalle brillante sensible aux reflets et une interaction tactile qui se déclenche par un simple effleurement de l’écran. Lui aussi présente des soucis de détection tactile aux quatre extrémités, ce que nous avons, au final, constaté sur tous les appareils dotés d’un procédé infrarouge. Par défaut, sa colorimétrie est mauvaise mais elle devient très bonne, une fois l’écran calibré à la sonde. Son contraste est correct mais nous avons relevé, au maximum, plus de 35 % de différence de luminosité entre deux points de la dalle, ce qui est assez moyen. Sa réactivité équivaut à celle de l’écran Packard Bell, elle est suffisante pour jouer sans rémanence. Les angles de vision sont, quant à eux, typiques d’une dalle TN avec des angles confortables sur les côtés mais limités vers le bas. Le fourmillement est toujours présent en vidéo, mais se distingue moins en prenant un peu de distance. Son OSD dispose de tous les paramètres nécessaires et sa consommation n’a pas dépassé les 36 W. A 260 euros, la technologie tactile fait bien gonfler le prix car des 22 pouces à cette résolution se trouvent à partir de 130 euros. Les plus : Fixations pour accroches VESA présentes, Bonne réactivité Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Une seule entrée vidéo VGA, Homogénéité de la luminosité, Colorimétrie par défaut, Dalle brillante

Packard Bell OneTwo Type : PC tout-en-un Ecran : 23 pouces 16/9 TN à 5 ms, 1 920 x 1080, tactile infrarouge deux points Configuration : C2D 7500, 4 Go DDR3, Radeon Mobility HD4570, 1 To 7 200 tours/ min 3,5 pouces, graveur DVD, Wi-Fi n, Gigabit Ethernet, tuner TNT, lecteur de cartes mémoire 5-en-1, webcam, clavier/souris sans fil, télécommande

Connectiques : 6 USB, eSATA, sorties audio 5.1 analogique et S/PDIF, RJ-45 Logiciels : Seven Familiale Premium 64 bits, Adobe Photoshop Elements 6, Nero 8 Essentials, Cyberlink PowerDVD 9/PowerCinema/YouCam 3, Microsoft Touch Pack et Works SE 9 Prix : de 599 à 999 euros Site Web : www.packardbell.fr

Le PC tout-en-un OneTwo de Packard Bell est décliné en cinq versions dont les prix vont de 599 à 999 euros. L’écran aux finitions appréciables repose sur deux supports et peut se pencher à environ 25 degrés. Son design adopte des coques noires, brillantes, quelques ajouts en plexiglas et un espace plein entre les pieds avant et la dalle sur lequel sont placés les haut-parleurs. Ces derniers sont de piètre qualité, à l’image des écrans LCD en général. La configuration la plus costaude que nous avons reçue est équilibrée et dispose d’une puissance honorable apte à n’importe quelle activité bureautique, à la vidéo HD, ainsi qu’au jeu si on ne pousse pas trop les détails et/ou les résolutions. Ses connectiques sont complètes, en dehors du FireWire et du Bluetooth, il ne lui manque rien, on trouve également le nécessaire côté multimédia avec la présence d’un tuner TV TNT et d’une télécommande Media Center. La version la moins chère des OneTwo se contente d’un écran 20 pouces, les quatre autres adoptent un LCD de 23 pouces Full HD, à la technologie tactile infrarouge. Ce dernier offre une très bonne réactivité, un bon contraste, mais une mauvaise colorimétrie d’usine qui ne pourra être corrigée qu’avec une sonde, car aucun OSD n’est présent. Les angles de vision et le fourmillement vidéo sont, quant à eux, typiques d’une dalle TN. La dalle brillante offre une efficacité tactile équivalente à celle des écrans LCD infrarouges précédents, mais s’avère mieux calibrée à ses extrémités supérieure et inférieure. Le PC est silencieux au repos mais souffle plus en charge, sans pour autant devenir bruyant. L’ensemble affiche une consommation de 80 W au repos et de 120 W en charge. Les OneTwo sont livrés avec une surcouche logicielle accessible facilement via un toucher dans un coin de l’écran et regroupant la plupart des programmes installés sur le système. On trouve le Touch Pack de Microsoft, PowerCinema et YouCam, un portail d’accès pour acheter des jeux pour enfants, ainsi que quatre applications maison (un lecteur audio, un bloc-notes, une visionneuse photo et un outil de partage photo pour Flickr et Facebook). Cette interface tactile facilite l’usage mais il est dommage qu’elle ne puisse pas être personnalisée en ajoutant des raccourcis de programmes par exemple. Les plus : Equipement, Prix, Réactivité et contraste de l’écran Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités droite et gauche de la dalle, Surcouche logicielle tactile non personnalisable, Dalle brillante, Colorimétrie d’usine, Qualité des haut-parleurs

130

I Hardware Magazine


Iiyama Prolite Type : écran LCD tactile (deux points) Dalle : 22 pouces 16/9 TN à 5 ms

T2250MTS Résolution native : 1 920 x 1 080 Technologie tactile : infrarouge

Entrées vidéo : DVI, VGA Prix : 290 euros

Site Web : www.iiyama.fr

Le T2250MTS possède une dalle TN Full HD compatible avec deux points de contact. Le design est sobre, à l’image des autres gammes LCD du constructeur, et l’écran repose sur un unique pied équipé d’un pivot horizontal. Il est inclinable à 20 degrés vers l’arrière, ce qui, comme sur le modèle Acer, est insuffisant pour l’utiliser confortablement sur un bureau et éviter le mal de bras. Mieux vaut donc l’accrocher à un mur et/ou le dédier à une interface logicielle simple de type Media Center. Le T2250MTS est équipé de deux entrées vidéo DVI (HDCP) et VGA, de haut-parleurs médiocres de 1 W, et adopte l’infrarouge pour le tactile. La dalle est donc recouverte d’une surface protectrice brillante et souffre d’un déclenchement trop sensible du contact dès l’effleurement du doigt. On retrouve également le problème de calibrage le long des extrémités de la dalle. La colorimétrie d’usine n’est pas juste mais elle se corrige très bien avec un calibrage. L’homogénéité de la luminosité est bonne, avec une différence maximum constatée de 17 % entre deux points de la dalle. Le contraste est, en revanche, insuffisant, ce qui oblige à pousser la luminosité. Les angles de vision sont larges sur les côtés mais pèchent par-dessous comme sur toutes les dalles TN. L’OSD dispose des options nécessaires mais on ne trouve pas de profils colorimétriques préenregistrés. La réactivité est équivalente aux autres dalles 5 ms TN présentées ici, soit bonne et suffisante pour éviter les images fantômes. Côté consommation, nous avons relevé XX W à la prise. Plus cher que le Medion pour une taille équivalente et la même résolution native, nous le préférerons quand même à l’Akoya, à moins de vouloir investir dans un écran à poser en équerre sur un bureau. Les plus : Fixations pour accroches VESA présentes, Homogénéité de la luminosité, Bonne réactivité Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Confort d’usage tactile (pivot avant/arrière trop limité), Colorimétrie par défaut, Contraste faiblard, Dalle brillante

MSI Wind

Top AE2220

Type : PC tout-en-un Ecran : 21,5 pouces 16/9 TN, 1 920 x 1 080, tactile infrarouge deux points Configuration : T6600, 4 Go DDR2, GeForce 9300, 640 Go 7 200 tours/min 3,5 pouces, graveur DVD, Wi-Fi n, Gigabit Ethernet, tuner TV hybride, lecteur de cartes mémoire 4-en-1, webcam, clavier/souris sans fil, télécommande

Connectiques : 6 USB, eSATA, sorties audio stéréo et S/PDIF, entrée micro, RJ-45, HDMI, VGA Logiciels : Seven Familiale Premium 32 bits, Microsoft Touch Pack, Cyberlink DVD Suite 7, Norton Internet Security Prix : 800 euros Site Web : www.msi-computer.fr

Constitué de coques en plastique noires, brillantes et d’un contour en plexiglas faisant aussi office de pied, ce Wind Top peut se placer en équerre sur votre bureau avec une inclinaison confortable d’environ 45 degrés. Sa configuration est la moins puissante de ce comparatif et embarque un processeur mobile Dual Core T6600 associé à une GeForce 9300. Elle n’en reste pas moins adaptée à la lecture de n’importe quel flux vidéo HD et à tout type d’activités bureautiques. Mais il ne faudra pas lui en demander beaucoup en 3D puisque le GPU nVidia n’apportera une cadence d’image suffisante qu’avec des jeux peu gourmands et/ou en sacrifiant les détails et la résolution. Les connectiques sont assez complètes, avec notamment la présence de deux entrées vidéo HDMI et VGA. Il manque, en revanche, le FireWire et des sorties audio analogiques multicanaux. On trouve, par ailleurs, un tuner TV hybride, une télécommande IR Media Center, ainsi qu’un ensemble clavier/souris sans fil un peu cheap. La dalle TN de 21,5 pouces (assimilable à un 22 pouces) présente une résolution de 1 920 par 1 080. Sa réactivité est excellente, le contraste est bon, les angles de vision latéraux également, mais la colorimétrie d’usine mérite un calibrage. L’écran adopte la technologie tactile infrarouge, avec des performances similaires aux produits du genre. A un détail près cela dit, puisque notre modèle avait un problème de détection tactile impossible à corriger sur la partie gauche de la dalle. Il s’agissait peut-être d’un défaut de notre produit qui était déjà passé entre de nombreuses mains. L’appareil est silencieux au repos mais la ventilation se fait trop entendre lorsqu’il est sollicité. Côté consommation, 53 W ont été relevés au repos, 78 W en charge. MSI livre sa couche logicielle WindTouch 3D dans laquelle sont regroupés les programmes installés sur la machine. Cette interface reste simple mais elle est efficace et personnalisable, vous pouvez y ajouter autant de raccourcis que vous souhaitez pour faciliter l’usage tactile. Quant aux logiciels livrés avec la machine, en dehors du Touch Pack de Microsoft, sont présents des outils maison (bloc-notes multimédia, visionneuse/retouche photo, un jeu pour enfants), ainsi que Norton Internet et l’ensemble de programmes Cyberlink DVD Suite 7. Les plus : Equipement, Prix, Surcouche logicielle personnalisable, Consommation réduite, Réactivité de la dalle Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Dalle brillante, Colorimétrie d’usine, Qualité des hautparleurs, Bruit en charge, Clavier/souris sans fil cheap

Hardware Magazine

I 131


Comparatif Acer Aspire

Z5610

Type : PC tout-en-un Ecran : 23 pouces 16/9 TN à 5 ms, 1 920 x 1080, tactile infrarouge deux points Configuration : C2D 7500, 4 Go DDR2, Radeon Mobility HD4570, 750 Go 7 200 tours/ min 3,5 pouces, graveur DVD, Wi-Fi n, Gigabit Ethernet, Bluetooth 2.1, lecteur de cartes mémoire 5-en-1, webcam, clavier/souris sans fil

Connectiques : 6 USB, eSATA, sorties audio analogique 5.1 et S/PDIF, RJ-45, Logiciels : Seven Familiale Premium 64 bits, Microsoft Touch Pack, Cyberlink PowerCinema/YouCam 3, Nero 9 Essentials Prix : 880 euros Site Web : www.acer.fr

Si le châssis du Z5610 d’Acer reste proche de celui des autres PC tout-en-un, avec une position de l’écran en équerre sur ses deux pieds, la machine marque sa différence au niveau des coloris, puisque Acer a choisi des coques en plastique gris et bordeaux. Le design est élégant et l’ensemble offre une qualité de fabrication correcte. La machine embarque une configuration similaire au plus puissant des OneTwo de Packard Bell. Ce PC s’adapte donc à n’importe quels types d’usages, même le jeu, sans être toutefois trop exigeant en termes de qualité graphique. Dommage, en revanche, qu’aucun tuner TV ne soit ajouté, ni de télécommande Media Center. En dehors des entrées vidéo et du FireWire, toutes les connectiques utiles sont présentes, on trouve aussi une interface Bluetooth. L’écran tactile de 23 pouces exploite la technologie infrarouge et se montre, au même titre que sur le Packard Bell, plus précis sur les extrémités inférieure et supérieure de la dalle. Mais il conserve les autres défauts liés à cette technologie. La réactivité de la dalle est excellente, tout comme le contraste. La colorimétrie est correcte et ne pourra de toute façon être corrigée qu’avec une sonde car aucun OSD n’est disponible. L’appareil se montre silencieux au repos, il souffle un peu plus en charge, mais les nuisances sonores restent contenues. Il consomme environ 82 W au repos et 127 W au maximum. L’interface logicielle et les programmes tactiles livrés sont les mêmes que pour le modèle Packard Bell, ce qui n’est pas étonnant puisque ce dernier appartient à Acer. On retrouve donc une interface non personnalisable regroupant les applications Touch Pack de Microsoft et quatre outils maison (un lecteur audio, un bloc-notes, une visionneuse photo et un outil de partage photo pour Flickr et Facebook). Acer fournit également Cyberlink PowerCinema et YouCam3, ainsi que Nero 9 Essentials. Les plus : Prix, Très bonne réactivité, Contraste, Relativement silencieux, Colorimétrie d’usine correcte Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités latérales de la dalle, Dalle brillante, Qualité des haut-parleurs, Pas de tuner TV, ni de télécommande, Surcouche logicielle tactile non personnalisable

Médion The

Touch (X9613)

Type : PC tout-en-un Ecran : 24 pouces 16/9 TN, 1 920 x 1 080, tactile infrarouge deux points Configuration : Core 2 Quad Q9000, 4 Go DDR3, GeForce GT 240M, 2 x 500 Go 5 400 tours/min 2,5 pouces, lecteur Blu-Ray/graveur DVD, Wi-Fi n, Gigabit Ethernet, Bluetooth 2.1, lecteur de cartes mémoire 5-en-1, webcam, double tuner TNT, tuner satellite, clavier sans fil, télécommande

Connectiques : 3 USB, eSATA, sorties audio analogique 5.1 et S/PDIF, entrée microphone, RJ-45, ExpressCard, entrée HDMI/VGA/péritel, sortie HDMI Logiciels : Seven Familiale Premium 64 bits, Microsoft Touch Pack, Cyberlink Power2Go, Microsoft Works 9 Prix : 1 800 euros Site Web : www.medion.com

Le Touch de Medion est le PC tout-en-un le mieux équipé de ce dossier. Il se distingue de la concurrence par l’intégration d’un lecteur Blu-Ray, d’un double tuner TNT, d’un tuner satellite DVB-S (peu utile car pas de CI et non DVB-S2), de trois entrées vidéo dont une péritel et d’un lecteur ExpressCard. On trouve ensuite une barre horizontale inclinable sur la partie inférieure, sur laquelle sont placés un lecteur d’empreintes digitales, les enceintes, des boutons de navigation sensitifs, ainsi qu’un petit écran LCD de 3,5 pouces tactile mais non multipoint. Ce dernier sert à monitorer le PC ou aux widgets Windows, mais sa navigation tactile est laborieuse et très perfectible. Aucune souris n’est fournie avec la machine, mais une télécommande Media Center et un joli clavier avec touchpad au design proche d’un Dinovo sont présents. On notera également l’ajout d’un module de reconnaissance vocale permettant de piloter quelques fonctions de la machine, mais nous n’avons pas pu juger son efficacité car il n’était pas actif sur notre prototype de test. Un détecteur de présence permet, par ailleurs, de mettre le PC en veille dès que vous n’êtes plus devant l’écran. Avec son processeur mobile Quad Core et sa GeForce GT240M, cette machine offre une puissance apte à n’importe quelle activité, y compris en 3D même si vous ne pourrez pas jouer avec les meilleurs détails graphiques. Un téraoctet de stockage divisé en deux disques de 500 Go est disponible, dommage qu’il s’agisse de modèles 5 400 tours en 2,5 pouces car ils brident le comportement général de la machine. L’écran de 24 pouces Full HD offre une excellente réactivité ainsi qu’un bon contraste, mais ses couleurs mériteront d’être calibrées. Comme toute dalle TN, son angle de vision inférieur vire vite au noir et du fourmillement reste présent en vidéo. Sa technologie tactile infrarouge à deux points de contact souffre des mêmes petits défauts que les précédents produits, mais il n’y a rien de rédhibitoire. Pour améliorer l’expérience tactile, Medion a intégré une interface logicielle esthétique très bien conçue et regroupant des raccourcis vers un lecteur audio, un bloc-notes, une visionneuse photo, Facebook, Media Center et les applications Microsoft Touch Pack. Internet Explorer et un client de messagerie sont eux aussi directement affichés dans cette interface. En dehors du prix que nous trouvons excessif, la plus grande critique que nous pouvons faire vient des nuisances sonores. Le PC souffle beaucoup trop, même lorsqu’il est au repos. Dommage également qu’on ne trouve que trois ports USB, sachant qu’un d’entre eux sera occupé par le récepteur du clavier. Quant à la consommation, nous avons relevé 62 W au repos et un maximum de 110 W en charge. Les plus : Equipement, Surcouche logicielle tactile Medion, Très bonne réactivité, Contraste, Accroches pour un kit VESA Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Dalle brillante, Qualité des haut-parleurs, Bruyant, Disques durs 2,5 pouces 5 400 tours/min, Colorimétrie d’usine, Que trois USB (dont un utilisé pour le récepteur sans fil du clavier), Prix

132

I Hardware Magazine


HP TouchSmart

600 1050

Type : PC tout-en-un Ecran : 23 pouces 16/9 TN, 1 920 x 1080, tactile infrarouge deux points Configuration : C2D P7450, 4 Go DDR3, GeForce GT 230M, 1 To 7 200 tours/min 3,5 pouces, lecteur Blu-Ray/graveur DVD, Wi-Fi n, Gigabit Ethernet, Bluetooth 2.1, lecteur de cartes mémoire 6-en-1, webcam, tuner TV hybride, clavier/souris sans fil, télécommande

Connectiques : 5 USB, RJ-45, sorties audio stéréo/casque/et SP/DIF, deux entrées audio stéréo, entrées composite/S-Vidéo/HDMI, entrée audio 2 x RCA Logiciels : Seven Familiale Premium 64 bits, Microsoft Touch Pack, Cyberlink DVD Suite 7/YouCam, Prix : 1 500 euros Site Web : http://welcom.hp.com

Le design et les coques laquées noires des TouchSmart 600 d’HP n’ont rien d’original mais ces PC tout-en-un offrent une esthétique soignée. La gamme se décline en deux modèles, le 1050 étant la version la plus musclée et la mieux équipée. Elle embarque un processeur mobile Core 2 Duo P7450 associé à une GeForce GT G230M, ce qui lui confère une puissance appréciable, mais il faudra forcément sacrifier les détails et la résolution dans les jeux pour obtenir une cadence d’image suffisante. La machine se dispense de FireWire et d’eSATA, mais dispose de cinq ports USB, d’un lecteur Blu-Ray, d’un tuner TV hybride et de trois entrées vidéo HDMI, composite et S-Vidéo. Une télécommande Media Center, une souris et un clavier sans fil sont ajoutés au packaging. Ce dernier a l’avantage d’être fin mais manque d’ergonomie et est constitué de plastique peu flatteur. L’écran de 23 pouces à la résolution Full HD offre une très bonne réactivité mais manque un peu de contraste et devra être soumis à un calibrage pour améliorer la colorimétrie. Il est équipé de la même technologie tactile infrarouge à deux points de contact que ses concurrents. On retrouve une dalle brillante et une absence de détection aux bords, mais rien de vraiment pénalisant. Parmi les bons points, on peut citer les haut-parleurs, de bonne qualité mais qui n’ont toujours rien à voir avec un véritable kit d’enceintes, même pas cher, une consommation qui n’a pas dépassé 95 W en charge et 40 W au repos et un fonctionnement silencieux quel que soit l’usage. L’interface logicielle ajoutée par HP est complète, jolie et personnalisable. De base, elle regroupe des outils pour la photo, la musique, la vidéo, la réception TV, la lecture de DVD/Blu-Ray, une webcam, un calendrier, le navigateur Internet IE8, ou encore les flux RSS. Vous pourrez y ajouter les logiciels du Pack Touch de Microsoft qui sont aussi livrés. HP fournit en supplément une autre interface appelée Magic Desktop destinée aux enfants et avec des applications simplifiées. Les plus : Equipement, Surcouche logicielle tactile HP, Très bonne réactivité, Silencieux, Consommation réduite, Qualité des enceintes Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Dalle brillante, Colorimétrie d’usine

Sony Vaio

L

Type : PC tout-en-un Ecran : 24 pouces 16/9 TN, 1 920 x 1080, tactile infrarouge deux points Configuration : C2D E8400, 4 Go DDR2, GeForce G210M, 500 Go 7 200 tours/min 3,5 pouces, lecteur Blu-Ray/graveur DVD, Wi-Fi n, Gigabit Ethernet, Bluetooth 2.1, lecteur de cartes mémoire 6-en-1, webcam, double tuner TNT, clavier/souris sans fil, télécommande

Connectiques : 5 USB, RJ-45, iLink, sorties audio stéréo/casque/et SP/DIF, deux entrées audio stéréo et RCA, entrées composite/HDMI Logiciels : Seven Familiale Premium 64 bits, Microsoft Touch Pack, Adobe Photoshop Elements 7, Roxio Easy Media Creator 10 Prix : 1 800 euros Site Web : www.sony.fr

Comme souvent chez Sony, ce Vaio L bénéficie d’un élégant design et d’une très bonne qualité de fabrication et de finition. Il embarque le processeur le plus puissant de ce comparatif et est un des rares à intégrer un lecteur Blu-Ray, mais sa partie graphique poussive en 3D ne pourra pas satisfaire les joueurs. L’appareil fait l’impasse sur l’eSATA et les sorties audio analogiques multicanaux, mais il dispose de deux entrées vidéo HDMI et composite, d’un double tuner TNT et de toutes les autres connectiques utiles. On apprécie, au passage, ses petites enceintes qui offrent un bon rendu audio pour des haut-parleurs intégrés. L’ensemble clavier/souris et la télécommande Media Center livrés restent simples mais efficaces eux aussi. L’écran de 24 pouces Full HD dispose d’une fonction PIP et peut être mis hors tension, sans éteindre le PC. Sa réactivité est excellente, son contraste également mais il manque de précision, notamment au niveau des polices qui bavent un peu, comme si un filtre de sharpen trop marqué était appliqué en permanence à l’affichage. Heureusement, cela se distingue moins en prenant du recul. On retrouve, par ailleurs, les défauts inhérents aux dalles TN avec un angle de vision inférieur limité et du fourmillement vidéo. Côté tactile, la technologie infrarouge offre des performances similaires à la concurrence. L’appareil consomme 90 W au repos, il monte à 130 W en charge et ne peut pas être qualifié de silencieux. La ventilation se fait entendre mais cela reste raisonnable et elle n’est pas plus bruyante lorsque le PC est en activité. La surcouche logicielle tactile prend la forme d’une barre des tâches placée en haut de l’écran. Elle est très bien conçue, agréable à utiliser et dispose d’un grand nombre de raccourcis vers les applications de la machine et tous les outils multimédias nécessaires. Sony livre sa suite Vaio avec Media Plus, Media Gallery et Movie Story, ainsi que les logiciels Touch Pack de Microsoft et Adobe Photoshop Elements 7. A 1 800 euros, ce Vaio L n’est pas donné mais il est très bien équipé. Une seconde version de ce PC existe à 1 200 euros. Elle se passe de lecteur Blu-Ray, de tuner TNT et embarque un processeur E7500. Les plus : Finition, Equipement, Surcouche logicielle Sony, Très bonne réactivité, Contraste, Qualité des enceintes Les moins : Déclenchement tactile trop sensible, Détection tactile aux extrémités de la dalle, Dalle brillante, Colorimétrie d’usine, Précision d’affichage, Prix

Hardware Magazine

I 133


Test

HD5670 DirectX 11, Eyefinity, jeu fluide à 80 euros ? Cartes Graphiques

A Le GPU de la 5670 est minuscule, ce qui explique son coût réduit. Notez qu’il s’agit d’un PCB non modifié (à part la couleur) et qu’il est d’assez bonne facture.

Après Cypress (HD5800) et Juniper (HD5700), voilà que débarque Redwood, le GPU qui équipe la HD5670. Une déclinaison toujours moins chère donc, mais qui garde le support DirectX 11. Proposée à 80 euros, est-ce vraiment une aubaine ?

MD poursuit ses sorties de nouvelles cartes graphiques à un rythme effréné ! Après les HD5800 fin septembre, les 5700 fin octobre et la 5970, fin novembre, nous avons droit à la nouvelle HD5670. C’est tant mieux, car si le haut de gamme est assez fourni, avec des 4890, 5850 et 5870, sans compter les cartes de la concurrence telles les GTX275 et 285, le milieu de gamme est un peu plus léthargique. nVidia a dévoilé ses GT et GTS240 il y a quelques mois, mais ce sont les seules

nouveautés depuis bien longtemps. En effet, la GTS250 n’est qu’un G92, tout comme la 9800GT, et la 9600GT équipée d’un G94 s’assimile à un G92 castré. Quant aux anciennes cartes de la gamme HD4000, il ne reste que la 4670 et la 4850, les 4700 n’ayant pas rencontré un franc succès, les prix n’ont pas bougé, dans les rares boutiques qui les vendent encore. Dès lors, pour un budget compris entre 50 et 100 euros, nous avions le choix entre la 4670 à un peu moins de 60 euros, la 4850 aux environs des 100 euros, et la GT240 qui coûte désormais 70 à 80 euros. Cette 5670 va-t-elle trouver sa place dans ce marché serré ? Sa grande soeur, la 5750, a déjà du mal à s’imposer face à l’ancienne 4850. Elles sont, en effet, de puissance tout à fait comparable, mais la nouvelle venue facture cher ses avancées technologiques.

On prend les mêmes et on recommence Redwood, le GPU de la 5670, dérive de Cypress, la puce qui équipe les prestigieuses HD5800. Il conserve donc le support de DirectX 11 et Eye-

134

I Hardware Magazine

finity, la technologie qui permet d’exploiter jusqu’à six écrans avec une seule carte (voir encadré). HD5000 oblige, Redwood est gravé en 40 nm, ce qui présage d’une consommation à la baisse. Mais pour faire baisser le prix, il faut surtout produire un die plus petit. C’est ainsi que le GPU embarque seulement 400 unités de calcul, cadencées à 775 MHz. Finalement, ce n’est pas énorme, compte tenu du fait que la 4670 en possède 320, qui fonctionnent à 750 MHz, et que les HD5000 et HD4000 exploitent grosso modo la même architecture. Il y a donc bien un gain de puissance, 25 % de mieux en théorie, mais le milieu de gamme progresse moins vite que le haut du panier. En passant de la 4890 à la 5870, on double les unités de calcul tout de même ! Quoi qu’il en soit, ce n’est pas le seul point à considérer. En effet, la bande passante mémoire explose grâce à l’emploi de GDDR5 qui commence à se démocratiser. De moins de 30 Gb/s, on passe à près de 64 Gb/s, à peine moins que la 5750. En outre, les améliorations apportées par AMD sur les


Pour pouvoir gérer 3 écrans, vous aurez besoin de la 5670 équipée d’une sortie Display Port, celle qui utilise un port VGA se contente du classique bi-écran.

HD5000 permettent de mieux gérer le calcul des filtres, gourmands en ressources GPU. Du coup, la puissance en légère hausse devrait se contenter de mettre à niveau le milieu de gamme AMD, alors que la bande passante mémoire doublée et les améliorations de l’architecture devraient permettre de supporter plus de traitements sur l’image. Concrètement, la carte se destine toujours aux possesseurs de 19 ou 22’’, mais ils pourront jouer plus confortablement, et c’est exactement ce que l’on attend.

Réduction des coûts Physiquement, la carte est minuscule. Elle dépasse à peine du slot PCI-Express, ça change de l’immense 5970 ! HIS nous a fait parvenir une 5670 IceQ, équipée d’un radiateur maison double slot qui rejette la chaleur à l’extérieur du boîtier. Celle-ci est affichée à 90 euros pour la version 512 Mo, et 10 euros de plus pour la version 1 Go. C’est un peu cher, mais elle est tout à fait silencieuse et bien refroidie, ce qui est un énorme avantage, surtout si on veut l’utiliser dans un HTPC, mais certains lui reprocheront d’occuper deux slots. Si vous préférez opter pour une carte utilisant le design de référence, vous aurez quelques difficultés. En effet, le radiateur fourni par AMD n’a vraiment pas convaincu les partenaires, il était semble-t-il trop bruyant, c’est pourquoi ils ont préféré faire appel à leurs radiateurs maison. Cela dit, le PCB utilisé reste, pour le moment, celui de référence, d’assez bonne facture pour une carte de cette gamme. Il existe néanmoins deux versions de PCB, la première embarquant 512 Mo

de RAM, et la seconde 1 024 Mo. Outre cette différence qui apparaît de toute façon dans les spécifications de la carte, la version 512 Mo ne dispose pas des deux connecteurs habituels pour le CrossFire. Vous pourrez néanmoins coupler deux de ces cartes, mais les informations seront transmises par le bus PCI-Express. Ce n’est donc pas vraiment gênant, une carte de ce calibre étant bien loin de saturer la bande passante fournie par un port PCI-Express 2.0 16x, et même 8x dans le cas du P55. Qui plus est, un CrossFire de 5670 a très peu de chance d’être compétitif face à une 5770, ne serait-ce qu’à cause du prix.

La 5670 de référence sera surement rare, bon nombre de marques ayant préféré utiliser leur propre radiateur.

On se doutait d’une consommation peu élevée puisque la carte se contente de l’alimentation du port PCI-Express, néanmoins, le constat

Eyefinity et les trois petits écrans Les HD5800 ont introduit une nouvelle avancée dans le multi-écran : la possibilité de contrôler jusqu’à six écrans avec une seule carte, et de pouvoir les répartir comme bon vous semble. Pour ce faire, le GPU intègre six contrôleurs DisplayPort, ce qui implique donc que vos six écrans soient équipés de cette connectique plutôt rare. C’est pourquoi il existe une version Eyefinity de la 5800, avec ses six prises miniDisplayPort, et une autre, plus conventionnelle, qui embarque un DisplayPort, un HDMI 1.3a et deux DVI, qui autorise alors le support de trois écrans à condition d’en avoir un branché en DisplayPort. Sur les 5670, le problème est différent. Le modèle de référence embarque une prise HDMI, une DVI et une VGA et il est alors impossible d’utiliser trois écrans simultanément. C’est pourquoi une version légèrement modifiée existe, qui embarque un port DisplayPort à la place du VGA. C’est encore un peu plus compliqué que sur les 5800 et 5700 puisqu’il faut alors trois écrans avec une connectique différente (sauf avec adaptateur DisplayPort vers DVI actif), mais c’est tout de même possible. Si vous avez besoin de cette technologie, pensez donc à choisir la bonne carte, qui n’est pas plus chère que les autres. On les distingue facilement, dans la mesure où la version avec DisplayPort porte le suffixe DisplayPort ou Eyefinity dans sa référence. Par contre, une version controlant 6 écrans est exclue d’office puisque Redwood ne possède que 4 contrôleurs, limitant alors le nombre d’écran maximum.

Hardware Magazine

I 135


Test Consommation à la prise (W)

1680 AA0X Medium (FPS) HD5750

55,8

HD5670

44,2 46

61,1

68

39,5

GT240

38,7

9600GT 10

20

30

44

50

Warhead

60

70

80

150

54,8

25,5

49,5 42,2

17,3

HD4850

36 56

24,5

HD4670

45,5 28,5

12,3

24,5

GTS250

64,2

24,7

GT240

12,3

9600GT

12,7 0

10

50 36,3 30,5 34 32

20

30

Dirt 2 DX9

225

40

Warhead

185

9600GT

Farcry 2

1680 AA4X High (FPS)

HD5670

170

GT240

Avec des détails moyens et aucun filtre, Redwood ne se démarque pas vraiment, la faute à une puissance GPU à peine augmentée. Nous n’avons pas testé Dirt 2 en DX11 puisque la comparaison avec son mode DX9 est caduque. En effet, en DX9, le GPU calcule une résolution inférieure à celle qui est affichée, d’où cette impression de flou.

HD5750

277

46,5

40

Dirt 2 DX9

206 183

GTS250

43,2

41

35,2 0

67,5

262

168

4670

70,7

62,3

184

4850

33,4

GTS250

221

65

58,2 28,6

233 186

5670

HD4850 HD4670

173

5750

68

48,5

50

60

70

Farcry 2

La 5670 s’en tire largement mieux que sa concurrente directe dès lors qu’on active les filtres et qu’on pousse les détails au maximum.

170

224

190

210 Repos

230

250

270

290

Charge

La 5670 ne bascule pas sur ses fréquences 2D au repos, d’où une consommation trop élevée.

est assez décevant. La carte respecte l’ordre des choses et consomme un peu moins que sa grande soeur, la 5750, en charge, mais au repos, les résultats sont étonnants. Pourtant, après vérification dans le BIOS des cartes graphiques, la 5670 possède les mêmes fréquences 2D, avec une tension qui est légèrement plus faible, mais la carte semble ne pas switcher sur ce profil. Du coup, elle utilise un profil moins économe, les fréquences étant de 500/462 au lieu de 157/300 comme de coutume sur les HD5000. Ceci est probablement dû à un problème de drivers, dans la mesure où ceux que nous avons utilisés sont une release spéciale pour les 5670, espérons que ce problème sera réglé avec la prochaine version. Pour ceux qui s’inquiéteraient de savoir ce que signifie cette compatibilité PCI-Express 2.1, il n’y a pas lieu de paniquer. Le PCIExpress 2.1 apporte en fait les améliorations techniques du futur

PCI-Express 3.0, mais conserve la bande passante (encore suffisante pour nos cartes actuelles) et les spécifications électriques de la norme 2.0. Pas de vraie révolution, ni même d’incompatibilité à prévoir, il s’agit juste d’un passage en douceur à la prochaine norme.

La nouvelle référence à moins de 80 euros A un niveau de prix strictement équivalent à la 5670, on retrouve la GT240. Celle-ci se contente du support de deux écrans et de DirectX 10.1, le tout sur un GPU de conception relativement ancienne. En face, la 5670 qui bénéficie de DirectX 11 et, dans le cas idéal, de la gestion de trois écrans grâce à Eyefinity. Niveau performances en DirectX 10 ou DirectX 9, les cartes sont très proches, mais la 5670 prend l’avantage une fois que l’on active les filtrages, et c’est justement ce brin de puissance qui manquait aux autres cartes.

5770

5750

5670

4850

4670

GT240

9600 GT

GPU

Juniper (DX11)

Juniper (DX11)

Redwood (DX11)

RV680 (DX10.1)

RV740 (DX10.1)

GT215 (DX10.1)

G94 (DX10)

Unités de calcul

160 vec5

144 vec5

80 vec5

160 vec5

64 vec5

96

64

Fréquence GPU (MHz)

850 MHz

700 MHz

775 MHz

625 MHz

750 MHz

550 MHz

650 MHz

Puissance de calcul (Gflops/s)

1 360 Gflops

1 008 Gflops

620 Gflops

1 000 Gflops

480 Gflops

257,3 Gflops

208 Gflops

Fréquence mémoire

1 200 MHz (GDDR5)

1 150 MHz (GDDR5)

1 000 MHz (GDDR5)

993 MHz (GDDR3)

900/1 000 MHz (DDR3/GDDR3)

900/1 000/1 700 MHz

700/900 MHz

Bus mémoire

128 bits

128 bits

128 bits

256 bits

128 bits

128 bits

256 bits

Bande passante mémoire

71,5 Go/s

68,5 Go/s

64 Go/s

59,2 Go/s

28,8/29,8 Go/s

29,8/50,6 Go/s

41,7/53,6 Go/s

Prix actuel

130 euros

105 euros

80 euros

90 euros

50-60 euros

75 euros

75 euros

136

I Hardware Magazine


Références

Configs de référence Dépenser moins :

- 20 euros : mono core (débloquable en Athlon II !) AMD Sempron X1 140 (30 euros) - 15 euros : utiliser le ventirad d’origine AMD (0 euros)

Prix riquiqui

Gagner des perfs :

Processeur : Athlon II X2 240 (50 euros)

+ 35 euros : passer à 4 Go de RAM

Refroidissement processeur : Cooler Master Hyper TX3 (15 euros)

+ 10 euros : passer à un disque dur 32 Mo de cache

Carte mère : Asus M4A78-VM (55 euros) Mémoire : 2 Go DDR2-800 C4 de marque (45 euros) Carte graphique : Radeon HD3200 intégrée au chipset

+ 40 euros : boîtier et alim entrée de gamme de marque

Disque dur : 500 Go 7 200 tours 16 Mo (45 euros) Graveur : CD et DVD premier prix (20 euros) Alim : intégrée au boîtier Boitier : premier prix avec alim (30 euros) Divers : N/A

Total : 260 euros Dépenser moins :

Pour quelques euros de plus

- 20 euros : dual core Athlon II X2 240 (50 euros)

Processeur : Athlon II X3 435 (70 euros)

- 15 euros : pas de lecteur de cartes mémoire

Carte mère : Asus M4A78-VM (55 euros)

Refroidissement processeur : Cooler Master Hyper TX3 (15 euros) Mémoire : 4 Go DDR2-800 C4 (80 euros)

Gagner des perfs :

+ 25 euros : quad core Athlon II X4 630 (95 euros) + 20 euros : passer à 1 To de disque dur (75 euros)

Carte graphique : Radeon HD3200 intégrée au chipset Disque dur : 500 Go 7 200 tours 32 Mo (55 euros) Graveur : CD et DVD premier prix (20 euros) Alim : Corsair CX 400 W (45 euros) Boitier : entrée de gamme (30 euros) Divers : lecteur de cartes mémoire (15 euros)

Total : 385 euros Choisir RAM, carte graphique, disque dur et boîtier. Pour certains composants, nous ne précisons pas de marque et de modèle précis dans nos configurations. Soit parce que le meilleur change d’une semaine sur l’autre en fonction du prix (cas de la RAM, par exemple) soit parce que le choix dépend de vos priorités esthétiques ou phoniques (cas des boîtiers, par exemple). Afin d’acheter uniquement les meilleurs matériels, voici une liste des produits de référence pour les catégories concernées : - RAM : hors scénario d’overclocking maximal, pour lequel nous vous recommandons de lire notre comparatif de kits DDR3 paru dans le dernier numéro, le choix de la mémoire est assez libre. Tant que vous prenez le bon type et la bonne fréquence de mémoire, tel que nous l’indiquons dans les configurations, et une marque reconnue pour éviter les incompatibilités, vous pouvez choisir les moins chères proposées par votre revendeur ou celles qui s’accordent le mieux en look à votre nouvelle carte mère. Depuis quelques mois, la marque Geil propose d’excellents rapports qualité/prix, mais n’ayez pas peur d’acheter de la mémoire A-Data, Corsair, Kingston, OCZ, Patriot ou Samsung. - Carte graphique : comme pour la RAM, la marque de la carte graphique n’a que peu d’importance. Partant du constat que la majorité des cartes sont identiques (ce sont des references boards avec un sticker modifié), autant prendre la moins chère ou celle accompagnée du jeu qui vous plait. En revanche, il est toujours intéressant d’analyser le marché car les constructeurs proposent également des cartes améliorées (overclockées, meilleur refroidissement, parfois les deux). Globalement, il ne faut pas dépenser plus de 10 à 15 euros pour ces modèles boostés, sinon, autant le faire soimême ou investir dans la gamme supérieure. - Disque dur : - 500 Go économiques (16 Mo de cache) : Maxtor DiamondMax 23, Seagate Barracuda 7200.12, WD Caviar Blue - 500 Go et 1 To performants (32 Mo de cache) : Samsung Spinpoint F3, WD Caviar Black - Boîtiers : - entrée de gamme (30 à 50 euros) : Antec ThreeHundred, Cooler Master RC-310 et RC-330 - milieu de gamme (50 à 75 euros) : Antec P180 mini, Lancool Dragonlord PC-K58, Xigmatek Midgard - milieu de gamme +++ (75 à 100 euros) : Antec Nine Hundred, Cooler Master HAF 922, Fractal Design Define R2, Lancool Dragonlord PC-K62 - haut de gamme (100 à 150 euros) : Antec P183, Cooler Master HAF 932 - très haut de gamme (+ de 150 euros) : Cooler Master Cosmos, Corsair Obsidian 800D, LianLi Tyr-X500, SilverStone Fortress FT-01 - spécial home cinéma : Antec Fusion Remote Max, SilverStone Grandia GD-04 et GD-05, SilverStone Sugo SG-06, Zalman HD501

137

I Hardware Magazine


Dépenser moins :

- 60 euros : couple carte mère/cpu Athlon II X4 630 et Asus M4A78VM en DDR2 (230 euros) - 25 euros : alim entrée de gamme de marque - 35 euros : boîtier entrée de gamme de marque

Esthétique, silence et puissance SSD Processeur : Intel Core i3 530 (105 euros) Refroidissement processeur : Cooler Master Hyper TX3 (15 euros) Carte mère : Gigabyte H55M-UD2H ou Intel DH55HC (90 euros) Mémoire : 4 Go DDR3-1333 C9 (95 euros)

Gagner des perfs :

+ 75 euros : processeur et carte graphique plus rapides, Core i5 661 (180 euros) + 60 euros : lecteur blu-ray/graveur CD et DVD (80 euros)

Carte graphique : contrôleur graphique intégré au processeur SSD : Kingston SSDnow V-series 64 Go (130 euros) Disque dur : HDD 1 To 7 200 tours 32 Mo (75 euros) Graveur : CD et DVD premier prix (20 euros) Alim : Seasonic S12II Bronze 430 W (70 euros) Boitier : milieu de gamme (65 euros) Divers : lecteur de cartes mémoires (15 euros)

Total : 680 euros Dépenser moins :

- 20 euros : processeur dualcore Athlon II X2 250 (55 euros) - 35 euros : couple carte mère et mémoire en DDR2 (135 euros) - 20 euros : disque dur 500 Go (55 euros)

Gamers - Jouer sans se ruiner Processeur : AMD Athlon II X4 630 (95 euros) Refroidissement processeur : Cooler Master Hyper TX3 (15 euros) Carte mère : Asus M4A77TD Pro, Gigabyte MA770T-UD3P ou MSI 770-C45 (75 euros) Mémoire : 4 Go DDR3-1333 C9 (95 euros) Carte graphique : Radeon HD5670 (80 euros) Disque dur : HDD 1 To 7 200 tours 32 Mo (75 euros) Graveur : CD et DVD premier prix (20 euros)

Gagner des perfs :

+ 40 euros : processeur plus rapide, Phenom II X4 955 Black Edition (135 euros) + 50 euros : carte graphique plus rapide, Radeon HD5770 (130 euros) + 40 euros : alimentation modulaire et plus puissante, Corsair HX 520 W (85 euros)

Alim : Corsair CX 400 W (45 euros) Boitier : entrée de gamme (30 euros) Divers : N/A

Total : 530 euros Dépenser moins :

- 100 euros : couple carte mère et processeur AMD, Phenom II 955 BE (210 euros) - 15 euros : alimentation de puissance inférieure, Corsair HX 520 W (85 euros) - 40 euros : boîtier de gamme inférieure (50 euros)

1 920 x 1 200 AA4X Processeur : Intel Core i5 750 (170 euros) Refroidissement processeur : Noctua NH-U12P SE2 (60 euros) Carte mère : Gigabyte P55A-UD4 ou MSI P55-GD65 (140 euros) Mémoire : 4 Go DDR3-1600 C8 (115 euros) Carte graphique : Radeon HD5770 1 Go(130 euros)

Gagner des perfs :

+ 70 euros : processeur plus puissant, Intel Core i7 860 (240 euros) + 145 euros : carte graphique plus puissante, Radeon HD5850 1 Go (275 euros)

Disque dur : HDD 1 To 7 200 tours 32 Mo (75 euros) Graveur : CD et DVD premier prix (20 euros) Alim : Corsair HX 650 W (100 euros) Boitier : milieu de gamme +++ (90 euros) Divers : lecteur de cartes mémoires (15 euros)

Total : 915 euros Dépenser moins :

- 50 euros : carte mère de gamme inférieure (160 euros) - 110 euros : carte graphique moins puissante, Radeon HD5850 1 Go (275 euros) - 80 euros : SSD entrée de gamme (130 euros) - 50 euros : alimentation de gamme inférieure (100 euros)

Extrême gaming Processeur : Intel Core i7 860 (240 euros) Refroidissement processeur : Noctua NH-U12P SE2 (60 euros) Carte mère : Asus Maximus III Formula ou EVGA P55 FTW (210 euros) Mémoire : 4 Go DDR3-1600 C8 (115 euros) Carte graphique : Radeon HD5870 1 Go (385 euros) SSD : Intel Postville X25-M (210 euros) Disque dur : HDD 1 To 7 200 tours 32 Mo (75 euros)

Gagner des perfs :

+ 245 euros : processeur plus rapide, Core i7 870 (485 euros) + 200 euros : carte graphique plus rapide, Radeon HD5970 2 Go (575 euros) + 75 euros : ventirad pour carte graphique Prolimatech MK13 + deux ventilateurs 92 mm (75 euros)

Graveur : CD et DVD premier prix (20 euros) Alim : Seasonic X-series 600 W (150 euros) Boitier : haut de gamme (125 euros) Divers : lecteur de cartes mémoires (15 euros)

Total : 1605 euros

Hardware Magazine

I 138


Battlefield. Votre PC. Même combat.

Plongez au coeur de l’action avec la nouvelle carte graphique ATI Radeon HD 5670. ™

Etendez votre champ visuel de la zone de combat sur 3 écrans grâce à la technologie ATI Eyefinity.1 Accélérez vos performances sur le champ de bataille tout comme en dehors grâce à la technologie ATI Stream. Dominez vos jeux tels que Battlefield: Bad Company™ 2, profitez de graphismes qui vous en mettront plein la vue et d’un taux de rafraichissement que seule la prise en charge totale de DirectX® 11 permet. La guerre peut être un enfer, mais cela ne vous empêche pas d’y participer Préparez-vous au combat www.amd.com/radeonHD5670 1 La technologie ATI Eyefinity fonctionne avec les jeux prenant en charge les formats d’image non-standard, critère requis pour l’affichage panoramique sur trois écrans. Pour activer un troisième écran, le panneau de votre système doit être muni d’un connecteur DisplayPort. 2

Requiert une prise en charge des applications pour la technologie ATI Stream

© 2009 Advanced Micro Devices, Inc. Tous droits réservés. AMD,le logo AMD avec la flèche, ATI, le logo ATI, Radeon, et leurs combinaisons sont des marques commerciales d’Advanced Micro Devices, Inc. Game image © 2009 Digital Illusions CE AB. Tous droits réservés. Battlefield: Bad Company 2 est une marque commerciale d’EA Digital Illusions CE AB. EA et le logo EA sont des marques commerciales ou des marques déposées d’Electronic Arts Inc. aux Etats-Unis et/ou dans d’autres pays. Toutes les autres marques commerciales sont la propriété de leurs propriétaires respectifs. Microsoft Windows et DirectX sont des marques déposées de Microsoft Corporation aux Etats-Unis et/ou dans d’autres juridictions. Les autres noms sont mentionnés à titre d’information uniquement et peuvent être des marques commerciales de leurs propriétaires respectifs.


La puissance en première ligne.

Forte de 1200 Watts de puissance continue, la TPQ-1200 innove avec la technologie PowerCache™ , un condensateur hautes performances positionné en première ligne des câbles de la carte graphique et du processeur, capable de fournir de la puissance supplémentaire lorsque les besoins s’en font sentir. Son ventilateur PWM 80mm fonctionne silencieusement pour éradiquer la chaleur, et six rails +12V confèrent une stabilité maximum. Vous accédez également an nec plus ultra du rendement énergétique grâce à la certification 80 PLUS® Silver. Avec la TPQ-1200, la puissance est en première ligne. Pour plus d’informations, visitez www.antec.com.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.